Data Science

Korea wyznacza standardy dla bezpieczeństwa i wiarygodności AI

Wraz z coraz głębszą integracją sztucznej inteligencji z codziennym życiem i przemysłem, wyzwaniem o globalnym zasięgu staje się zapewnienie jej bezpieczeństwa i wiarygodności. W tym kontekście, Korea Południowa, z Instytutem Badawczym Elektroniki i Telekomunikacji (ETRI) na czele, aktywnie angażuje się w kształtowanie międzynarodowych ram dla tej technologii. Inicjatywa koreańskich naukowców pozycjonuje kraj z roli naśladowcy w roli lidera, wyznaczającego nowe standardy w erze AI.

Red team testing: testy obronne dla sztucznej inteligencji

Jednym z kluczowych obszarów działań jest opracowanie standardu „AI Red Team Testing”. Metoda ta polega na agresywnym eksplorowaniu i testowaniu systemów AI w celu identyfikacji potencjalnych luk bezpieczeństwa, błędów czy możliwości nadużyć. Celem jest proaktywne wykrywanie scenariuszy, w których generatywna AI mogłaby produkować dezinformację lub być wykorzystana do obejścia zabezpieczeń użytkownika.

ETRI pełni rolę edytora w pracach nad międzynarodowym standardem ISO/IEC 42119-7, którego celem jest stworzenie uniwersalnych procedur i metod testowania. Mogą one znaleźć zastosowanie w wielu dziedzinach, od medycyny i finansów po obronność.

Praktycznym przykładem zaangażowania ETRI było zorganizowanie pierwszego w Azji „Advanced AI Digital Medical Product Red Team Challenge and Technology Workshop”. Wydarzenie to, z udziałem profesjonalistów medycznych, ekspertów ds. bezpieczeństwa i społeczeństwa, miało na celu badanie stronniczości i ryzyka związanego z medycznymi urządzeniami AI. Instytut, we współpracy z Seoul Asan Medical Center, pracuje również nad tworzeniem metodyki oceny czerwonego zespołu specyficznej dla medycyny, co ma doprowadzić do powstania systemu testowania cyfrowych produktów medycznych wykorzystujących zaawansowane technologie AI.

Dodatkowo, ETRI zacieśniło współpracę z wiodącymi firmami technologicznymi, takimi jak STA, NAVER, Upstage, SelectStar, KT i LG AI Research Institute, aby wzmocnić wysiłki na rzecz standaryzacji testów „czerwonego zespołu” na arenie międzynarodowej.

Etykiety wiarygodności dla AI

Drugim istotnym standardem jest „Trustworthiness Fact Label (TFL)”. Jego zadaniem jest zapewnienie użytkownikom przejrzystych informacji o poziomie wiarygodności systemu AI. Koncepcja ta przypomina etykiety wartości odżywczych na produktach spożywczych, pozwalając na szybką ocenę. ETRI przewodzi pracom nad serią standardów ISO/IEC 42117, które w przyszłości mogą uwzględniać czynniki ESG, takie jak ślad węglowy AI.

W połączeniu ze standardem Systemu Zarządzania AI (ISO/IEC 42001), który służy jako międzynarodowy certyfikat dla organizacji wykorzystujących AI, TFL ma stworzyć kompleksowe ramy do oceny wiarygodności opracowywanych produktów i usług. Te dwa standardy wpisują się w rządowe strategie „Sovereign AI” i „AI G3 leapfrog”, mające na celu nie tylko wzmocnienie technologiczne, ale także odegranie kluczowej roli w kształtowaniu globalnych regulacji AI.

Działania ETRI, podobne do tych podejmowanych przez amerykański National Institute of Standards and Technology (NIST), mają na celu wspieranie narodowej strategii AI poprzez rozwój technologii bezpieczeństwa i wiodącą rolę w międzynarodowej standaryzacji bezpieczeństwa i wiarygodności sztucznej inteligencji. Jak zauważa Kim Wook z IITP, zapewnienie tego bezpieczeństwa i wiarygodności ułatwi powszechne użytkowanie AI, a koreańska inicjatywa jest krokiem w kierunku bycia krajem wyznaczającym normy dla AI.

Lee Seung Yun, wiceprezes ETRI ds. badań nad standardami i otwartym oprogramowaniem, podkreśla, że testy „czerwonego zespołu” oraz etykiety wiarygodności AI to kluczowe elementy polityk regulacyjnych w USA, UE i innych państwach. Międzynarodowe standardy opracowywane przez Koreę będą służyć jako wspólne kryteria oceny bezpieczeństwa i wiarygodności systemów AI na świecie. ETRI zamierza kontynuować swoją wiodącą rolę w międzynarodowej standaryzacji w tej dziedzinie, pozycjonując Koreę jako centrum doskonałości nie tylko dla suwerennej AI, ale także dla technologii zapewniających jej bezpieczeństwo.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *