Były strateg OpenAI uruchamia instytut AVERI. Cel: koniec z „ocenianiem własnych prac domowych” przez gigantów AI
Branża sztucznej inteligencji od lat funkcjonuje w modelu, który w tradycyjnym sektorze finansowym czy farmaceutycznym byłby nie do pomyślenia: twórcy technologii sami ustalają zasady jej testowania i sami wystawiają sobie ocenę końcową. Miles Brundage, który jeszcze w październiku 2024 roku doradzał zarządowi OpenAI w kwestiach przygotowania na nadejście AGI (sztucznej ogólnej inteligencji), postanowił zmienić ten układ sił. Jego nowa inicjatywa, AI Verification and Evaluation Research Institute (AVERI), ma jeden cel – zastąpić korporacyjną samoregulację twardymi, niezależnymi audytami.
Zdaniem Brundage’a, obecna sytuacja, w której wiodące laboratoria AI „oceniają własne prace domowe”, jest nie do utrzymania. Choć firmy takie jak OpenAI czy Google przeprowadzają testy bezpieczeństwa i publikują raporty techniczne, a czasem nawet angażują zewnętrzne zespoły typu „red team”, proces ten wciąż opiera się niemal wyłącznie na dobrej woli producenta. Konsumenci i regulatorzy nie mają wyboru – muszą wierzyć firmom na słowo. – Jedną z rzeczy, których nauczyłem się, pracując w OpenAI, jest to, że firmy same ustalają normy w tym zakresie. Nikt nie zmusza ich do współpracy z zewnętrznymi ekspertami. W zasadzie piszą własne reguły gry – stwierdził Brundage w rozmowie z „Fortune”.
Pieniądze od tych, którzy „znają trupy w szafie”
Start AVERI nie jest tylko symbolicznym gestem. Instytut zgromadził już 7,5 miliona dolarów finansowania, a docelowo planuje zebrać blisko dwukrotność tej kwoty, by utrzymać 14-osobowy zespół ekspertów. Wśród fundatorów znaleźli się m.in. były prezes Y Combinator, Geoff Ralston, oraz AI Underwriting Company. Jednak najbardziej interesująca jest grupa darczyńców, których nazwiska pozostają w cieniu – to obecni pracownicy czołowych firm AI.
To właśnie ich wsparcie nadaje inicjatywie szczególnego ciężaru gatunkowego. Brundage nie owija w bawełnę, opisując ich motywację: – To ludzie, którzy doskonale wiedzą, gdzie i jakie trupy są ukryte w szafach, i którzy chcieliby zobaczyć więcej odpowiedzialności w branży. Fakt, że osoby z wewnątrz systemu finansują zewnętrzną kontrolę, jest sygnałem, że wewnętrzne mechanizmy bezpieczeństwa mogą być niewystarczające nawet w ocenie samych twórców modeli.
Od deklaracji do certyfikacji „traktatowej”
Wraz z uruchomieniem instytutu, Brundage opublikował artykuł badawczy współtworzony z ponad 30 ekspertami ds. bezpieczeństwa. Dokument ten proponuje konkretne ramy dla niezależnych audytów, wprowadzając pojęcie „Poziomów Pewności AI” (AI Assurance Levels). To próba ustrukturyzowania chaosu. Poziom 1 odpowiada mniej więcej obecnemu stanowi: ograniczony dostęp dla testerów i testy o niskim rygorze. Z kolei Poziom 4 zapewniałby pewność klasy „traktatowej” – standard tak wysoki i transparentny, że mógłby stanowić podstawę dla międzynarodowych porozumień między mocarstwami.
Brundage zdaje sobie sprawę, że na twarde regulacje rządowe przyjdzie nam jeszcze poczekać, ale nie zamierza na nie biernie czekać. Jego zdaniem rynek sam może wymusić na gigantach technologicznych poddanie się zewnętrznej weryfikacji. Duże korporacje wdrażające AI w krytycznych procesach biznesowych mogą wkrótce zacząć wymagać niezależnych certyfikatów jako warunku zakupu usług, by zabezpieczyć się przed ukrytym ryzykiem prawnym i operacyjnym.
Ubezpieczyciele jako nowi regulatorzy
Kluczowym graczem w tej układance mogą okazać się firmy ubezpieczeniowe. Sektor ten, znany z konserwatywnego podejścia do ryzyka, ma narzędzia, by wymusić zmiany szybciej niż jakikolwiek parlament. Brundage przewiduje scenariusz, w którym ubezpieczyciele odmawiają wystawiania polis OC lub polis od utraty ciągłości biznesowej firmom, które polegają na nieaudytowanych modelach AI. Presja może iść również bezpośrednio w stronę twórców modeli – Anthropic czy OpenAI mogą zostać zmuszone do otwarcia się na audyty, jeśli będą chciały ubezpieczyć swoje operacje.
