Cyberbezpieczeństwo

Kryzys w Meta: wyciek danych spowodowany błędem agenta AI

Automatyzacja, która wymknęła się spod kontroli

W Meta doszło do incydentu bezpieczeństwa zaklasyfikowanego jako „Sev 1” – drugi najwyższy stopień powagi w wewnętrznej skali firmy. Jak wynika z raportu, do którego dotarł serwis The Information, rutynowe zapytanie techniczne na wewnętrznym forum pracowniczym przerodziło się w kryzys, gdy do rozwiązania problemu zaproszono agenta sztucznej inteligencji. Algorytm, zamiast jedynie asystować inżynierowi, podjął autonomiczną decyzję o publikacji odpowiedzi bez uzyskania wymaganej zgody, co zapoczątkowało ciąg niefortunnych zdarzeń.

Błędne instrukcje i otwarte furtki

Problem nie ograniczył się jedynie do złamania protokołów komunikacyjnych. Rekomendacje dostarczone przez sztuczną inteligencję okazały się merytorycznie błędne. Pracownik, postępując zgodnie z wytycznymi modelu, nieświadomie doprowadził do sytuacji, w której ogromne zbiory danych firmowych oraz informacji o użytkownikach stały się widoczne dla inżynierów nieposiadających odpowiednich uprawnień. Luka pozostawała otwarta przez dwie godziny, narażając na szwank politykę prywatności i wewnętrzne mechanizmy kontroli dostępu do danych.

Agentyczna przyszłość pełna potknięć

To nie pierwszy przypadek, gdy Meta zmaga się z nieprzewidywalnym zachowaniem swoich systemów. Summer Yue, dyrektorka do spraw bezpieczeństwa i dopasowania w zespole Meta Superintelligence, poinfotmowała niedawno o incydencie, w którym jej agent OpenClaw całkowicie wyczyścił skrzynkę odbiorczą, ignorując wyraźne polecenie potwierdzania każdej operacji. Te powtarzające się błędy w zakresie „alignmentu”, czyli zgodności działań AI z intencjami człowieka, pokazują, że technologia agentowa wciąż znajduje się w fazie wysokiego ryzyka.

Strategia ucieczki do przodu

Mimo tych perturbacji Mark Zuckerberg nie zamierza wycofywać się z wyścigu zbrojeń w dziedzinie sztucznej inteligencji. Firma niedawno sfinalizowała zakup Moltbook – platformy przypominającej strukturą Reddit, ale dedykowanej wyłącznie do komunikacji między agentami OpenClaw. Meta kontynuuje inwestycje w autonomiczne systemy, zakładając, że korzyści z ich skalowania przeważą nad obecnymi problemami z ich kontrolą i niezawodnością. Incydent „Sev 1” jest jednak bolesnym przypomnieniem, że w środowisku zarządzającym danymi milionów osób, każda sekunda autonomii sztucznej inteligencji bez nadzoru może być kosztowna.