Bezpieczeństwo

Sam Altman ostrzega przed ryzykiem użycia agentów AI z danymi wrażliwymi

Sam Altman, szef OpenAI, wydał wyraźne ostrzeżenie dotyczące wykorzystania nowej generacji agentów ChatGPT. Apeluje do użytkowników, aby nie pokładali w tych narzędziach nadmiernego zaufania, zwłaszcza gdy chodzi o obsługę wrażliwych informacji lub danych osobowych. To przestroga, która stawia pod znakiem zapytania powszechne przekonanie o niezwykłej skuteczności i bezpieczeństwie sztucznej inteligencji w każdych warunkach.

Według Altmana, agenci ChatGPT to pierwsze systemy OpenAI zdolne do autonomicznego wykonywania wieloetapowych zadań. Mogą rozkładać złożone zapytania na mniejsze kroki, wykorzystywać zewnętrzne narzędzia oraz samodzielnie podejmować działania. Stanowią ewolucję w stosunku do wcześniejszych produktów, takich jak Deep Research czy Operator. Niemniej jednak, Altman podkreśla, że to innowacyjne rozwiązanie nie jest wolne od zagrożeń. Mimo zastosowania „szeregu zabezpieczeń i ostrzeżeń”, pewne ryzyka pozostają nieprzewidywalne. Zdecydowanie odradza wykorzystywanie agentów do kluczowych zadań lub tam, gdzie w grę wchodzi duża ilość prywatnych danych.

Jednym z kluczowych zagrożeń, na które wskazuje Altman, jest ryzyko udzielenia agentowi AI zbyt szerokich uprawnień, na przykład dostępu do skrzynki e-mail, bez odpowiedniego nadzoru. Potencjalnie złośliwa wiadomość mogłaby oszukać agenta, prowadząc do ujawnienia poufnych danych lub wykonania niepożądanych działań.

To nie są spekulacje. Badacze wielokrotnie dowiedli, że agenci AI są podatni na manipulację za pomocą stosunkowo prostych promptów. Takie działania mogły prowadzić do ujawnienia prywatnych informacji lub niepożądanych działań. Altman określa obecną wersję agenta ChatGPT jako „eksperymentalny” system, stanowiący jedynie przedsmak możliwości, ale nieprzeznaczony do zastosowań wysokiego ryzyka czy wrażliwych pod względem prywatności.

„Nie wiemy dokładnie, jakie będą konsekwencje, ale złośliwi aktorzy mogą próbować 'oszukać’ agentów AI użytkowników, aby ci ujawnili prywatne informacje, których nie powinni, i podejmowali działania, których nie powinni, w sposób, którego nie potrafimy przewidzieć. Zalecamy nadawanie agentom minimalnego dostępu wymaganego do wykonania zadania, aby zmniejszyć ryzyko związane z prywatnością i bezpieczeństwem” – pisze Altman. Na razie zaleca on minimalizowanie zakresu dostępu udzielanego agentom. OpenAI zamierza opierać się na informacjach zwrotnych z rzeczywistego użytkowania, aby udoskonalać swoje środki bezpieczeństwa. Altman zaznacza jednak, że w przypadku problemów lub ujawnienia wrażliwych danych, odpowiedzialność spoczywa na użytkowniku, a nie na OpenAI. Każdy, kto korzysta z agenta ChatGPT, powinien być świadomy tego ryzyka.

Altman broni tego podejścia, twierdząc: „Uważamy, że ważne jest, aby zacząć uczyć się poprzez kontakt z rzeczywistością i aby ludzie ostrożnie i powoli adaptowali te narzędzia, w miarę jak lepiej kwantyfikujemy i łagodzimy potencjalne ryzyka. Podobnie jak w przypadku innych nowych poziomów możliwości, społeczeństwo, technologia i strategia łagodzenia ryzyka będą musiały ewoluować wspólnie.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *