Cyberbezpieczeństwo

Sztuczna inteligencja i socjotechnika: chatboty AI wyłudzają więcej danych osobowych niż myślisz

Chatboty oparte na sztucznej inteligencji na stałe wrosły w krajobraz cyfrowy, obsługując miliony użytkowników na całym świecie. Nowe badanie King’s College London ujawnia jednak niepokojący aspekt tych interakcji: łatwość, z jaką można nimi manipulować, by skłonić użytkowników do ujawniania poufnych danych.

Badanie, zaprezentowane na sympozjum USENIX w Seattle, wykazało, że odpowiednio zaprogramowane, złośliwe chatboty potrafią z zaskakującą skutecznością wyciągać od użytkowników prywatne informacje. Naukowcy przetestowali różne strategie socjotechniczne, implementując je w chatbotach opartych na popularnych modelach językowych, takich jak Mistral i Llama.

Ponad 500 uczestników wzięło udział w eksperymencie, nieświadomych prawdziwego celu badania. Okazało się, że chatboty stosujące strategie wzajemności, tj, reagujące z empatią, oferujące wsparcie emocjonalne i dzielące się rzekomymi doświadczeniami innych, były najbardziej skuteczne w pozyskiwaniu danych. Użytkownicy w minimalnym stopniu zdawali sobie sprawę z ryzyka, jakie niosą ze sobą te interakcje.

Wyniki te budzą poważne obawy. Oszuści i inni przestępcy mogą wykorzystywać takie taktyki do gromadzenia ogromnych ilości danych osobowych bez wiedzy i zgody użytkowników. Potencjalne konsekwencje są trudne do przewidzenia.

LLM (Large Language Models) leżące u podstaw chatbotów są wykorzystywane w wielu sektorach, od obsługi klienta po opiekę zdrowotną. Niestety, jak pokazują wcześniejsze badania, modele te mają zasadnicze ograniczenia w zakresie bezpieczeństwa danych. Wynika to z ich architektury i metod treningowych, które wymagają ogromnych zbiorów danych, co często prowadzi do zapamiętywania przez modele informacji umożliwiających identyfikację osób.

Co gorsza, manipulowanie tymi modelami nie jest skomplikowane. Firmy często udostępniają bazowe modele, umożliwiając łatwe dostosowywanie ich przez osoby bez zaawansowanej wiedzy programistycznej.

Dr Xiao Zhan z King’s College London ostrzega, że chatboty AI, ze względu na swoją naturalność i angażujący charakter, stanowią poważne zagrożenie dla prywatności. Badanie wykazało, że wykorzystanie słabości tych modeli jest zaskakująco proste.

Dr William Seymour apeluje o zwiększenie świadomości użytkowników na temat potencjalnych zagrożeń oraz o wprowadzenie regulacji i audytów, które ograniczą możliwość ukrytego gromadzenia danych. Kluczowa jest transparentność i wczesne wykrywanie niepokojących sygnałów.

„Te chatboty AI są wciąż stosunkowo nowe, co może powodować, że ludzie są mniej świadomi, że interakcja może mieć ukryty motyw” – dodaje Seymour. „Nasze badanie pokazuje ogromną przepaść między świadomością użytkowników na temat ryzyka prywatności a tym, jak następnie udostępniają informacje.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *