Sam Altman ostrzega: dane z czatbotów nie mają ochrony prawnej
W świetle rosnącej popularności czatbotów opartych na sztucznej inteligencji, takich jak ChatGPT, jako narzędzi do intymnych rozmów i poszukiwania wsparcia emocjonalnego, pojawia się istotne pytanie o zakres ochrony prywatności tych interakcji. Sam Altman, dyrektor generalny OpenAI, jasno stawia sprawę: obecne ramy prawne nie zapewniają poufności na wzór relacji pacjent–lekarz czy klient–adwokat.
Podczas niedawnego występu w podcaście Theo Vona, This Past Weekend w/ Theo Von, Altman podkreślił, że brak wypracowanych regulacji prawnych dotyczących AI stwarza lukę w ochronie danych użytkowników. Wiele osób, zwłaszcza młodych, traktuje ChatGPT jako osobistego terapeutę lub coacha, powierzając mu najbardziej wrażliwe szczegóły swojego życia. Altman zauważył, że „ludzie rozmawiają o najbardziej osobistych rzeczach w swoim życiu z ChatGPT”. Obecnie, w przypadku procesu sądowego, OpenAI byłoby prawnie zobowiązane do ujawnienia tych rozmów.
Brak prawnych gwarancji
Tradycyjnie, rozmowy z profesjonalistami, takimi jak lekarze czy prawnicy, objęte są ścisłą poufnością prawną. Ta zasada ma na celu zachęcanie do otwartej komunikacji bez obawy o konsekwencje prawne. W przypadku interakcji z AI, takiej jak ChatGPT, podobne gwarancje nie istnieją. Altman uważa, że to „bardzo popsute” i że powinniśmy dążyć do wprowadzenia podobnych standardów prywatności dla rozmów z AI, jakie obowiązują w przypadku terapeutów. Zauważa też, że jeszcze rok temu nikt nie musiał zastanawiać się nad tym problemem.
Oznacza to, że wszelkie informacje udostępnione czatbotowi, nawet jeśli mają charakter głęboko osobisty i intymny, mogą zostać wykorzystane w postępowaniach prawnych. Ta perspektywa budzi poważne obawy dotyczące prywatności i może stanowić znaczącą barierę dla szerszej adopcji technologii AI w kontekstach wymagających zaufania i poufności.
Sądowe wyzwania i sprzeciw OpenAI
Problem prywatności danych nie jest tylko teoretyczny. OpenAI jest już zaangażowane w spór prawny z The New York Times, w ramach którego wydano nakaz sądowy zobowiązujący firmę do zachowania czatów setek milionów użytkowników ChatGPT na całym świecie, z wyjątkiem klientów ChatGPT Enterprise. OpenAI złożyło apelację od tego nakazu, nazywając go „przekroczeniem uprawnień”. Firma twierdzi, że takie działanie sądu mogłoby otworzyć drogę do dalszych żądań ujawnienia danych w celach dowodowych lub dla organów ścigania.
Ten sprzeciw nie jest bezpodstawny. Firmy technologiczne są regularnie wzywane do udostępniania danych użytkowników w celu wspierania postępowań karnych. Jednak w ostatnich latach, w obliczu ograniczeń prawnych dotyczących utrwalonych swobód – jak na przykład kwestia prawa kobiet do wyboru po unieważnieniu wyroku Roe v. Wade przez Sąd Najwyższy – wzrosło zaniepokojenie dotyczące dostępu do danych cyfrowych. Wówczas, z obawy o prywatność, użytkownicy zaczęli masowo przechodzić na bardziej bezpieczne aplikacje do śledzenia cyklu menstruacyjnego lub na Apple Health, które szyfrują dane.
Sam Altman, poruszając te kwestie, zapytał nawet Theo Vona o jego własne korzystanie z ChatGPT, zauważając, że gospodarz podcastu rzadko używa czatbota ze względu na obawy dotyczące prywatności. „Myślę, że to ma sens… aby naprawdę chcieć jasności w kwestii prywatności, zanim zacznie się dużo korzystać z ChatGPT – takiej jasności prawnej” – podsumował Altman, podkreślając wagę klarownych regulacji przed pełną integracją AI w nasze życie codzienne.
