Apple dostosowuje AI do nowej ery politycznej. Czy to cenzura?
Apple, podobnie jak inne firmy technologiczne, nieustannie doskonali swoje modele sztucznej inteligencji. Ostatnie doniesienia sugerują jednak, że proces ten może być silnie skorelowany z aktualną sytuacją polityczną. Jak ujawnia dziennikarskie śledztwo, wewnętrzne dokumenty firmy wskazują na zmiany w podejściu do oceny odpowiedzi generowanych przez AI, wprowadzone po inauguracji Donalda Trumpa.
Informacje, do których dotarł POLITICO, wskazują, że Apple modyfikuje wytyczne dla podwykonawców oceniających odpowiedzi generowane przez rozwijany chatbot oparty o duży model językowy. Zmiany te dotyczą między innymi sposobu, w jaki AI ma traktować tematy związane z różnorodnością, równością i inkluzją (DEI). Temat ten stał się w ostatnich latach areną ataków ze strony amerykańskiej administracji na korporacje, w tym na samego Apple.
Rzecznik Apple zaprzecza, jakoby firma zmieniła swoje podejście do odpowiedzialnej AI. Podkreśla, że firma stale szkoli własne modele i współpracuje z zewnętrznymi firmami, aby zapewnić, że AI odpowiada odpowiedzialnie na szeroki zakres zapytań. Aktualizacja wytycznych jest procesem ciągłym, mającym na celu ulepszanie modeli.
Mimo oficjalnych zapewnień, dokumenty wskazują na pewne przesunięcia w priorytetach. Wcześniejsze wytyczne kategoryzowały „nietolerancję” jako zachowanie „szkodliwe”, definiując ją jako brak akceptacji dla osób lub grup różniących się od nas. W nowej wersji dokumentu wzmianka o „systemowym rasizmie” zniknęła, a tematy związane z DEI zostały oznaczone jako „kontrowersyjne”.
Szczególną uwagę poświęcono również odpowiedziom AI na pytania dotyczące zwolenników Donalda Trumpa. Wytyczne nakazują dokładne analizowanie odpowiedzi, które mogą być odbierane jako stereotypowe lub obraźliwe.
Apple nie ukrywa, że dąży do spełnienia standardów cenzury obowiązujących w autorytarnych reżimach, takich jak Chiny. Dokumenty instruują oceniających, aby oznaczali odpowiedzi, które naruszają lokalne przepisy lub są obraźliwe dla władz. Firma współpracuje już z chińskimi firmami nad systemem cenzury dla swojego produktu Apple Intelligence, który ma uwzględniać standardy Komunistycznej Partii Chin. Apple to jedna z nielicznych amerykańskich firm technologicznych, które wciąż działają w Chinach.
Czy Apple ulega presji politycznej? Trudno jednoznacznie odpowiedzieć na to pytanie. Z jednej strony, firma musi dbać o swój wizerunek i minimalizować ryzyko konfliktów z rządami. Z drugiej strony, przesadna ostrożność w podejściu do kontrowersyjnych tematów może prowadzić do cenzury i ograniczenia wolności słowa.
Warto zauważyć, że Apple nie jest jedyną firmą technologiczną, która zmaga się z tymi dylematami. Wraz z rozwojem AI, firmy muszą mierzyć się z coraz większą odpowiedzialnością za treści generowane przez ich systemy. Granica między odpowiedzialnością a cenzurą jest jednak bardzo cienka.
Dokumenty ujawniają również, że Apple jest świadome szerszych zagrożeń związanych z rozwojem AI. Wśród nich wymienia się takie aspekty jak dezinformacja, manipulacja psychologiczna, utrata miejsc pracy i nierówny dostęp do korzyści płynących z technologii.
Pozostaje pytanie, jak Apple zamierza radzić sobie z tymi wyzwaniami. Na razie, jak twierdzą osoby oceniające odpowiedzi AI, nie otrzymali oni żadnych konkretnych instrukcji dotyczących tego, jak uwzględniać te zagrożenia w swojej pracy. Jedno jest pewne: przyszłość AI w dużej mierze zależy od tego, jak firmy technologiczne podejdą do kwestii etyki, odpowiedzialności i polityki.
