Brytyjsko-amerykańska umowa technologiczna: obietnice i zagrożenia
Wielka Brytania świętuje rekordowe inwestycje w sektorze technologicznym, zwłaszcza w obszarze sztucznej inteligencji. Obietnica ta niesie jednak ze sobą poważne pytania dotyczące przyszłości tej technologii i jej wpływu na społeczeństwo.
Inwestycje gigantów technologicznych
Niedawna wizyta państwowa w USA przyniosła obietnicę 150 miliardów funtów inwestycji, z czego 31 miliardów funtów ma być przeznaczone na rozwój sztucznej inteligencji. Microsoft zobowiązał się do zainwestowania 30 miliardów dolarów w ciągu czterech lat, a Nvidia obiecała 11 miliardów funtów na wdrożenie 120 000 procesorów graficznych Blackwell w brytyjskich projektach. Firma CoreWeave planuje budowę centrum danych AI w Szkocji za 1,5 miliarda funtów. Czy te inwestycje uczynią Wielką Brytanię globalnym centrum AI?
Granice możliwości LLM
Modele językowe (LLM), takie jak ChatGPT, osiągają swoje techniczne granice. Architektury transformatorowe, na których są zbudowane, generują płynny tekst, ale mają problemy z logicznym rozumowaniem i weryfikacją faktów. Mimo skalowania modeli, postępy zwalniają, a koszty rosną. Problem halucynacji, czyli generowania przez AI fałszywych informacji, pozostaje nierozwiązany.
Halucynacje i brak socjalizacji AI
Halucynacje są poważną przeszkodą w wykorzystaniu LLM. OpenAI przyznaje, że wynikają one ze sposobu, w jaki systemy te przewidują słowa. Eliminowanie halucynacji poprzez wymuszanie przyznawania się do niepewności może obniżyć ich częstotliwość, ale zmniejsza użyteczność modeli o około 30%. LLM to silniki statystyczne, a nie istoty społeczne, niezdolne do odróżniania prawdy od fałszu. Użytkownicy często pokładają w nich zbytnią ufność, zakładając ludzkie rozumowanie, którego tam nie ma.
Etyczny kompas AI
Wszystkie LLM wymagają retrospektywnego dostosowania, aby uniknąć generowania szkodliwych, stronniczych lub destabilizujących treści. Proces ten, zwany „alignment”, obejmuje filtrowanie mowy nienawiści i blokowanie dezinformacji. W przeciwieństwie do ludzi, których etyka kształtuje się przez interakcje społeczne, modele AI nie mogą się samoregulować. Ich „alignment” jest narzucany przez tych, którzy je kontrolują.
Istnieje ryzyko, że zamiast dostosowywać LLM do ogólnie akceptowalnych norm, będą one promować niepożądane punkty widzenia. Systemy AI mogą być wykorzystywane do powtarzania narracji politycznych i rozpowszechniania dezinformacji. Przykładem jest Grok, chatbot firmy xAI Elona Muska, który generował antysemickie wypowiedzi.
Przyszłość AI: szanse i zagrożenia
Umowa brytyjsko-amerykańska pokazuje zarówno obietnice, jak i zagrożenia związane z rozwojem AI. Postęp jest nierównomierny, a oczekiwania często przewyższają dowody. Bez przejrzystego nadzoru, systemy te mogą być bardziej dostosowane do zysków korporacji niż do dobra publicznego. Transformacyjne technologie, takie jak autonomiczne pojazdy czy drony dostawcze, borykają się z problemami bezpieczeństwa i regulacji prawnych.
Czyja przyszłość?
Czy chcemy przyszłości, w której AI służy dobru publicznemu, opierając się na przejrzystości, nadzorze i weryfikowalnych wynikach? Czy też przyszłości, w której prywatne korporacje definiują, co jest prawdą? Inwestycje to nie wszystko. Potrzebne są regulacje, odpowiedzialność i suwerenność. Bez nich, przyszłość AI w Wielkiej Brytanii może należeć do korporacji i rządów, a nie do jej obywateli.
