Agenci AI

Jakub Pachocki o granicach autonomii AI: od żmudnego kodowania do wirtualnych laboratoriów

Jeszcze rok temu Jakub Pachocki, pełniący funkcję Chief Scientist w OpenAI, był programistycznym purystą. Swoją pracę opierał na edytorze Vim, własnoręcznie pisząc każdą linię kodu i stroniąc od narzędzi typu autocomplete. Dziś przyznaje, że postęp technologiczny zmusił go do rewizji tych przyzwyczajeń. Eksperymenty, które niegdyś zajmowały mu cały tydzień intensywnej pracy, obecne modele AI są w stanie sfinalizować w jeden weekend. „Z takim argumentem trudno dyskutować” – podkreśla Pachocki w rozmowie z MIT Technology Review.

Sztuczny stażysta u bram

Mimo fascynacji tempem pracy algorytmów, naukowiec zachowuje sceptycyzm wobec ich samodzielności projektowej. Choć AI doskonale radzi sobie z powtarzalnymi, czasochłonnymi zadaniami, Pachocki nie jest gotowy powierzyć jej „sterów” w procesie tworzenia złożonych systemów od zera. Narzędzia takie jak Codex postrzega nie jako uniwersalne rozwiązanie dla każdego dewelopera, lecz jako instrument, którego skuteczność zależy od konkretnego użytkownika i charakteru problemu.

Kluczowym punktem na mapie drogowej OpenAI jest obecnie projekt autonomicznego „stażysty badawczego AI”, którego premierę zapowiedziano na wrzesień. System ten ma odciążyć naukowców, przejmując zadania wymagające zazwyczaj kilku dni ludzkiej pracy. To jednak dopiero początek ambitnej wizji, która ma się urzeczywistnić do wiosny 2028 roku.

Laboratorium w centrum danych

Długofalowy plan zakłada stworzenie pełnoprawnego „Badacza AI” – multiagentowego systemu zdolnego do niezależnego rozwiązywania problemów z zakresu matematyki, fizyki, chemii, a nawet nauk politycznych i ekonomii. Pachocki przewiduje scenariusz, w którym całe centra danych będą funkcjonować jako gigantyczne laboratoria badawcze, realizując zadania, do których dziś potrzebne są setki etatowych pracowników korporacji pokroju Google czy OpenAI.

Ta wizja niesie ze sobą jednak poważne reperkusje społeczne i polityczne. Chief Scientist OpenAI otwarcie mówi o ryzyku związanym z „bezprecedensową koncentracją władzy”. Jeśli praca całych organizacji zostanie skondensowana w rękach garstki osób nadzorujących procesy w chmurze, struktura odpowiedzialności i wpływu na światową gospodarkę ulegnie radykalnej zmianie. Zdaniem Pachockiego, mimo rosnącej autonomii maszyn, kluczowe pozostaje utrzymanie ludzi na stanowiskach decyzyjnych, którzy będą wyznaczać cele i kierunki rozwoju tej cyfrowej inteligencji.