BiznesLudzie

OpenAI traci kolejnego eksperta. Andrea Vallone przechodzi do Anthropic

Rywalizacja o kadry między czołowymi laboratoriami sztucznej inteligencji nie zwalnia tempa. Andrea Vallone, starsza badaczka do spraw bezpieczeństwa w OpenAI, po trzech latach opuszcza firmę kierowaną przez Sama Altmana, by dołączyć do konkurencyjnego Anthropic. Vallone zasili tam zespół do spraw dostosowywania modeli (alignment team), koncentrujący się na mitygacji ryzyk związanych z funkcjonowaniem zaawansowanych systemów AI.

W trakcie swojej kadencji w OpenAI, Vallone odegrała kluczową rolę w pracach nad flagowymi projektami, w tym GPT-4, nadchodzącym GPT-5 oraz modelami o zwiększonych zdolnościach rozumowania. Była również założycielką wewnętrznego zespołu badawczego „Model Policy”. W ostatnim roku jej uwaga skupiała się na jednym z najbardziej palących problemów branży: protokołach reakcji algorytmów na użytkowników wykazujących oznaki kryzysów psychicznych lub emocjonalnego uzależnienia od chatbotów.

Kwestia ta nabrała krytycznego znaczenia w świetle doniesień o tragicznych skutkach interakcji nastolatków z technologią, włączając w to przypadki samobójstw, które doprowadziły do pozwów sądowych ze strony rodzin ofiar oraz specjalnych przesłuchań w amerykańskim Senacie. Przejście Vallone do Anthropic sugeruje, że temat psychologicznego oddziaływania AI na użytkownika będzie traktowany priorytetowo również przez twórców modelu Claude.

W nowej roli Vallone będzie raportować bezpośrednio do Jana Leikego. Leike, były szef badań nad tak zwanym super-alignmentem w OpenAI, opuścił firmę w maju 2024 roku w atmosferze kontrowersji, pociągając za sobą część zespołu. Publicznie zarzucił wówczas swojemu byłemu pracodawcy, że kwestie bezpieczeństwa ustąpiły miejsca presji na jak najszybsze wdrażanie „lśniących produktów”. Transfer Vallone zdaje się potwierdzać trend migracji specjalistów od etyki i bezpieczeństwa do laboratoriów, które – przynajmniej deklaratywnie – stawiają te zagadnienia wyżej w swojej hierarchii wartości.