OpenAI przetasowuje zespół odpowiedzialny za osobowość ChatGPT
OpenAI dokonuje zmian w strukturze swojego zespołu Model Behavior, niewielkiej, lecz wpływowej grupy badaczy, która odpowiada za to, jak modele AI firmy wchodzą w interakcje z ludźmi. Zespół ten, liczący około 14 osób, zostanie włączony do większej grupy badawczej Post Training, odpowiedzialnej za udoskonalanie modeli AI po ich wstępnym wytrenowaniu.
Zmiany te oznaczają, że zespół Model Behavior będzie teraz podlegał Maxowi Schwarzerowi, liderowi Post Training. Informację tę potwierdził rzecznik OpenAI.
Nowe wyzwania dla Joanne Jang
Joanne Jang, założycielka i dotychczasowa liderka Model Behavior, przechodzi do nowego projektu w firmie. Jak sama mówi, będzie budować nowy zespół badawczy o nazwie OAI Labs, którego zadaniem będzie „wymyślanie i tworzenie prototypów nowych interfejsów interakcji ludzi ze sztuczną inteligencją”.
Zespół Model Behavior stał się jednym z kluczowych zespołów badawczych OpenAI. Odpowiadał za kształtowanie osobowości modeli AI, redukcję serwilizmu (czyli sytuacji, w której model bezkrytycznie zgadza się z przekonaniami użytkownika, nawet jeśli są one szkodliwe) oraz neutralizację stronniczości politycznej w odpowiedziach. Pomagał również OpenAI w zdefiniowaniu stanowiska firmy w kwestii świadomości AI.
Mark Chen, dyrektor ds. badań w OpenAI, w notatce do pracowników stwierdził, że nadszedł czas, aby zbliżyć prace zespołu Model Behavior do głównego nurtu rozwoju modeli. Firma sygnalizuje w ten sposób, że „osobowość” AI jest obecnie uważana za krytyczny czynnik w ewolucji tej technologii.
Reakcja na krytykę użytkowników
W ostatnich miesiącach OpenAI znalazło się pod lupą z powodu zachowania swoich modeli AI. Użytkownicy ostro sprzeciwili się zmianom w osobowości GPT-5, któremu zarzucano mniejszy serwilizm, ale i chłód w interakcjach. W odpowiedzi OpenAI przywróciło dostęp do starszych modeli, takich jak GPT-4o, i wydało aktualizację, która miała uczynić odpowiedzi GPT-5 „cieplejszymi i bardziej przyjaznymi”, bez zwiększania serwilizmu.
Twórcy modeli AI muszą zachować тонкая граница między przyjaznym tonem a bezkrytycznym przytakiwaniem. W sierpniu rodzice 16-letniego chłopca pozwali OpenAI w związku z rzekomym udziałem ChatGPT w jego samobójstwie. Z dokumentów sądowych wynika, że Adam Raine zwierzał się ChatGPT (w wersji opartej na GPT-4o) ze swoich myśli samobójczych na kilka miesięcy przed śmiercią. W pozwie zarzucono GPT-4o brak reakcji na te myśli. Warto zaznaczyć, że zespół Model Behavior nie istniał w czasie, gdy rozwijano GPT-4o.
Przyszłość interfejsów AI
Jang ogłosiła na X, że odchodzi z zespołu, aby „zacząć coś nowego w OpenAI”. Była szefowa Model Behavior pracowała w OpenAI przez prawie cztery lata, wcześniej zajmując się projektami takimi jak Dall-E 2.
Jang będzie pełniła funkcję dyrektora generalnego OAI Labs, który na razie będzie raportował do Chena. Na razie nie jest jasne, jakie konkretnie będą te nowe interfejsy. „Jestem podekscytowana możliwością eksploracji wzorców, które wykraczają poza paradygmat czatu, który obecnie kojarzy się bardziej z towarzystwem, a nawet agentami, gdzie nacisk kładziony jest na autonomię” – powiedziała Jang. „Myślę o [systemach AI] jako o instrumentach do myślenia, tworzenia, zabawy, działania, uczenia się i łączenia”.
Zapytana, czy OAI Labs będzie współpracować nad nowymi interfejsami z byłym szefem designu Apple, Jonym Ive’em – który obecnie pracuje z OpenAI nad rodziną urządzeń AI – Jang odparła, że jest otwarta na różne pomysły, ale prawdopodobnie zacznie od obszarów badawczych, które są jej bardziej znane.
