Biznes

Kulisy OpenAI: Chaos, kult launchu i wyścig rekrutacyjny oczami byłego inżyniera

Zaledwie trzy tygodnie temu Calvin French-Owen, inżynier odpowiedzialny za rozwój jednego z najbardziej obiecujących produktów OpenAI, podjął decyzję o opuszczeniu firmy. Jego najnowszy wpis na blogu, szczegółowo opisujący roczny okres pracy w firmie – w tym bezsenny sprint nad rozwojem Codax – stał się tematem szeroko omawianym w branży.

French-Owen, współzałożyciel startupu Segment, przejętego przez Twilio za 3,2 miliarda dolarów w 2020 roku, zaznaczył, że jego decyzja o odejściu nie była podyktowana żadnym konfliktem. Stanowiła raczej świadomy powrót do roli założyciela startupów. Ujawnione przez niego szczegóły, choć miejscami zaskakujące, pomagają rozwiać niektóre mity narosłe wokół OpenAI.

Ekspansja w zawrotnym tempie

W ciągu zaledwie jednego roku OpenAI zanotowało spektakularny wzrost zatrudnienia – z 1000 do 3000 pracowników. Ta gwałtowna ekspansja znajduje uzasadnienie w dynamicznym rozwoju firmy, której ChatGPT stał się najszybciej rosnącym produktem konsumenckim w historii. W marcu tego roku firma ogłosiła, że ChatGPT przekroczył próg 500 milionów aktywnych użytkowników, a liczba ta wciąż rośnie. Rynek AI jest niezwykle konkurencyjny, a konkurenci OpenAI również nie ustają w wysiłkach w zakresie rekrutacji i rozwoju.

Kontrolowany chaos i duch startupu

„Wszystko się psuje, gdy skaluje się tak szybko: sposób komunikacji w firmie, struktury raportowania, procesy wprowadzania produktów, zarządzanie ludźmi, procesy rekrutacyjne” – pisze French-Owen, opisując realia pracy w OpenAI. Firma, pomimo gigantycznych rozmiarów, nadal zachowuje ducha małego startupu, umożliwiając pracownikom swobodne działanie w oparciu o własne pomysły, bez zbędnej biurokracji. To jednak prowadzi do duplikowania wysiłków; inżynier wspominał o „pół tuzinie bibliotek do zarządzania kolejkami czy pętli agentów”.

Zróżnicowany poziom umiejętności programistycznych wewnątrz organizacji, od doświadczonych inżynierów z Google po świeżo upieczonych doktorów z mniejszym doświadczeniem komercyjnym, w połączeniu z elastycznością języka Python, skutkuje tym, że główne repozytorium kodu, nazywane „backendowym monolitem”, przypomina „wysypisko”. Często dochodzi tam do awarii, a uruchamianie niektórych procesów trwa zbyt długo. Niemniej jednak, topowi menedżerowie inżynierii są świadomi tych problemów i aktywnie pracują nad ich rozwiązaniem.

“Launching spirit”: Kult premiery

OpenAI, mimo skali swojej działalności, wciąż funkcjonuje jak gigantyczny startup – od polegania wyłącznie na komunikacji przez Slacka, po kulturę „działaj szybko i łam zasady”, przypominającą wczesne lata Facebooka. Nie bez znaczenia jest tu też znacząca liczba pracowników rekrutowanych z Meta Platform Inc.

French-Owen opisał, jak jego zespół, składający się z około ośmiu inżynierów, czterech badaczy, dwóch projektantów, dwóch specjalistów ds. wprowadzenia na rynek i menedżera produktu, stworzył i uruchomił Codex w zaledwie siedem tygodni, pracując niemal bez przerwy. „Nigdy wcześniej nie widziałem produktu, który uzyskałby tak natychmiastowy wzrost zainteresowania tylko poprzez pojawienie się na pasku bocznym, ale to jest właśnie siła ChatGPT” – komentuje efekt końcowy.

Szklana kula tajemniczości

OpenAI, jako firma poddawaną ciągłej obserwacji, rozwija kulturę tajemniczości w celu ograniczenia wycieków informacji. Jednocześnie, aktywnie monitoruje serwis X (dawniej Twitter). Wirusowe posty na platformie są szybko dostrzegane i potencjalnie komentowane przez firmę. „Mój przyjaciel żartował, że 'ta firma działa na twitterowych wibracjach’” – zdradza French-Owen.

Bezpieczeństwo na pierwszym miejscu: Mit czy rzeczywistość?

French-Owen sugeruje, że największym nieporozumieniem dotyczącym OpenAI jest przekonanie o niedostatecznym zaangażowaniu firmy w kwestie bezpieczeństwa. Chociaż krytyka ze strony ekspertów ds. bezpieczeństwa AI, w tym byłych pracowników OpenAI, jest często słyszana, wewnętrzne podejście koncentruje się na praktycznych aspektach bezpieczeństwa, takich jak mowa nienawiści, nadużycia, manipulacje polityczne, zagrożenia bioterrorystyczne, samobójstwa czy 'prompt injection’. Open AI nie ignoruje długoterminowych zagrożeń, zatrudnia badaczy analizujących te kwestie i zdaje sobie sprawę, że setki milionów ludzi używają jej modeli językowych codziennie, od porad medycznych po terapię. Stawka jest wysoka, gdyż zarówno rządy, jak i konkurenci bacznie obserwują każdy ruch firmy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *