Anthropic kontra open source: Krótka blokada twórcy OpenClaw obnaża napięcia w branży
W świecie sztucznej inteligencji granica między wspieraniem ekosystemu a monetyzacją własnych rozwiązań staje się coraz cieńsza. Przekonał się o tym Peter Steinberger, deweloper stojący za projektem OpenClaw, którego konto w serwisie Anthropic zostało nagle zawieszone pod zarzutem „podejrzanej aktywności”. Choć blokada trwała zaledwie kilka godzin i została zniesiona po fali krytyki w mediach społecznościowych, incydent ten stanowi kulminację narastającego konfliktu między twórcami otwartego oprogramowania a gigantami sektora AI.
Podatek od automatyzacji
Zamieszanie wokół Steinbergera nie wzięło się z próżni. Zaledwie tydzień wcześniej Anthropic ogłosił zmianę polityki, która uderza bezpośrednio w użytkowników zewnętrznych nakładek, takich jak OpenClaw. Subskrypcje premium Claude Pro przestały obejmować dostęp przez zewnętrzne narzędzia – od teraz każda operacja wykonywana za pośrednictwem „szponów” (claws) musi być opłacana osobno według stawek API. Firma argumentuje, że agenci AI generują specyficzne wzorce skomplikowanego zużycia zasobów, wykonując ciągłe pętle rozumowania i automatyczne powtórzenia, co wykracza poza standardowy model abonamentowy.
Steinberger, który obecnie doradza w OpenAI w zakresie strategii produktowej, nie kryje sceptycyzmu wobec tych wyjaśnień. Deweloper sugeruje, że działania Anthropic mają drugie dno. Według niego firma dąży do zamknięcia użytkowników we własnym ekosystemie narzędzi, takich jak Cowork czy Claude Dispatch. Mechanizm jest prosty: najpierw implementuje się popularne funkcje z projektów open source do własnych, płatnych produktów, a następnie utrudnia życie konkurencyjnym, otwartym rozwiązaniom.
Pomiędzy dwoma gigantami
Sprawa nabiera rumieńców ze względu na zawodowe powiązania Steinbergera. Jako pracownik OpenAI, głównego konkurenta Anthropic, stał się on naturalnym celem spekulacji. Podczas gdy inżynierowie Anthropic zaprzeczyli, jakoby blokada była celowym uderzeniem w projekt OpenClaw, sam Steinberger opublikował wymowny komentarz porównujący obu gigantów. Na zarzuty o wybór „złej strony” odpowiedział krótko: jedna firma powitała go z otwartymi ramionami, druga wysyłała groźby prawne.
Dlaczego jednak pracownik OpenAI w ogóle korzysta z modeli Claude? Odpowiedź tkwi w misji OpenClaw Foundation. Steinberger podkreśla, że jego celem jest zapewnienie interoperacyjności – narzędzie musi działać bezbłędnie z każdym modelem, niezależnie od dostawcy. Fakt, że Claude pozostaje popularnym wyborem wśród użytkowników OpenClaw, zmusza go do ciągłych testów, nawet jeśli wymaga to korzystania z usług konkurencji.
Koniec ery otwartego dostępu?
Incydent ten pokazuje szerszy trend w branży. Model „subskrybuj i korzystaj bez limitu” kończy się tam, gdzie zaczynają się zaawansowani agenci AI, zdolni do wykonywania setek zadań w tle. Dla Anthropic to kwestia ochrony marż i infrastruktury; dla programistów takich jak Steinberger to próba ograniczenia innowacji, które powstają poza ścisłą kontrolą korporacji. Niezależnie od tego, czy blokada konta była błędem algorytmu, czy celowym sygnałem ostrzegawczym, przyszłość otwartych narzędzi integrujących różne modele AI staje pod znakiem zapytania.
