Polityka

Szef Anthropic odpiera zarzuty administracji Trumpa o sianie strachu przed AI

Konflikt o narrację i wpływy

W ostatnich dniach Anthropic znalazł się w centrum publicznej kłótni o kierunek polityki dotyczącej sztucznej inteligencji. Sprawę nagłośniły twitterowe ataki czołowych postaci związanych z administracją Donalda Trumpa i przeciwnikami regulacji, którzy zarzucili firmie prowadzenie strategii „regulatory capture” opartej na sianiu strachu. Zdaniem krytyków, takie działania rzekomo napędzają falę regulacji na szczeblu stanowym i zaszkodzą ekosystemowi startupów.

Głos inicjatora sporu

Pierwsze mocne uderzenie wyszedł od Davida Sacksa po komentarzach jednego ze współzałożycieli Anthropic, Jacka Clarka, który mówił o „odpowiednich obawach” związanych z tym, że AI jest potężnym i w pewnym sensie nieprzewidywalnym zjawiskiem. Sacks stwierdził, że Anthropic prowadzi skomplikowaną strategię regulacyjną opartą na strachu i obwinił ją za rzekomy stanowy ferment prawodawczy, który ma szkodzić startupom. Do krytyki dołączyli inni zwolennicy łagodnej regulacji, sugerując, że każde posunięcie na rzecz bezpieczeństwa to de facto atak na innowację.

Amodei odpowiada: polityka ponad polityką

Dario Amodei opublikował oświadczenie, w którym kategorycznie zaprzecza takim intencjom. Według niego Anthropic stoi na prostym założeniu: AI powinno służyć postępowi ludzkiemu, a nie stwarzać niepotrzebne zagrożenia. Amodei podkreślił, że firma tworzy użyteczne produkty, otwarcie rozmawia o ryzykach i korzyściach oraz współpracuje z każdym, kto poważnie traktuje kwestie regulacyjne — niezależnie od przynależności politycznej.

Między współpracą federalną a krytyką ze strony branży

Amodei przypomniał, że Anthropic nie ujawnia się jedynie po stronie postulatów regulacyjnych — firma oferuje swój model Claude rządowi federalnemu i zawarła umowę o wartości 200 mln USD z Departamentem Obrony. W oświadczeniu CEO firma wyróżniła też poparcie dla AI Action Plan administracji Trumpa oraz działania mające zwiększyć dostępność energii jako element rywalizacji o przewagę technologiczną. Jednocześnie Amodei użył określenia „Departament Wojny”, powielając retorykę prezydencką, choć formalna zmiana nazwy wymaga zgody Kongresu.

Kontrast z linią Doliny Krzemowej

Problemy Anthropic wynikają z tego, że firma kilkakrotnie zerwała z powszechnym konsensusem w Dolinie Krzemowej. Przykładowo sprzeciwiła się propozycji zakazu stanowych regulacji na okres 10 lat — pomysłowi, który miał duże poparcie wśród firm obawiających się, że różne stany wprowadzą niespójne reguły i spowolnią rozwój branży. Liderzy takich firm argumentowali, że ograniczenia stanowe mogą dać przewagę Chinom. Amodei ripostuje z kolei, że prawdziwe ryzyko to eksport zaawansowanych układów i napełnianie chińskich centrów danych mocnymi chipami, przy czym Anthropic ogranicza sprzedaż swoich usług firmom zależnym od chińskich podmiotów, nawet kosztem przychodów.

SB 53 i obawy o startupy

Kluczowym punktem zapalnym była postawa Anthropic wobec kalifornijskiej ustawy SB 53, określanej jako lekka regulacja bezpieczeństwa, która nakłada obowiązek publikacji protokołów bezpieczeństwa dla najpotężniejszych modeli. Amodei zwrócił uwagę, że projekt zawiera wyraźne wyłączenie dla firm z przychodami poniżej 500 mln USD, co oznacza, że większość startupów nie byłaby dotknięta nadmiernymi obciążeniami. W oświadczeniu przypomniał też, że startupy są ważnymi klientami Anthropic: firma współpracuje z tysiącami młodych spółek, akceleratorami i funduszami VC, a model Claude napędza nowe pokolenie firm AI.

Argumenty po obu stronach

Po jednej stronie barykady stali zwolennicy minimalnej interwencji, którzy widzą w każdej regulacji ryzyko utraty konkurencyjności wobec Chin i ograniczenia dynamiki innowacji. Po drugiej — firmy i badacze, którzy argumentują, że brak transparentnych standardów bezpieczeństwa grozi poważnymi, systemowymi konsekwencjami. Anthropic stara się pokazać, że możliwe jest zachowanie równowagi: rozwój produktów przy jednoczesnym ograniczaniu niektórych modeli czy rynków, a także współpraca z rządem, jeśli to służy publicznemu interesowi.

Co zyskuje i co ryzykuje Anthropic

Amodei przekonuje, że firma konsekwentnie zwiększa skalę biznesu — według jego słów run-rate wzrósł z 1 mld USD do 7 mld USD w ciągu ostatnich dziewięciu miesięcy — a jednocześnie stara się wdrażać technologię rozważnie. Odpierając oskarżenia o szkodzenie ekosystemowi startupów, wskazał na istniejące relacje i liczbę partnerstw. Z drugiej strony kontrowersje mogą osłabić zaufanie części partnerów i pogłębić podziały w branży, gdzie kąsające retoryki polityczne łatwo przekształcają techniczne rozbieżności w ideologiczne spory.

Na czym polega sensowna ścieżka naprzód?

Amodei podsumował: zarządzanie społecznymi skutkami AI powinno być sprawą polityki, nie politykierstwem. To stwierdzenie zawiera kluczowy dylemat amerykańskiej debaty — jak pogodzić interes narodowy i przewagę konkurencyjną z potrzebą przejrzystości i zarządzania ryzykiem. W praktyce oznacza to kompromisy, trudne rozmowy z administracjami po obu stronach sceny politycznej oraz gotowość firm do publicznego tłumaczenia swoich decyzji.

Spór wokół Anthropic nie rozstrzygnie się szybko. Pokazuje jednak, że debata o AI w Stanach Zjednoczonych przestaje być jednowymiarowa: nie sprowadza się już wyłącznie do osi rząd kontra branża, lecz rozgrywa wewnątrz samego sektora technologicznego, między uczestnikami o różnych wizjach tego, czym powinno być odpowiedzialne wdrażanie sztucznej inteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *