Prawo

Koniec prawniczej iluzji. Sąd Najwyższy Nebraski zawiesza adwokata za halucynacje AI

Wymiar sprawiedliwości przestał traktować halucynacje AI jako zabawną anegdotę. Sąd Najwyższy Nebraski bezterminowo zawiesił Grega Lake’a, adwokata z Omahy, po tym jak ten przedłożył dokumenty procesowe naszpikowane zmyślonymi precedensami. To już nie jest błąd w sztuce – to kompromitacja fundamentów zawodu.

57 dowodów na amatorszczyznę

Sprawa Lake’a to podręcznikowy przykład technosolucjonizmu, który zderzył się ze ścianą rzeczywistości. W apelacji dotyczącej podziału majątku po rozwodzie prawnik posłużył się modelem AI, który zamiast rzetelnej analizy, dostarczył mu kreatywną fikcję. Skala manipulacji poraża nawet doświadczonych sędziów:

  • 20 całkowicie sfabrykowanych odniesień do spraw, które nigdy się nie odbyły.
  • 4 zmyślone organy orzecznicze, nieistniejące w żadnej jurysdykcji.
  • Łącznie 57 wadliwych cytatów na 63 zawarte w piśmie.

Sędziowie zauważyli błędy już w lutym, podczas przesłuchania, gdy żadne z przytoczonych orzeczeń nie figurowało w oficjalnych bazach Nebraska Case Law. Prawnik próbował ratować się absurdalną linią obrony: twierdził, że zepsuł mu się komputer podczas podróży z okazji rocznicy ślubu i przez pomyłkę wysłał niewłaściwą wersję dokumentu.

Kłamstwo gorsze niż technologia

To nie algorytm jest głównym winowajcą, lecz brak uczciwości procesowej. Lake przyznał się do użycia AI dopiero pod naciskiem Rady ds. Dyscypliny.

Sąd był bezlitosny: błędy te można było wyeliminować w sekundy, używając standardowych narzędzi badawczych, takich jak LexisNexis czy Westlaw. Próba zrzucenia winy na błąd systemowy przy jednoczesnym ukrywaniu udziału algorytmu została uznana za rażące naruszenie zaufania do organów wymiaru sprawiedliwości.

Nowy standard odpowiedzialności

Wyrok z Nebraski to sygnał ostrzegawczy dla całego sektora usług profesjonalnych.

Podczas gdy w Oregonie skończyło się na karze finansowej rzędu 110 tysięcy dolarów, Nebraska idzie o krok dalej. Indefinite suspension – czyli zawieszenie na czas nieokreślony – to cywilna śmierć zawodowa, która zmienia krajobraz ryzyka w branży LegalTech.

Dla optymistów z Doliny Krzemowej to kubeł zimnej wody. Prawnicy, lekarze i analitycy finansowi otrzymali jasny komunikat: odpowiedzialność za halucynacje modelu ponosi człowiek, który nacisnął „kopiuj-wklej”. Model AI to nie asystent, to narzędzie zwiększonego ryzyka, które bez rygorystycznej weryfikacji zamienia się w zawodową pułapkę.

W dobie szumu wokół tokenów AI i integracji modeli GPT w każdym aspekcie życia, przypadek Lake’a staje się kanarkiem w kopalni. To właśnie w regulowanych, wysokostresowych środowiskach wykrystalizuje się definicja „odpowiedzialnego wdrażania”, o którym tak chętnie piszą producenci oprogramowania.