Sztuczna inteligencja wprowadza chaos w sądownictwie. Prawnicy nagminnie posługują się sfabrykowanymi treściami
W co najmniej 129 udokumentowanych przypadkach w 12 krajach, prawnicy wykorzystali fałszywe treści wygenerowane przez narzędzia AI, takie jak ChatGPT, w postępowaniach sądowych. Informacje te pochodzą z bazy danych prowadzonej przez eksperta prawa międzynarodowego, Damiena Charlotina.
Baza danych, dostępna online, zawiera wyłącznie przypadki, w których podjęto oficjalne działania dyscyplinarne lub wydano orzeczenia sądowe. Damien Charlotin, który wykłada prawo i AI w HEC Paris, podkreśla, że to zaledwie wierzchołek góry lodowej. Tylko w maju 2025 roku do bazy dodano ponad 30 nowych spraw.
Charlotin regularnie aktualizuje swoją bazę, aby zwrócić uwagę na niebezpieczeństwa związane z bezrefleksyjnym wykorzystywaniem narzędzi AI w kontekście prawnym. Brak odpowiedniej weryfikacji generowanych przez AI treści może prowadzić do poważnych konsekwencji dla wymiaru sprawiedliwości.
Ujawnione przypadki podważają zaufanie do procesów sądowych i rodzą pytania o etyczne granice stosowania sztucznej inteligencji w prawie. Konieczne jest wprowadzenie rygorystycznych regulacji i procedur weryfikacyjnych, aby zapobiec podobnym sytuacjom w przyszłości.
Baza danych Charlotina stanowi ważny krok w kierunku zrozumienia skali problemu i wypracowania odpowiednich środków zaradczych. Jednocześnie, eksperci ostrzegają, że liczba nieujawnionych przypadków może być znacznie wyższa.
