Etyka AIPrawoSpołeczeństwo

Sztuczna inteligencja wprowadza chaos w sądownictwie. Prawnicy nagminnie posługują się sfabrykowanymi treściami

W co najmniej 129 udokumentowanych przypadkach w 12 krajach, prawnicy wykorzystali fałszywe treści wygenerowane przez narzędzia AI, takie jak ChatGPT, w postępowaniach sądowych. Informacje te pochodzą z bazy danych prowadzonej przez eksperta prawa międzynarodowego, Damiena Charlotina.

Baza danych, dostępna online, zawiera wyłącznie przypadki, w których podjęto oficjalne działania dyscyplinarne lub wydano orzeczenia sądowe. Damien Charlotin, który wykłada prawo i AI w HEC Paris, podkreśla, że to zaledwie wierzchołek góry lodowej. Tylko w maju 2025 roku do bazy dodano ponad 30 nowych spraw.

Charlotin regularnie aktualizuje swoją bazę, aby zwrócić uwagę na niebezpieczeństwa związane z bezrefleksyjnym wykorzystywaniem narzędzi AI w kontekście prawnym. Brak odpowiedniej weryfikacji generowanych przez AI treści może prowadzić do poważnych konsekwencji dla wymiaru sprawiedliwości.

Ujawnione przypadki podważają zaufanie do procesów sądowych i rodzą pytania o etyczne granice stosowania sztucznej inteligencji w prawie. Konieczne jest wprowadzenie rygorystycznych regulacji i procedur weryfikacyjnych, aby zapobiec podobnym sytuacjom w przyszłości.

Baza danych Charlotina stanowi ważny krok w kierunku zrozumienia skali problemu i wypracowania odpowiednich środków zaradczych. Jednocześnie, eksperci ostrzegają, że liczba nieujawnionych przypadków może być znacznie wyższa.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *