Deloitte inwestuje w AI Anthropic pomimo wpadki z nierzetelnym raportem
Deloitte, globalna firma świadcząca usługi profesjonalne i konsultingowe, postawiła duży zakład na sztuczną inteligencję, zawierając umowę z Anthropic, firmą stojącą za chatbotem Claude. Ironią losu, ogłoszenie zbiegło się z koniecznością zwrotu środków za wcześniej przygotowany raport dla rządu Australii, który zawierał nieścisłości wygenerowane przez AI.
Rządowy kontrakt opiewał na 439 tysięcy dolarów australijskich. Zamówiona ekspertyza zawierała odniesienia do nieistniejących publikacji naukowych. Deloitte zobowiązał się zwrócić ostatnią transzę wynagrodzenia po tym, jak sprawa ujrzała światło dzienne. To pokazuje, że nawet giganci konsultingu nie są odporni na wyzwania związane z wdrażaniem AI. Wpadka to jedno, a strategiczna decyzja o inwestycji w AI – drugie. Deloitte najwyraźniej wierzy w potencjał tej technologii pomimo potknięć.
Ogłoszone partnerstwo z Anthropic zakłada wdrożenie Claude’a wśród blisko 500 tysięcy pracowników Deloitte na całym świecie. Firmy planują wspólnie tworzyć rozwiązania zgodnościowe dla sektorów regulowanych, takich jak finanse, opieka zdrowotna i administracja publiczna. Dodatkowo, Deloitte zamierza opracować różne „persony” AI, odzwierciedlające role w firmie, takie jak księgowi czy programiści.
„Deloitte inwestuje w platformę AI Anthropic, ponieważ nasze podejścia do odpowiedzialnej sztucznej inteligencji są zbieżne. Razem możemy przekształcić sposób, w jaki działają przedsiębiorstwa w ciągu najbliższej dekady. Claude pozostaje wiodącym wyborem dla wielu klientów i naszej własnej transformacji AI” – napisał Ranjit Bawa, szef działu technologii, ekosystemów i sojuszy w Deloitte.
Szczegóły finansowe umowy nie zostały ujawnione. Dla Anthropic jest to największe wdrożenie korporacyjne do tej pory. To pokazuje, jak głęboko AI wnika w różne aspekty życia, od narzędzi pracy po codzienne zapytania.
Deloitte nie jest jedyną firmą, która doświadczyła problemów z nierzetelnymi informacjami generowanymi przez AI. W maju „Chicago Sun-Times” przyznał się do publikacji listy książek na lato wygenerowanej przez AI, która zawierała nieistniejące tytuły. Z kolei wewnętrzne dokumenty Amazona ujawniły, że narzędzie AI Q Business borykało się z problemami z dokładnością w pierwszym roku użytkowania. Nawet sam Anthropic zaliczył wpadkę, gdy jego prawnik przeprosił za użycie sfabrykowanego przez AI cytatu w sporze prawnym z wydawcami muzycznymi.
