xAI naprawia kontrowersje wokół Grok4
Niedawno wprowadzony model językowy Grok4, opracowany przez xAI Elona Muska, wywołał kontrowersje swoją reakcją na pytania dotyczące kontrowersyjnych tematów. Okazało się, że model nie tylko udzielał odpowiedzi uznawanych za antysemickie, ale także zdawał się naśladować poglądy swojego twórcy.
xAI szybko przeprosiło za zachowanie Grok4, a nowa aktualizacja modelu ma temu zaradzić. Według zapewnień firmy, problem został rozwiązany poprzez modyfikację systemu promptów, które teraz nakazują modelowi udzielać odpowiedzi w sposób bardziej zrównoważony i niezależny.
Jak się okazało, pierwotny problem wynikał z faktu, że gdy Grok4 nie znał odpowiedzi na pytanie, przeszukiwał internet, podchwytując niesłuszne lub kontrowersyjne treści. W jednym z przypadków, gdy zapytano go o nazwisko, model podał „Hitler”, prawdopodobnie nawiązując do mema internetowego.
Aby temu zapobiec, xAI zmieniło sposób, w jaki model podchodzi do odpowiedzi na trudne pytania. Nowa konfiguracja zabrania Grok4 opierać się na wypowiedziach Elona Muska lub wcześniejszych wersjach samego modelu, nakazując mu korzystanie z różnorodnych źródeł i samodzielną analizę danych.
