ChatbotLLM

Anthropic wykorzysta rozmowy z Claude do uczenia AI. Jak zrezygnować?

Anthropic, twórca popularnego chatbota Claude, ogłosił zmianę w swojej polityce prywatności. Od teraz, rozmowy użytkowników z Claude mogą być wykorzystywane do trenowania dużych modeli językowych firmy. Wyjątkiem są ci, którzy aktywnie zrezygnują z tej opcji.

Dotychczas Anthropic nie korzystał z konwersacji użytkowników do uczenia swoich modeli AI. Zmiana, która weszła w życie 8 października, oznacza, że brak reakcji ze strony użytkownika będzie interpretowany jako zgoda na wykorzystanie jego danych – w tym logów rozmów i fragmentów kodu – do ulepszania przyszłych wersji Claude.

Firma argumentuje, że dane z interakcji z użytkownikami dostarczają cennych informacji na temat tego, które odpowiedzi są najbardziej przydatne i trafne. Poprzez włączenie większej ilości danych użytkowników do procesu uczenia, Anthropic ma nadzieję stopniowo ulepszać swojego chatbota.

Jak zrezygnować z udostępniania danych?

Nowi użytkownicy są proszeni o podjęcie decyzji dotyczącej wykorzystania ich danych już podczas rejestracji. Dotychczasowi użytkownicy Claude mogli już natknąć się na wyskakujące okienko informujące o zmianach w warunkach użytkowania.

Domyślnie opcja „Zezwalaj na wykorzystanie Twoich czatów i sesji kodowania do uczenia i ulepszania modeli Anthropic AI” jest włączona. Oznacza to, że użytkownicy, którzy zaakceptowali aktualizację bez wyłączenia tej opcji, automatycznie zgodzili się na nową politykę.

Aby wyłączyć udostępnianie danych, należy przejść do Ustawień Prywatności i upewnić się, że przełącznik oznaczony jako „Pomóż ulepszyć Claude” jest wyłączony. Warto pamiętać, że zmiana ta dotyczy wszystkich nowych i wznowionych rozmów. Oznacza to, że Anthropic nie wykorzysta całej historii czatów – chyba że użytkownik otworzy starsze wątki.

Zmiany w polityce przechowywania danych

Wraz z nową polityką prywatności, Anthropic wydłużył okres przechowywania danych użytkowników z 30 dni do aż pięciu lat, niezależnie od tego, czy użytkownik zgodził się na wykorzystywanie jego rozmów do trenowania modeli.

Zmiana dotyczy zarówno użytkowników darmowych, jak i płatnych, z wyłączeniem użytkowników komercyjnych, takich jak licencje rządowe lub edukacyjne. Rozmowy tych ostatnich nie będą wykorzystywane do uczenia modeli.

Implikacje dla programistów

Claude jest popularnym narzędziem AI wśród programistów, którzy cenią jego możliwości jako asystenta kodowania. Ponieważ aktualizacja polityki prywatności obejmuje również projekty kodowania, Anthropic może zgromadzić znaczną ilość danych dotyczących kodu w celach szkoleniowych.

Przed aktualizacją polityki prywatności, Claude był jednym z niewielu dużych chatbotów, który automatycznie nie wykorzystywał rozmów do uczenia LLM. Dla porównania, domyślne ustawienia dla ChatGPT OpenAI i Gemini Google dla kont osobistych obejmują możliwość trenowania modeli, chyba że użytkownik zdecyduje się zrezygnować.

Decyzja Anthropic wpisuje się w szerszy trend wykorzystywania danych użytkowników do ulepszania modeli AI. Warto jednak pamiętać o ochronie swojej prywatności i świadomym podejmowaniu decyzji dotyczących udostępnianych danych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *