Programowanie

GitHub zmienia politykę prywatności: Dane z Copilota posłużą do trenowania modeli AI

Koniec z domyślną prywatnością dla wersji Pro i Free

GitHub ogłosił wprowadzenie nowych zasad przetwarzania danych, które wejdą w życie 24 kwietnia 2026 roku. Zgodnie z zapowiedziami interakcje użytkowników korzystających z planów Free, Pro oraz Pro+ staną się materiałem treningowym dla przyszłych generacji modeli sztucznej inteligencji. Zmiana ta oznacza, że system będzie analizował nie tylko przesyłane zapytania (prompty) i generowane wyniki, ale również fragmenty kodu, nazwy plików, a nawet strukturę repozytoriów.

Mario Rodriguez, dyrektor ds. produktu w GitHubie, argumentuje tę decyzję potrzebą ciągłej optymalizacji narzędzia. Firma opiera się na wynikach testów przeprowadzonych wewnątrz korporacyjnych zespołów Microsoftu, gdzie wykorzystanie danych z rzeczywistych interakcji miało przełożyć się na wyższy wskaźnik akceptacji sugestii generowanych przez sztuczną inteligencję. Zmiany nie dotkną jednak wszystkich równomiernie – klienci korporacyjni korzystający z planów Business i Enterprise pozostają objęci dotychczasową ochroną, a ich kod nie będzie wykorzystywany do szkolenia maszynowego.

Gdzie leży granica bezpieczeństwa?

Dla programistów dbających o poufność swoich projektów kluczową informacją jest system „opt-out”. Choć nowe zasady wprowadzają domyślną zgodę na trenowanie modeli, użytkownicy mogą ją wycofać w ustawieniach prywatności profilu. Co istotne, osoby, które już wcześniej ręcznie wyłączyły udostępnianie danych, nie będą musiały powtarzać tej procedury – ich preferencje zostaną zachowane.

Warto jednak krytycznie spojrzeć na strukturę przepływu informacji. Choć GitHub deklaruje, że dane nie trafią do zewnętrznych dostawców modeli sztucznej inteligencji, to będą one swobodnie współdzielone z Microsoftem. W branży budzi to pytania o transparentność procesu anonimizacji, zwłaszcza w kontekście metadanych, takich jak struktury repozytoriów, które same w sobie mogą ujawniać architekturę autorskich rozwiązań. Decyzja ta doskonale wpisuje się w rynkowy trend, w którym giganci technologiczni, po fazie masowego pozyskiwania użytkowników, przechodzą do agresywnej monetyzacji ich aktywności jako surowca dla coraz bardziej głodnych danych algorytmów.