Incydent w VS Code: Microsoft dodawał Copilota do kodu bez zgody programistów
Mechanizm narzuconej współpracy
Programiści korzystający z Visual Studio Code (VS Code) odkryli w ostatnich dniach niepokojącą aktywność w swoich procesach roboczych. Microsoft, bez wcześniejszych zapowiedzi, wprowadził do narzędzia funkcję automatycznego dopisywania frazy „Co-Authored-by Copilot” do metadanych commitów w systemie kontroli wersji Git. Proceder ten budzi szczególne kontrowersje, ponieważ tagowanie sztucznej inteligencji jako współtwórcy odbywało się nawet w przypadkach, gdy użytkownik świadomie wyłączył wszystkie moduły AI w ustawieniach edytora.
Sposób, w jaki zmiana trafiła do stabilnej wersji środowiska, rzuca cień na standardy kontroli jakości w Microsofcie. Jak wynika z historii zmian w serwisie GitHub, menedżer produktu odpowiedzialny za tę funkcję przeforsował poprawkę, którą główny inżynier zaakceptował bez merytorycznego opisu. Cały proces przebiegł w trybie natychmiastowego scalenia kodu, co ominęło standardową ścieżkę krytycznej weryfikacji.
Problem techniczny czy manipulacja statystykami?
Fala krytyki, która przetoczyła się przez fora Hacker News i GitHub, zmusiła autorów zmiany do reakcji. Dmitriy Vasyura, inżynier stojący za tą implementacją, przyznał, że mechanizm został wdrożony błędnie. Według jego zapewnień, automatyczne podpisywanie AI pod kodem, w którego powstaniu nie brało ono udziału, nigdy nie powinno mieć miejsca – zwłaszcza przy nieaktywnym module Copilot. Zapowiedziano już wycofanie tego ustawienia w wersji 1.119 edytora.
Środowisko programistyczne pozostaje jednak sceptyczne wobec wyjaśnień o „zwykłym błędzie”. Wielu komentatorów sugeruje, że była to celowa próba sztucznego pompowania statystyk użycia Copilota. Z perspektywy korporacyjnej incydent ten to nie tylko kwestia estetyki. Ukrywanie linijek o współautorstwie AI w oknie commitu może generować realne problemy prawne dla firm objętych rygorystycznymi politykami zakazującymi użycia modeli językowych w komercyjnych projektach, a także komplikować kwestie własności intelektualnej.
Microsoft zdecydował się na zablokowanie dyskusji w wątku na GitHubie, oznaczając ją jako spam. Takie działanie, zamiast uspokoić atmosferę, dodatkowo podgrzało plotki o braku transparentności firmy w kwestii agresywnego promowania swoich rozwiązań AI.
