Cyberbezpieczeństwo

Boom na generatywną AI w handlu detalicznym napędza obawy o bezpieczeństwo danych

Sektor handlu detalicznego dynamicznie adaptuje się do możliwości, jakie oferuje generatywna sztuczna inteligencja (GenAI). Najnowszy raport firmy Netskope alarmuje jednak, że entuzjazm ten wiąże się z poważnymi konsekwencjami dla bezpieczeństwa danych. Aż 95% organizacji w tym sektorze wdrożyło już aplikacje GenAI, co stanowi wzrost z 73% w ciągu zaledwie jednego roku. Tempo adopcji jest imponujące, ale rodzi pytania o adekwatność zabezpieczeń.

Ryzyko związane z szybkim wdrożeniem

Wraz z integracją narzędzi AI w codzienne operacje, firmy handlowe stwarzają nowe, rozległe pole do potencjalnych cyberataków i wycieków wrażliwych danych. Raport Netskope wskazuje na ewolucję podejścia – od chaotycznej, oddolnej adopcji do bardziej kontrolowanego, korporacyjnego modelu. Firmy coraz częściej odchodzą od korzystania z prywatnych kont AI przez pracowników (spadek z 74% do 36% od początku roku) na rzecz narzędzi zatwierdzonych przez przedsiębiorstwo (wzrost z 21% do 52% w tym samym okresie). To sygnał, że biznes dostrzega zagrożenia związane z tzw. „shadow AI” i próbuje przejąć kontrolę nad sytuacją.

ChatGPT liderem, ale konkurencja rośnie

Wśród narzędzi GenAI króluje ChatGPT, wykorzystywany przez 81% organizacji. Jednak jego dominacja nie jest absolutna. Google Gemini szybko zdobywa popularność (60% adopcji), a narzędzia Microsoft Copilot depczą mu po piętach (56% i 51% odpowiednio). Co ciekawe, popularność ChatGPT zanotowała niedawno pierwszy spadek, podczas gdy użycie Microsoft 365 Copilot gwałtownie wzrosło, prawdopodobnie dzięki integracji z popularnymi narzędziami biurowymi.

Ujawnianie poufnych danych – poważny problem

Pod powierzchnią entuzjazmu związanego z GenAI kryje się rosnący problem bezpieczeństwa. Zdolność tych narzędzi do przetwarzania informacji jest jednocześnie ich największą słabością. Firmy handlowe niepokojąco często udostępniają im wrażliwe dane. Najczęściej ujawniany jest kod źródłowy firmy (47% naruszeń polityki danych w aplikacjach GenAI), a następnie dane regulowane, takie jak poufne informacje o klientach i przedsiębiorstwie (39%).

Reakcja rynku: zakazy i platformy enterprise

W odpowiedzi na rosnące zagrożenia, coraz więcej firm handlowych po prostu zakazuje używania aplikacji, które uznają za zbyt ryzykowne. Najczęściej blokowaną aplikacją jest ZeroGPT (47% organizacji), ze względu na obawy dotyczące przechowywania treści użytkowników i przekierowywania danych do podmiotów trzecich. Ta ostrożność skłania branżę do poszukiwania poważniejszych, korporacyjnych platform GenAI od dużych dostawców chmurowych. Platformy te oferują większą kontrolę, umożliwiając firmom hostowanie modeli prywatnie i tworzenie własnych, niestandardowych narzędzi. OpenAI (przez Azure) i Amazon Bedrock są liderami w tym segmencie (po 16% udziału).

Należy pamiętać, że nawet najlepsze platformy nie eliminują ryzyka całkowicie. Błędy w konfiguracji mogą nieumyślnie połączyć potężną sztuczną inteligencję z kluczowymi danymi firmy, stwarzając potencjał katastrofalnych naruszeń. Zagrożenie nie pochodzi wyłącznie od pracowników korzystających z AI w przeglądarkach. Raport ujawnia, że 63% organizacji łączy się bezpośrednio z API OpenAI, integrując AI głęboko w systemy backendowe i zautomatyzowane przepływy pracy.

Słabe zabezpieczenia chmury i zagrożenia związane z aplikacjami

Ryzyko związane z AI jest częścią szerszego problemu słabych zabezpieczeń chmury. Atakujący coraz częściej wykorzystują zaufane nazwy do dostarczania złośliwego oprogramowania, wiedząc, że pracownik jest bardziej skłonny do kliknięcia łącza z znanej usługi. Microsoft OneDrive jest najczęstszym winowajcą – 11% firm handlowych doświadcza co miesiąc ataku złośliwego oprogramowania z tej platformy, a hub deweloperski GitHub jest wykorzystywany w 9,7% ataków.

Długotrwały problem korzystania przez pracowników z osobistych aplikacji w pracy nadal dolewa oliwy do ognia. Serwisy społecznościowe takie jak Facebook i LinkedIn są używane w niemal każdym środowisku handlowym (96% i 94% odpowiednio), podobnie jak osobiste konta w chmurze. To właśnie w tych niezatwierdzonych usługach dochodzi do najgorszych naruszeń danych. Gdy pracownicy przesyłają pliki do osobistych aplikacji, 76% naruszeń zasad dotyczy danych regulowanych.

Koniec beztroskiego eksperymentowania

Dla liderów bezpieczeństwa w handlu detalicznym, niefrasobliwe eksperymentowanie z generatywną AI powinno się skończyć. Wyniki raportu Netskope są ostrzeżeniem, że organizacje muszą działać zdecydowanie. Nadszedł czas, aby uzyskać pełną widoczność całego ruchu internetowego, blokować aplikacje wysokiego ryzyka i egzekwować rygorystyczne zasady ochrony danych, aby kontrolować, jakie informacje można wysyłać i gdzie. Bez odpowiedniego zarządzania, kolejna innowacja może łatwo stać się kolejnym nagłówkiem o poważnym naruszeniu bezpieczeństwa.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *