Szefowie bezpieczeństwa wzywają do pilnej regulacji AI, obawiając się zagrożeń ze strony DeepSeek
W centrach operacji bezpieczeństwa rośnie niepokój wśród dyrektorów ds. bezpieczeństwa informacji (CISO), szczególnie w odniesieniu do chińskiego giganta AI, DeepSeek. Sztuczna inteligencja, obiecująca nową erę efektywności i innowacji, dla osób stojących na pierwszej linii obrony korporacyjnej rzuca długi i mroczny cień. Skala obaw jest poważna: aż 81% brytyjskich CISO uważa, że chiński chatbot AI wymaga pilnej regulacji rządowej. Obawiają się oni, że bez szybkiej interwencji narzędzie to może stać się katalizatorem kryzysu cybernetycznego na pełną skalę.
To nie tylko spekulacje, ale bezpośrednia reakcja na technologię, której praktyki dotyczące przetwarzania danych i potencjał nadużyć budzą alarm na najwyższych szczeblach bezpieczeństwa przedsiębiorstw. Badanie, zlecone przez Absolute Security na potrzeby raportu UK Resilience Risk Index Report, oparło się na ankiecie przeprowadzonej wśród 250 CISO z dużych brytyjskich organizacji. Dane sugerują, że teoretyczne zagrożenie ze strony sztucznej inteligencji stało się realnym problemem dla CISO, a ich reakcje są stanowcze.
AI pod lupą: Bądźmy realistami
Jeszcze kilka lat temu nie do pomyślenia, dziś ponad jedna trzecia (34%) liderów ds. bezpieczeństwa wprowadziła całkowity zakaz stosowania narzędzi AI ze względu na obawy o cyberbezpieczeństwo. Podobna liczba, 30%, wycofała się już z konkretnych wdrożeń AI w swoich organizacjach. Ten odwrót nie jest jednak aktem sprzeciwu wobec technologii, lecz pragmatyczną odpowiedzią na narastający problem. Firmy już teraz mierzą się ze złożonymi i agresywnymi zagrożeniami, czego dowodzą głośne incydenty, takie jak niedawne naruszenie bezpieczeństwa w Harrods. CISO z trudem dotrzymują kroku atakującym, a dołączenie do ich arsenału zaawansowanych narzędzi AI stanowi wyzwanie, z którym wielu czuje się nieprzygotowanych.
Przepaść w gotowości na zagrożenia ze strony AI pogłębia się
Sedno problemu z platformami takimi jak DeepSeek tkwi w ich potencjale do ujawniania wrażliwych danych korporacyjnych i wykorzystywania przez cyberprzestępców. Trzech na pięciu (60%) CISO przewiduje bezpośredni wzrost liczby cyberataków w wyniku proliferacji DeepSeek. Identyczny odsetek raportuje, że technologia ta już teraz komplikuje ich ramy prywatności i zarządzania, czyniąc i tak trudną pracę niemal niemożliwą. To skłoniło do zmiany perspektywy. Sztuczna inteligencja, postrzegana kiedyś jako potencjalne panaceum na cyberbezpieczeństwo, jest obecnie uważana przez coraz większą liczbę specjalistów za część problemu. Z badania wynika, że 42% CISO uważa obecnie, że AI stanowi większe zagrożenie niż pomoc w ich działaniach obronnych.
Andy Ward, SVP International w Absolute Security, powiedział: „Nasze badania podkreślają istotne zagrożenia stwarzane przez nowe narzędzia AI, takie jak DeepSeek, które szybko zmieniają krajobraz zagrożeń cybernetycznych. Wraz z rosnącymi obawami dotyczącymi ich potencjału do przyspieszania ataków i narażania wrażliwych danych, organizacje muszą działać teraz, aby wzmocnić swoją odporność cybernetyczną i dostosować ramy bezpieczeństwa, aby dotrzymać kroku tym zagrożeniom opartym na sztucznej inteligencji.”
Konieczne inwestycje i regulacje
Co być może najbardziej niepokojące, niemal połowa (46%) starszych liderów ds. bezpieczeństwa przyznaje, że ich zespoły nie są gotowe do zarządzania unikalnymi zagrożeniami stwarzanymi przez ataki oparte na sztucznej inteligencji. Są świadkami, jak rozwój narzędzi takich jak DeepSeek wyprzedza ich możliwości obronne w czasie rzeczywistym, tworząc niebezpieczną lukę w zabezpieczeniach. Wielu uważa, że lukę tą może zlikwidować jedynie interwencja rządu na szczeblu krajowym.
Firmy jednak nie planują całkowitego wycofania się z AI. Reakcja jest raczej strategiczną pauzą niż trwałym zatrzymaniem. Dostrzegają ogromny potencjał sztucznej inteligencji i aktywnie inwestują, aby wdrażać ją w bezpieczny sposób. W rzeczywistości 84% organizacji uznaje zatrudnianie specjalistów od AI za priorytet na 2025 rok. Inwestycje te sięgają szczytów korporacyjnych: 80% firm zobowiązało się do szkolenia w zakresie AI na poziomie C-suite. Strategia wydaje się dwutorowa: podnoszenie kwalifikacji pracowników, aby rozumieli technologię i zarządzali nią, oraz pozyskiwanie wyspecjalizowanych talentów potrzebnych do poruszania się po jej złożoności. Pozostaje mieć nadzieję, że budowanie silnych wewnętrznych fundamentów wiedzy o AI może stanowić przeciwwagę dla nasilających się zagrożeń zewnętrznych.
Apel ze strony liderów bezpieczeństwa w Wielkiej Brytanii jest jasny: nie chodzi o blokowanie innowacji w zakresie AI, ale o umożliwienie jej bezpiecznego rozwoju. Aby to osiągnąć, potrzebne jest silniejsze partnerstwo z rządem. Konieczne jest ustanowienie jasnych zasad, nadzoru rządowego, stworzenie puli wykwalifikowanych specjalistów od AI oraz spójnej strategii krajowej. Pozwoli to zarządzać potencjalnymi zagrożeniami bezpieczeństwa stwarzanymi przez DeepSeek i kolejne generacje potężnych narzędzi AI.
