Confident Security: Ochrona prywatności w erze sztucznej inteligencji
Adoptowanie narzędzi sztucznej inteligencji, choć kusi obietnicą szybkości i efektywności, napotyka na fundamentalną barierę: obawę o prywatność danych. Rosnąca świadomość, że dane użytkowników – często nawet w kontekstach biznesowych, gdzie oczekuje się ścisłej poufności – są zbierane i wykorzystywane przez gigantów AI, takich jak OpenAI czy Google, spowalnia ich wdrażanie, szczególnie w sektorach silnie regulowanych, jak służba zdrowia czy finanse.
Na ten problem odpowiada Confident Security, startup z San Francisco, który właśnie zakończył fazę „stealth” i pozyskał 4,2 miliona dolarów w rundzie zalążkowej. Firma aspiruje do miana „Signal dla AI”, oferując narzędzie o nazwie CONFSEC. Jest to kompleksowe rozwiązanie do szyfrowania end-to-end, zaprojektowane, aby otoczyć modele AI niewidzialną warstwą ochronną. Jego głównym celem jest zapewnienie, że monity i metadane nie będą przechowywane, widoczne ani wykorzystywane do treningu modeli AI, nawet przez samego dostawcę modelu czy podmioty trzecie.
Jonathan Mortensen, założyciel i CEO Confident Security, podkreśla, że każdorazowe udostępnienie danych podmiotowi zewnętrznemu automatycznie ogranicza prywatność. Misją jego firmy jest wyeliminowanie tego kompromisu. CONFSEC ma stać się pośrednikiem między dostawcami AI a ich klientami – od operatorów chmur obliczeniowych, przez instytucje rządowe, po duże przedsiębiorstwa. Mortensen sugeruje, że nawet firmy AI mogą dostrzec wartość w oferowaniu CONFSEC swoim klientom korporacyjnym jako sposobu na odblokowanie rynku, który do tej pory był hamowany obawami o prywatność.
Architektura CONFSEC została zaprojektowana na wzór Apple Private Cloud Compute (PCC), rozwiązania, które według Mortensena „dziesięć razy przewyższa wszystko inne dostępne na rynku” pod względem gwarancji, że Apple nie ma dostępu do danych użytkownika podczas wykonywania zadań AI w chmurze.
Jak to działa? System Confident Security anonimizuje dane, szyfrując je i kierując przez usługi takie jak Cloudflare czy Fastly. Dzięki temu serwery nigdy nie widzą oryginalnego źródła ani treści. Następnie wykorzystywane jest zaawansowane szyfrowanie, które umożliwia deszyfrowanie wyłącznie w ściśle określonych warunkach. „Można na przykład określić, że odszyfrowanie jest dozwolone tylko wtedy, gdy dane nie zostaną zalogowane, nie zostaną wykorzystane do treningu i nikt ich nie zobaczy” – wyjaśnia Mortensen.
Ostatecznym elementem bezpieczeństwa jest publiczne logowanie i możliwość audytu oprogramowania odpowiedzialnego za wnioskowanie AI. Zapewnia to ekspertom weryfikację podanych gwarancji. Jess Leao, partner w Decibel, funduszu inwestującym w Confident Security, podkreśla, że firma Mortensena „wyprzedza konkurencję w zrozumieniu, że przyszłość AI zależy od zaufania wbudowanego w samą infrastrukturę”. Bez takich rozwiązań wiele przedsiębiorstw nie jest w stanie w pełni wykorzystać potencjału sztucznej inteligencji.
Choć Confident Security ma zaledwie rok, Mortensen zapewnia, że CONFSEC został już przetestowany, poddany audytom zewnętrznym i jest gotowy do wdrożenia. Zespół prowadzi rozmowy z bankami, twórcami przeglądarek i wyszukiwarek, aby zaimplementować CONFSEC w ich infrastrukturze. Jak podsumowuje Mortensen: „Ty dostarczasz AI, my dostarczamy prywatność”.
