Gadżety

Memories.ai tworzy wizualną pamięć dla maszyn dzięki wsparciu Nvidii i Qualcomma

Większość dzisiejszych systemów sztucznej inteligencji żyje w wiecznej teraźniejszości lub operuje na sztywnych bazach danych tekstowych. Choć ChatGPT potrafi przywołać detale z rozmowy sprzed tygodnia, robotyka i inteligentne okulary wciąż mają ogromny problem z „pamięcią operacyjną” dotyczącą tego, co widziały przed chwilą. Startup Memories.ai, powołany do życia przez ekspertów stojących za okularami Ray-Ban Meta, zamierza wypełnić tę lukę, tworząc warstwę wizualnej pamięci długoterminowej dla urządzeń fizycznych.

Od okularów Meta do autonomicznego przechowywania obrazu

Shawn Shen i Ben Zhou, założyciele Memories.ai, dostrzegli fundamentalną barierę podczas pracy w Meta. Użytkownicy urządzeń typu wearable rejestrują ogromne ilości danych wideo, które jednak stają się martwym zapisem w momencie zakończenia nagrywania. Jeśli sztuczna inteligencja ma realnie wspierać człowieka w świecie fizycznym, musi potrafić przeszukiwać i interpretować to, co widziała, niemal w czasie rzeczywistym. Brak gotowych rozwiązań na rynku skłonił ich do opuszczenia struktur giganta i budowy własnej technologii.

Kluczowym wyzwaniem nie jest samo nagrywanie, lecz indeksowanie wideo w formacie, który jest łatwy do przeszukiwania przez duże modele językowe (LLM). Systemy tekstowe są uporządkowane; wideo to chaotyczny strumień pikseli. Memories.ai rozwija infrastrukturę pozwalającą na osadzanie (embedding) i mapowanie obrazu w sposób, który umożliwia maszynie „przypominanie sobie” konkretnych zdarzeń z przeszłości. Aby zasilić swoje modele danymi najwyższej jakości, firma stworzyła nawet własne urządzenie rejestrujące, LUCI, choć zaznacza, że nie zamierza stawać się producentem sprzętu.

Sojusz z gigantami: Nvidia i Qualcomm wkraczają do gry

Ambicje startupu potwierdzają partnerstwa z największymi graczami na rynku półprzewodników. Podczas konferencji GTC ogłoszono współpracę z Nvidią, w ramach której platforma wykorzystuje model Cosmos-Reason 2 oraz narzędzia Nvidia Metropolis do analizy i podsumowywania treści wideo. To potężne wsparcie obliczeniowe pozwala na szybszą iterację nad drugą generacją ich flagowego modelu LVMM (Large Visual Memory Model).

Z kolei porozumienie z Qualcommem ma na celu implementację algorytmów Memories.ai bezpośrednio na procesorach mobilnych, co jest kluczowe dla urządzeń noszonych, gdzie opóźnienia przesyłu danych do chmury są nieakceptowalne. Dzięki temu wizualna retencja danych może odbywać się „na krawędzi” (on-device), co znacząco podnosi poziom prywatności i wydajność energetyczną systemu.

Krytyczne spojrzenie na przyszłość robotyki

Choć Memories.ai zebrało już 16 milionów dolarów finansowania, Shawn Shen studzi nadmierny optymizm dotyczący natychmiastowej rewolucji rynkowej. Przedsiębiorca przyznaje, że choć rynek wearables i zaawansowanej robotyki jest w fazie wzrostowej, to jego pełny rozkwit dopiero nastąpi. Obecnie firma skupia się na budowie fundamentów – infrastruktury, którą inni producenci będą mogli zaimplementować w swoich przyszłych produktach.

Krytycznym punktem pozostaje jednak kwestia tego, czy wizualna pamięć stanie się standardem otwartym, czy też producenci tacy jak Apple czy Meta nie zdecydują się na budowę własnych, zamkniętych ekosystemów pamięciowych. Na ten moment Memories.ai pozycjonuje się jako niezbędny dostawca „mózgu wizualnego”, bez którego roboty domowe czy asystenci AR pozostaną jedynie zaawansowanymi kamerami bez zdolności do wyciągania wniosków z przeszłości.