LLM

Engramme rzuca wyzwanie transformerom. Beta API dla nowej warstwy pamięci AI otwarta

Infrastruktura zamiast kolejnego chatbota

Na nasyconym rynku narzędzi AI pojawia się rozwiązanie, które odcina się od dominującego paradygmatu modeli językowych. Engramme ogłosiło otwarcie publicznych testów beta swojego API, które określa mianem „Large Memory Models” (LMM). W przeciwieństwie do popularnych asystentów, technologia ta nie służy do generowania treści, lecz stanowi niewidoczną warstwę infrastruktury, którą programiści mogą wpiąć bezpośrednio w istniejące aplikacje. System ma proaktywnie przywoływać istotne wspomnienia użytkownika dokładnie wtedy, gdy są potrzebne, eliminując konieczność wpisywania jakichkolwiek promptów czy haseł w wyszukiwarkę.

Kluczem do zrozumienia innowacji Engramme jest odejście od architektury transformerów. Choć te ostatnie zrewolucjonizowały przetwarzanie języka, ich natura opiera się na przewidywaniu kolejnych słów, co nieuchronnie prowadzi do tzw. halucynacji. Engramme buduje swoje rozwiązania na zupełnie innej architekturze, która jest zakotwiczona w rzeczywistych interakcjach – dokumentach, rozmowach na Slacku czy spotkaniach na Zoomie. Dzięki temu system nie jest w stanie wygenerować informacji o zdarzeniu, które nie miało miejsca, co czyni błędy merytoryczne strukturalnie niemożliwymi w warstwie pamięci.

Nauka u podstaw technologii

Za projektem stoją postacie, których dorobek naukowy nadaje przedsięwzięciu rzadko spotykany ciężar gatunkowy. Gabriel Kreiman, profesor Harvard Medical School, zamknął swoje laboratorium badawcze, by przełożyć dekady badań nad obwodami neuronalnymi na kod komputerowy. Współzałożyciel Spandan Madan, z doktoratem z Harvardu i doświadczeniem w Google DeepMind oraz Meta, uzupełnia ten zespół o kompetencje inżynieryjne najwyższego szczebla. To połączenie neuronauki z informatyką ma pozwolić na stworzenie pamięci, która działa płynnie między wieloma urządzeniami – od Gmaila po okulary rozszerzonej rzeczywistości.

Przemysł widzi potencjał

Mimo że startup jest na wczesnym etapie rozwoju (niedawno zamknął rundę pre-seed w wysokości 3 mln dolarów), zainteresowanie technologią wyraziły już takie giganty jak Samsung, Microsoft czy Dropbox. Dla twórców oprogramowania propozycja Engramme jest kusząca: zamiast budować własne, zawodne systemy wyszukiwania kontekstowego, mogą zaimplementować gotową, wspólną warstwę pamięci użytkownika.

Jeśli wizja Kreimana i Madana się ziści, pamięć stanie się kolejnym – po języku, obrazie i dźwięku – skolonizowanym przez AI obszarem, który zmieni sposób, w jaki wchodzimy w interakcję z danymi. Zamiast przeszukiwać cyfrowe archiwa, będziemy po prostu korzystać z aplikacji, które „pamiętają” kontekst naszej pracy i życia równie dobrze jak my sami.