Agenci AIFinanseWeb 3.0

Szef Eliza Labs studzi zapał: nie powierzaj pieniędzy sztucznej inteligencji

Shaw Walters, założyciel Eliza Labs, w niedawnym wywiadzie dla Decrypt postanowił ostudzić entuzjazm wokół w pełni autonomicznych agentów AI, których celem miałoby być generowanie zysków na rynkach finansowych. Jego zdaniem powierzanie im kapitału z nadzieją na jego pomnożenie jest na obecnym etapie rozwoju technologii co najmniej nierozsądne.

„Prawdopodobnie nie jest to dobry pomysł, aby dać agentowi AI pokaźną sumę pieniędzy i oczekiwać, że zarobi dla ciebie więcej” – stwierdził Walters. Zamiast roli wirtualnego maklera, widzi on dla sztucznej inteligencji znacznie bardziej przyziemne, lecz konkretne zastosowania. Chodzi przede wszystkim o przekształcanie nieustrukturyzowanych danych, takich jak chaos informacyjny w mediach społecznościowych, w konkretne, użyteczne sygnały rynkowe.

AI jako analityk, nie inwestor

Według Waltersa, obecne modele AI sprawdzają się najlepiej jako zaawansowane interfejsy dla narzędzi analitycznych oraz systemy do szybkiego przetwarzania danych, na przykład z sieci społecznościowych. Eliza Labs, jego firma działająca na blockchainie Solana, rozwija open-source’ową platformę ElizaOS służącą właśnie do budowy i zarządzania takimi wyspecjalizowanymi agentami.

Jednym z ciekawszych projektów firmy jest „rynek zaufania”. To mechanizm, który automatycznie analizuje publiczne rekomendacje inwestycyjne, często określane jako „naganianie” (shilling), i przeprowadza na ich podstawie symulowane transakcje (paper trading). W ten sposób powstaje mierzalny ranking skuteczności różnych influencerów i analityków. „Jesteśmy w stanie zidentyfikować, kto ma faktycznie dobre wyczucie rynku, a kto próbuje oszukiwać” – wyjaśnia Walters. To praktyczne zastosowanie AI do weryfikacji, a nie ślepego podążania za szumem informacyjnym.

Boty z ograniczeniami i agenci w służbie DAO

Innym przykładem kontrolowanego użycia AI są agenci osadzeni w zamkniętych grupach na komunikatorach, takich jak Telegram. Potrafią oni, na podstawie prostych reguł, reagować na sygnały – na przykład dokonywać niewielkich zakupów tokenów tuż po wpisie kluczowego lidera opinii (KOL) – zanim informacja dotrze do szerszego grona odbiorców na platformach takich jak X.

Eliza Labs testuje również zautomatyzowany stół OTC (over-the-counter), gdzie użytkownicy mogą negocjować z botem warunki zakupu tokenów. Kluczowe są tu jednak „bariery ochronne” zaimplementowane w smart kontraktach, które narzucają twarde limity na transakcje. „Jeśli uda ci się oszukać agenta, to świetnie, miałeś dobrą zabawę, ale istnieją zabezpieczenia” – zaznacza Walters, podkreślając, że system jest zaprojektowany tak, by uniemożliwić katastrofalne straty.

Walters widzi też potencjał AI w usprawnianiu działania zdecentralizowanych organizacji autonomicznych (DAO), które często borykają się z problemami koordynacyjnymi. Agenci mogliby tam streszczać długie dyskusje, ułatwiać podejmowanie decyzji i automatyzować proste procesy. „Chodzi bardziej o rekomendacje i wgląd w sytuację niż o ślepe podążanie za AI” – podsumowuje.

Spór z X i wizja otwartej przyszłości

W tle technologicznych rozważań toczy się spór prawny. Eliza Labs pozwała korporację X Elona Muska, zarzucając jej, że podstępem uzyskała szczegóły techniczne jej narzędzi AI, a następnie zbanowała firmę na platformie i wprowadziła łudząco podobne produkty. Komentując sprawę, Walters stwierdził krótko: „Chcę po prostu odzyskać moje cholerne konto”. Jednocześnie podkreślił, że incydent ten tylko wzmocnił jego przywiązanie do idei open source oraz budowy zdecentralizowanej, wielołańcuchowej infrastruktury dla agentów AI, niezależnej od kaprysów wielkich korporacji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *