Gen AIR & DRobotyka

Google DeepMind redefiniuje robotykę autonomiczną modelem Gemini Robotics On-Device

Google DeepMind zaprezentowało niedawno Gemini Robotics On-Device, nowatorski model językowy, który umożliwia robotom działanie w pełni autonomiczne, bez konieczności stałego połączenia z internetem. Rozwiązanie stanowi ewolucję wcześniejszego modelu Gemini Robotics, wprowadzonego na rynek w marcu, i koncentruje się na lokalnym przetwarzaniu zadań.

Kluczową zaletą Gemini Robotics On-Device jest jego zdolność do sterowania ruchami robota za pomocą naturalnych poleceń językowych. To otwiera nowe możliwości dla deweloperów, którzy mogą precyzyjnie dostosowywać i kalibrować model do różnorodnych zastosowań, wykorzystując proste instrukcje. Zgodnie z oświadczeniem Google, nowa wersja modelu osiąga wyniki zbliżone do swojego chmurowego odpowiednika, jednocześnie przewyższając inne modele działające lokalnie w ogólnych testach porównawczych, choć konkretne nazwy tych modeli nie zostały ujawnione.

W praktycznych demonstracjach Google pokazało możliwości robotów wyposażonych w ten lokalny model, prezentując m.in. takie zadania jak rozpinanie toreb czy składanie ubrań. Co istotne, choć model został pierwotnie przeszkolony dla robotów ALOHA, Google z powodzeniem zaadaptowało go do pracy z dwuramiennym robotem Franka FR3 oraz humanoidalnym robotem Apollo firmy Apptronik. W przypadku robota Franka FR3, Gemini Robotics On-Device wykazał się zdolnością do pracy z nieznanymi wcześniej obiektami i scenariuszami, takimi jak montaż komponentów na przemysłowej taśmie produkcyjnej, co świadczy o jego imponujących zdolnościach adaptacyjnych.

Równolegle Google DeepMind udostępnia Gemini Robotics SDK (Software Development Kit), narzędzie, które umożliwi programistom trenowanie robotów do nowych zadań. Korzystając z modeli Gemini i symulatora fizyki MuJoCo, wystarczy zaprezentować robotowi od 50 do 100 demonstracji danego zadania, aby nauczyć go samodzielnie wykonywać nową czynność. To znacząco skraca i upraszcza proces wdrażania nowych umiejętności u maszyn.

Warto zauważyć, że Google nie jest jedynym graczem na rynku, który intensywnie inwestuje w rozwój modeli AI dla robotyki. Nvidia buduje platformę do tworzenia modeli fundacyjnych dla humanoidalnych robotów, Hugging Face rozwija otwarte modele i zbiory danych, a także pracuje nad własnymi robotami. Koreański startup RLWRLD, wspierany przez Mirae Asset, również koncentruje się na tworzeniu fundamentalnych modeli dla robotów. To pokazuje rosnące zainteresowanie i potencjał na rynku autonomicznej robotyki, gdzie lokalne przetwarzanie danych może stać się nowym standardem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *