LLM

Gen AILLMR & D

Sztuczna inteligencja oblewa egzamin przedszkolaka. Wyrafinowane modele tracą wzrok przez „wąskie gardło” słów

Najnowsze badania obnażają fundamentalną słabość wiodących systemów AI: choć osiągają wyniki powyżej 90 proc. w testach wiedzy eksperckiej, nowa generacja modeli multimodalnych przegrywa w starciu z percepcją wzrokową trzyletniego dziecka. Problemem nie jest brak danych, lecz sposób, w jaki maszyny „widzą” świat.

Read More
LLMNarzędziaObraz

Tinker wychodzi z fazy beta: usprawnienia dla inżynierów AI i nowe możliwości wizyjne

Platforma Tinker, rozwijana przez Thinking Machines Lab, otwiera swoje API do ogólnego użytku, eliminując listę oczekujących i wprowadzając kluczowe innowacje. Ulepszenia obejmują wsparcie dla zaawansowanego modelu rozumującego Kimi K2 Thinking, interoperacyjność z interfejsem OpenAI oraz możliwość przetwarzania danych wizyjnych dzięki modelom Qwen3-VL, znacząco upraszczając proces doskonalenia modeli językowych.

Read More
LLMRozumowanie

Falcon-H1R-7B: Przełom w rozumowaniu modeli językowych o kompaktowej budowie

Technology Innovation Institute z Abu Zabi przedstawił Falcon-H1R-7B, model językowy o 7 miliardach parametrów, który redefiniuje możliwości sztucznej inteligencji, dorównując lub przewyższając znacznie większe modele w zadaniach matematycznych, kodowaniu i ogólnym rozumowaniu, przy jednoczesnym zachowaniu niezwykłej efektywności i rewolucyjnym oknie kontekstowym 256 tysięcy tokenów. To osiągnięcie wskazuje na nową erę w projektowaniu modeli AI, gdzie kompaktowość nie musi oznaczać kompromisu w wydajności.

Read More