Apple rozważa zastosowanie zewnętrznych modeli AI dla Siri
Zgodnie z informacjami Bloomberga, Apple analizuje integrację zaawansowanych modeli AI, stworzonych przez OpenAI i Anthropic, w ramach odświeżonej wersji swojego asystenta głosowego – Siri. Decyzja ta, o ile zostanie potwierdzona, stanowiłaby istotną zmianę w dotychczasowej strategii firmy, która dotąd preferowała rozwijanie własnych technologii w obszarze sztucznej inteligencji.
Mimo tych doniesień, Apple kontynuuje wewnętrzny projekt rozwijający „LLM Siri” (Large Language Model Siri), bazujący na autorskich modelach AI. Jednakże, zapytania skierowane do OpenAI i Anthropic dotyczące możliwości uruchomienia ich modeli na infrastrukturze chmurowej Apple w celach testowych, wskazują na potencjalne wahanie co do efektywności wyłącznie wewnętrznych rozwiązań.
Opóźnienie premiery nowej, wyposażonej w AI, wersji Siri z planowanego na 2025 rok do roku 2026 lub później, jest przypisywane szeregowi wyzwań technicznych, z którymi Apple się zmaga. Ten stan rzeczy nie jest zaskoczeniem dla obserwatorów rynku; Apple od kilku lat pozostaje w tyle za liderami wyścigu AI, takimi jak Google, OpenAI czy Anthropic.
Siri już teraz potrafi korzystać z zasobów ChatGPT w przypadku bardziej złożonych zapytań, lecz obecne rozmowy wykraczają znacznie dalej. Rozważana jest o wiele głębsza integracja z technologiami dostarczanymi przez zewnętrznych partnerów AI. Jest to symptomatyczne dla rosnącej świadomości Apple, że samodzielne nadrobienie zaległości w obszarze tak dynamicznie rozwijającym się, może być niezwykle trudne. Oprócz kwestii czysto technologicznych, pojawiają się również pytania o strategie długoterminowe. Czy Apple, tradycyjnie kontrolujące każdy aspekt swojego sprzętu i oprogramowania, będzie w stanie skutecznie zarządzać tak głęboką zależnością od zewnętrznych podmiotów w kluczowym obszarze, jakim bez wątpienia staje się generatywna AI?
