Apple testuje modele AI dorównujące ChatGPT, ale wciąż ostrożnie podchodzi do generatywnej sztucznej inteligencji
Nadchodząca konferencja WWDC 2025 zapowiada się interesująco, choć w kontekście AI trudno oczekiwać rewolucji. Zamiast przełomowych innowacji, Apple planuje udostępnienie zewnętrznym deweloperom swoich bazowych modeli AI. Modele te, działające bezpośrednio na urządzeniach Apple, charakteryzują się stosunkowo niewielką liczbą parametrów (około 3 miliardów). Pozwolą one twórcom aplikacji na implementację prostych funkcji, takich jak streszczanie tekstu.
Jednak w laboratoriach Apple trwają prace nad znacznie potężniejszymi modelami. Według informatora Marka Gurmana, firma testuje modele z 7, 33, a nawet 150 miliardami parametrów. Ten ostatni, jak wynika z wewnętrznych testów, osiąga wydajność porównywalną z obecnymi wersjami ChatGPT. Potrafi on wykonywać złożone zadania i, zdaniem pracowników Apple, stanowi znaczący krok naprzód w porównaniu z mniejszymi modelami działającymi na urządzeniach.
Model ze 150 miliardami parametrów jest jednak dostępny wyłącznie do testów wewnętrznych, głównie w systemie „Playground”, gdzie pracownicy Apple mogą porównywać go z rozwiązaniami konkurencji, takimi jak Gemini i ChatGPT. Obecnie nie ma planów jego publicznego udostępnienia.
Przyczyną ostrożnego podejścia Apple do generatywnej AI są obawy związane z tak zwanymi halucynacjami, czyli sytuacjami, w których modele AI generują nieprawdziwe lub pozbawione sensu informacje. Kierownictwo firmy wciąż nie jest zgodne co do strategii rozwoju AI, co prawdopodobnie tłumaczy decyzję o integracji ChatGPT z Apple Intelligence, zamiast tworzenia własnego chatbota.
Oprócz udostępnienia bazowych modeli AI deweloperom, Apple planuje wprowadzenie kilku mniejszych funkcji opartych na sztucznej inteligencji, takich jak tryb oszczędzania energii zasilany przez AI, ulepszona aplikacja do tłumaczeń z obsługą Siri i AirPods, a także przemianowanie istniejących narzędzi w Safari i Zdjęciach na „wspomagane przez AI”. Zdaniem Gurmana, zmiany te mają charakter bardziej marketingowy niż innowacyjny.
Opóźnienia w kluczowych projektach AI
Wiele z najważniejszych projektów Apple związanych z AI napotyka na opóźnienia. Nowa Siri, wyposażona w funkcje konwersacyjne, które miały konkurować z Advanced Voice w ChatGPT, miała zastąpić obecnego asystenta głosowego, ale jej premiera została przesunięta na czas nieokreślony. Również aplikacja Skróty ma zostać gruntownie przebudowana dzięki Apple Intelligence, ale aktualizacja ta nie pojawi się przed 2026 rokiem.
Podobne problemy techniczne dotyczą również projektu „Mulberry”, czyli usługi zdrowotnej opartej na AI, która ma umożliwić aplikacji Zdrowie odpowiadanie na pytania medyczne i analizowanie danych zdrowotnych. Apple eksperymentuje również z wewnętrznym chatbotem internetowym o nazwie „Knowledge”, wzorowanym na usługach takich jak Perplexity, ale jego wdrożenie jest jeszcze odległe.
Apple późno wkroczyło na rynek generatywnej AI, prezentując Apple Intelligence dopiero w czerwcu 2024 roku. Firma zapowiadała „AI dla każdego”, ale pierwsza wersja beta spotkała się z mieszanym przyjęciem ze strony deweloperów i użytkowników. Funkcje takie jak Genmoji, automatyczne wprowadzanie tekstu i kontekstowe powiadomienia nie wyróżniały się na tle konkurencji.
Podczas gdy Google szybko rozwija multimodalne wyszukiwanie i wideo AI, a OpenAI nawiązuje współpracę z byłym szefem designu Apple, Jonym Ive, Apple pozostaje ostrożne w swoim podejściu do AI. Nawet funkcja „Kontekst Osobisty” planowana dla Siri, która miała umożliwić wykorzystanie danych osobowych użytkownika do udzielania bardziej spersonalizowanych odpowiedzi, wciąż nie jest gotowa.
