Technologia

Apple Intelligence: Sztuczna inteligencja po nowemu w ekosystemie Apple

Apple Intelligence, czyli sztuczna inteligencja po nowemu w wydaniu Apple, zadebiutowała w ekosystemie firmy z Cupertino w październiku 2024 roku i wszystko wskazuje na to, że zostanie z nami na dłużej. Gigant z Kalifornii dołącza do wyścigu firm takich jak Google, OpenAI i Anthropic, które walczą o miano lidera w dziedzinie AI.

Czym właściwie jest Apple Intelligence? Jak określają to marketingowcy Apple, to „AI dla każdego”. Platforma ma wykorzystywać możliwości generatywnej AI, takie jak tworzenie tekstu i obrazów, do ulepszania istniejących funkcji. Podobnie jak inne platformy, w tym ChatGPT i Google Gemini, Apple Intelligence została wytrenowana na dużych modelach informacyjnych z użyciem deep learningu w celu tworzenia połączeń w oparciu o tekst, obrazy, wideo lub muzykę.

Funkcje tekstowe oparte o LLM

W ofercie Apple znajdziemy narzędzia tekstowe, oparte na dużym modelu językowym (LLM), dostępne w różnych aplikacjach, w tym Mail, Messages, Pages i Notifications. Można ich używać do tworzenia podsumowań długich tekstów, korekty, a nawet pisania wiadomości, wykorzystując sugestie dotyczące treści i tonu.

Generowanie obrazów

Zintegrowano również generowanie obrazów, choć w nieco mniej intuicyjny sposób. Użytkownicy mogą generować niestandardowe emoji (Genmoji) w charakterystycznym stylu Apple. Image Playground to z kolei samodzielna aplikacja do generowania obrazów, która wykorzystuje polecenia do tworzenia treści wizualnych, które można wykorzystać w Messages, Keynote lub udostępniać w mediach społecznościowych.

Siri po liftingu

Apple Intelligence to także długo oczekiwany lifting dla Siri. Inteligentny asystent, który kiedyś był pionierem, przez ostatnie lata był zaniedbywany. Teraz Siri jest znacznie głębiej zintegrowana z systemami operacyjnymi Apple. Zamiast znajomej ikony, użytkownicy zobaczą świecący pierścień wokół krawędzi ekranu iPhone’a, gdy Siri będzie w akcji.

Co ważniejsze, nowa Siri działa w różnych aplikacjach. Oznacza to, że można na przykład poprosić Siri o edycję zdjęcia, a następnie wstawić je bezpośrednio do wiadomości tekstowej. To płynne doświadczenie, którego wcześniej brakowało asystentowi. Świadomość kontekstu ekranowego oznacza, że Siri wykorzystuje treść, z którą aktualnie pracujesz, aby udzielić trafnej odpowiedzi.

Przed WWDC 2025 wielu oczekiwało, że Apple zaprezentuje jeszcze bardziej udoskonaloną wersję Siri, ale na to będziemy musieli jeszcze trochę poczekać. Craig Federighi, wiceprezes Apple ds. inżynierii oprogramowania, powiedział na WWDC 2025: „Kontynuujemy nasze prace, aby dostarczyć funkcje, które uczynią Siri jeszcze bardziej osobistą. Te prace wymagały więcej czasu, aby osiągnąć nasz wysoki poziom jakości, i nie możemy się doczekać, aby podzielić się więcej w nadchodzącym roku.”

Ta jeszcze nie wydana, bardziej spersonalizowana wersja Siri ma rozumieć „osobisty kontekst”, taki jak twoje relacje, rutyna komunikacyjna i inne. Jednak według raportu Bloomberga, opracowywana wersja nowej Siri jest zbyt obarczona błędami, aby mogła zostać wydana, stąd jej opóźnienie.

Na WWDC 2025 Apple zaprezentowało również nową funkcję AI o nazwie Visual Intelligence, która pomaga wyszukiwać obrazy rzeczy, które widzisz podczas przeglądania. Apple zaprezentowało również funkcję Live Translation, która może tłumaczyć rozmowy w czasie rzeczywistym w aplikacjach Messages, FaceTime i Phone. Visual Intelligence i Live Translation mają być dostępne jeszcze w 2025 roku, wraz z premierą iOS 26.

Kto dostanie Apple Intelligence?

Pierwsza fala Apple Intelligence pojawiła się w październiku 2024 roku wraz z aktualizacjami iOS 18.1, iPadOS 18.1 i macOS Sequoia 15.1. Aktualizacje te obejmowały zintegrowane narzędzia do pisania, czyszczenie obrazów, podsumowania artykułów i wprowadzanie tekstu dla przeprojektowanego interfejsu Siri. Druga fala funkcji została udostępniona w ramach iOS 18.2, iPadOS 18.2 i macOS Sequoia 15.2. Lista ta obejmuje Genmoji, Image Playground, Visual Intelligence, Image Wand i integrację z ChatGPT.

Funkcje te są darmowe, o ile masz jeden z następujących sprzętów:

  • Wszystkie modele iPhone 16
  • iPhone 15 Pro Max (A17 Pro)
  • iPhone 15 Pro (A17 Pro)
  • iPad Pro (M1 i nowsze)
  • iPad Air (M1 i nowsze)
  • iPad mini (A17 lub nowsze)
  • MacBook Air (M1 i nowsze)
  • MacBook Pro (M1 i nowsze)
  • iMac (M1 i nowsze)
  • Mac mini (M1 i nowsze)
  • Mac Studio (M1 Max i nowsze)
  • Mac Pro (M2 Ultra)

Warto zauważyć, że tylko wersje Pro iPhone’a 15 uzyskują dostęp do AI, ze względu na ograniczenia chipsetu w standardowym modelu. Zakłada się jednak, że cała linia iPhone’a 16 będzie mogła uruchomić Apple Intelligence, gdy się pojawi.

Jak działa AI od Apple bez połączenia z internetem?

Kiedy zadajesz pytanie GPT lub Gemini, twoje zapytanie jest wysyłane na zewnętrzne serwery w celu wygenerowania odpowiedzi, co wymaga połączenia z internetem. Jednak Apple zastosowało podejście oparte na mniejszym modelu, tworzonym na zamówienie.

Największą zaletą tego podejścia jest to, że wiele z tych zadań staje się znacznie mniej zasobochłonne i może być wykonywanych na urządzeniu. Dzieje się tak dlatego, że zamiast polegać na podejściu typu „wszystko w jednym”, które napędza platformy takie jak GPT i Gemini, firma zgromadziła wewnętrznie zbiory danych do konkretnych zadań, takich jak na przykład redagowanie wiadomości e-mail.

Nie dotyczy to jednak wszystkiego. Bardziej złożone zapytania będą wykorzystywać nową ofertę Private Cloud Compute. Firma obsługuje teraz zdalne serwery działające na Apple Silicon, co, jak twierdzi, pozwala jej oferować ten sam poziom prywatności, co jej urządzenia konsumenckie. To, czy dana akcja jest wykonywana lokalnie, czy za pośrednictwem chmury, będzie niewidoczne dla użytkownika, chyba że jego urządzenie jest offline, w którym to przypadku zdalne zapytania spowodują wyświetlenie błędu.

Apple Intelligence z aplikacjami firm trzecich

Wiele mówiło się o zbliżającym się partnerstwie Apple z OpenAI przed uruchomieniem Apple Intelligence. Ostatecznie okazało się jednak, że umowa dotyczyła raczej oferowania alternatywnej platformy dla tych rzeczy, dla których Apple Intelligence nie jest tak dobrze przygotowana. To ciche przyznanie, że budowa systemu opartego o mały model ma swoje ograniczenia.

Integracja ChatGPT, która debiutuje w iOS 18.2, iPadOS 18.2 i macOS Sequoia 15.2, ma dwie główne role: uzupełnianie bazy wiedzy Siri i dodawanie do istniejących opcji Writing Tools.

Po włączeniu usługi niektóre pytania spowodują, że nowa Siri poprosi użytkownika o zgodę na dostęp do ChatGPT. Przepisy kulinarne i planowanie podróży to przykłady pytań, które mogą wyświetlić tę opcję. Użytkownicy mogą również bezpośrednio poprosić Siri o „zapytanie ChatGPT”. Funkcja Compose to kolejna podstawowa funkcja ChatGPT dostępna za pośrednictwem Apple Intelligence. Użytkownicy mogą uzyskać do niej dostęp w dowolnej aplikacji obsługującej nową funkcję Writing Tools. Compose dodaje możliwość pisania treści na podstawie polecenia, dołączając do istniejących narzędzi do pisania, takich jak Style i Summary.

Apple planuje współpracę z dodatkowymi usługami generatywnej AI. Firma dała do zrozumienia, że następny na liście jest Google Gemini.

Czy programiści mogą budować na modelach AI Apple?

Na WWDC 2025 Apple ogłosiło to, co nazywa ramami Foundation Models, które pozwolą programistom wykorzystywać modele AI offline. Umożliwia to programistom dodawanie funkcji AI do aplikacji firm trzecich, które wykorzystują istniejące systemy Apple.

“Na przykład, jeśli przygotowujesz się do egzaminu, aplikacja taka jak Kahoot może stworzyć spersonalizowany quiz z twoich notatek, aby nauka była przyjemniejsza” – powiedział Federighi na WWDC. “Ponieważ wszystko odbywa się za pomocą modeli na urządzeniu, nie ma kosztów API w chmurze. Jesteśmy podekscytowani tym, jak programiści mogą budować na Apple Intelligence, aby zapewnić nowe, inteligentne doświadczenia, dostępne offline i chroniące Twoją prywatność”.

Kiedy Siri doczeka się kolejnego liftingu?

Oczekuje się, że Apple zaprezentuje nowe i ulepszone środowisko Siri w 2026 roku, co jest już nieco późno w porównaniu z konkurencją. Może to być ciosem dla Apple, jednak aby przyspieszyć rozwój, firma może nie mieć innego wyjścia, jak tylko współpracować z zewnętrzną firmą w celu zasilania nowej Siri. Krążą pogłoski, że Apple prowadzi zaawansowane rozmowy z Google, swoim głównym konkurentem w zakresie sprzętu do smartfonów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *