Gadżety

Przyszłość Apple bez ekranu: intelektualne okulary napędzane przez AI

Apple najwyraźniej zrozumiało, że przyszłość technologii ubieralnych nie musi wiązać się z ciężkimi goglami przesłaniającymi rzeczywistość. Według najnowszych doniesień Marka Gurmana z Bloomberga firma pracuje nad inteligentnymi okularami, które świadomie rezygnują z jakichkolwiek wyświetlaczy. Urządzenie o roboczej nazwie N500 ma stać się fizycznym interfejsem dla Siri, opierając swoje działanie na zaawansowanym systemie wizji komputerowej.

Siri zyska wzrok

Koncepcja Apple opiera się na integracji okularów z ekosystemem Apple Intelligence. Zamiast prezentować powiadomienia na szkłach, urządzenie będzie „widzieć” to, co użytkownik, wykorzystując pionowo zorientowane, owalne soczewki kamer. Tak zebrane dane wizualne pozwolą asystentowi dostarczać precyzyjnych wskazówek nawigacyjnych czy kontekstowych przypomnień prosto do słuchawek AirPods. To część szerszej ofensywy sprzętowej, w skład której wchodzi również multimedialny wisior oraz nowa generacja słuchawek wyposażonych w sensory wizyjne.

Samodzielność zamiast partnerstw

W przeciwieństwie do konkurencji, takiej jak Meta, Google czy Samsung, którzy przy produkcji oprawek współpracują z gigantami rynku optycznego, Apple zamierza utrzymać cały proces projektowy wewnątrz firmy. Pozwala to na pełną kontrolę nad designem, choć stawia przed inżynierami ogromne wyzwanie zminiaturyzowania technologii do formy tradycyjnych okularów. Premiera rynkowa spodziewana jest pod koniec 2026 lub na początku 2027 roku, co zbiegnie się w czasie z debiutem systemu iOS 27.

Przetasowania na szczytach władzy

Rozwój nowej kategorii produktów przypada na moment istotnych zmian kadrowych w Cupertino. Z firmą ostatecznie żegna się John Giannandrea, dotychczasowy szef działu AI. Jego odejście jest postrzegane jako pokłosie restrukturyzacji po chłodno przyjętym starcie Apple Intelligence w 2025 roku. Obecnie stery nad rozwojem Siri i systemów wizyjnych przejęli liderzy odpowiedzialni za projekt Vision Pro, co sugeruje, że Apple stawia na maksymalną integrację algorytmów rozpoznawania obrazu z codziennym życiem użytkowników.