Obraz

Nano Banana 2 blisko premiery. Wyciek wskazuje na 2K, iteracyjne poprawki i szersze proporcje obrazu

Google przygotowuje premierę Nano Banana 2, następcy popularnego generatora obrazów dostępnego w aplikacji Gemini i powiązanych usługach firmy. Wyciek materiałów i krótkie okno publicznych testów sugerują natywny tryb 2K, odczuwalnie lepszą kontrolę perspektywy i ujęcia, precyzyjniejsze kolorowanie oraz skuteczniejsze radzenie sobie z tekstem osadzonym w obrazach — obszary, w których obecna wersja wyraźnie odstaje.

To, co wyróżnia nową odsłonę, to wieloetapowy proces generacji. Model planuje kompozycję, tworzy pierwszy kadr, analizuje własny wynik wbudowaną funkcją rozpoznawania obrazu, identyfikuje błędy i iteracyjnie je koryguje przed zwróceniem finalnego pliku. Taki cykl samokontroli nie był wcześniej widoczny w tej linii modeli i może przełożyć się na większą powtarzalność oraz zgodność z instrukcjami w zadaniach wymagających precyzji.

Wyciek, zgodność wyników i rebranding

Model pojawił się na krótko w Gemini, a następnie — prawdopodobnie przez przypadek — w podglądzie na platformie Media AI. Oznaczone jako Nano Banana 2 próbki dały efekty spójne z tymi, które widziano podczas krótkiej dostępności w Gemini, co zwiększa wiarygodność materiału. Równolegle w commitach i wewnętrznych testach pojawia się nazwa Nano Banana Pro oraz deklaracje nawet trzykrotnie wyższej dokładności i spójności względem wcześniejszych kompilacji NB2.

Na razie to twierdzenia osób testujących i zapisy w kodzie, nie niezależne benchmarki. Przykładowe „stress testy” obejmują rekonstrukcję obrazów po symulowanym pocięciu na fragmenty, a model ma utrzymywać spójność także między sesjami. Brzmi obiecująco, ale bez transparentnej metodologii trudno ocenić skalę postępu.

Proporcje, rozdzielczości i kontrola nad kadrem

Kody źródłowe wskazują na szerszą listę obsługiwanych proporcji: 1:1, 2:3, 3:2, 3:4, 4:3, 9:16, 16:9 oraz 21:9. Do tego dochodzą tryby 1K, 2K i 4K. Dla praktycznych zastosowań — od banerów, przez projekty produktów, po pionowe formaty mobilne — to realna oszczędność czasu: mniej kadrowania po fakcie, więcej kontroli nad kompozycją już na etapie generacji.

Na czym ma działać: Gemini 3.0 Pro, 2.5 Flash czy Imagen 4?

Tu panuje największa niejasność. Wczesne doniesienia sugerowały bazę w postaci Gemini 3.0 Pro, lecz wewnętrzne obserwacje wskazują, że obecne buildy nadal korzystają z Gemini 2.5 Flash. Taki kompromis mógłby umożliwić wcześniejszy debiut, a dopiero później migrację na nowszy fundament. W dyskusji przewija się też wątek Imagen 4, jednak brak potwierdzeń.

W dokumentach wewnętrznych i w kodzie pojawia się kryptonim GEMPIX 2 dla tej linii, co może oznaczać, że Google testuje kilka wariantów produktu, w tym wspomnianą wersję Pro, różniących się rozdzielczością i zestawem funkcji. Do oficjalnych informacji należy jednak podchodzić z rezerwą — firma nie ogłosiła jeszcze finalnych szczegółów.

Gdzie trafi i kiedy to zobaczymy

W interfejsie Gemini pojawiły się karty zapowiadające, co zwykle oznacza publiczne wdrożenie w krótkim czasie. Integracja ma nie ograniczać się do aplikacji — Google szykuje rozszerzenie dostępności do innych eksperymentów, m.in. w ramach Whisk Labs, kontynuując wieloplatformową strategię znaną z pierwszego Nano Banana.

W przestrzeni plotek przewija się data 11 listopada jako okno premiery, jednak to wciąż nieoficjalne. Ważniejsze od terminu jest to, czy nowa iteracja rzeczywiście dostarczy lepszą zgodność z instrukcjami, stabilną powtarzalność wyników i bardziej przewidywalną kontrolę nad kadrem — to parametry, które decydują o przydatności w profesjonalnych przepływach pracy.

Co sprawdzać po starcie

Jeśli zapowiedzi się potwierdzą, Nano Banana 2 może ograniczyć najdotkliwsze bolączki poprzednika: błędne liternictwo w obrazach, problemy z perspektywą i niestabilne kolory. Kluczowe będą jednak weryfikowalne metryki: stopień realizacji złożonych promptów, spójność między kolejnymi generacjami (także w nowych sesjach), skuteczność w trybach 2K/4K oraz to, czy iteracyjna korekta nie spowalnia procesu na tyle, że traci on walor użytkowy.

Do czasu oficjalnej premiery te elementy pozostają znakami zapytania. Na razie wycieki układają się w spójną opowieść o bardziej świadomej, „samokorygującej się” generacji obrazu i większej elastyczności wyjścia. Odpowiedź na pytanie, na jakim dokładnie fundamencie modelowym to wszystko pracuje i jak szeroko trafi do produktów Google, poznamy dopiero wraz z ogłoszeniem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *