Google wprowadza model Gemini 3 Flash i zwiększa jego dostępność
Google ogłosiło wprowadzenie Gemini 3 Flash, szybkiego i ekonomicznego modelu opartego na architekturze Gemini 3, który zadebiutował w ubiegłym miesiącu. Strategia ta ma na celu nie tylko umocnienie pozycji technologicznego giganta, ale również stanowi wyraźne wyzwanie dla dominacji OpenAI. Gemini 3 Flash zostanie domyślnym modelem w aplikacji Gemini oraz w funkcji AI w wyszukiwarce Google.
Wydajność i wszechstronność
Nowy model Flash pojawia się sześć miesięcy po premierze Gemini 2.5 Flash, przynosząc ze sobą znaczące ulepszenia. W testach porównawczych Gemini 3 Flash znacznie przewyższa swojego poprzednika, a w niektórych aspektach dorównuje wydajności innych czołowych modeli, takich jak Gemini 3 Pro i GPT 5.2.
Na przykład, w teście „Humanity’s Last Exam”, oceniającym wiedzę ekspercką w różnych dziedzinach, Gemini 3 Flash osiągnął wynik 33,7% bez użycia dodatkowych narzędzi. Dla porównania, Gemini 3 Pro uzyskał 37,5%, Gemini 2.5 Flash – 11%, a nowo wydany GPT-5.2 – 34,5%.
Co więcej, w benchmarku multimodalności i rozumowania MMMU-Pro, nowy model osiągnął najwyższy wynik spośród wszystkich konkurentów, uzyskując 81,2%.
Dostępność dla użytkowników końcowych
Gemini 3 Flash staje się domyślnym modelem w aplikacji Gemini na całym świecie, zastępując Gemini 2.5 Flash. Użytkownicy nadal będą mieli możliwość wyboru modelu Pro do bardziej złożonych zadań, takich jak rozwiązywanie problemów matematycznych czy programowanie.
Google podkreśla, że nowy model doskonale radzi sobie z identyfikacją treści multimodalnych i dostarczaniem odpowiedzi w oparciu o nie. Przykłady zastosowań obejmują analizę wideo (np. filmów z gry w pickleball i sugestie dotyczące poprawy techniki), interpretację szkiców czy analizę nagrań audio i generowanie na ich podstawie quizów. Model ma również lepiej rozumieć intencje użytkowników i generować bardziej wizualne odpowiedzi, wzbogacone o obrazy i tabele. Dodatkowo, w aplikacji Gemini możliwe będzie tworzenie prototypów aplikacji za pomocą prostych promptów.
Zastosowania biznesowe i deweloperskie
Firmy takie jak JetBrains, Figma, Cursor, Harvey i Latitude już teraz korzystają z modelu Gemini 3 Flash, dostępnego za pośrednictwem Vertex AI i Gemini Enterprise. Dla deweloperów model jest dostępny w wersji podglądowej poprzez API oraz w Antigravity, nowym narzędziu do kodowania Google, wprowadzonym w zeszłym miesiącu. Google podkreśliło, że Gemini 3 Pro osiągnął 78% w weryfikowanym benchmarku kodowania SWE-bench, ustępując jedynie GPT-5.2. Model ten jest idealny do analizy wideo, ekstrakcji danych i wizualnego zadawania pytań, a dzięki swojej szybkości nadaje się do szybkich i powtarzalnych zadań.
Ceny za korzystanie z modelu wynoszą 0,50 USD za milion tokenów wejściowych i 3,00 USD za milion tokenów wyjściowych. Jest to nieco więcej niż 0,30 USD za milion tokenów wejściowych i 2,50 USD za milion tokenów wyjściowych w Gemini Flash 2.5. Jednak Google twierdzi, że nowy model przewyższa Gemini 2.5 Pro, będąc jednocześnie trzykrotnie szybszym. W przypadku zadań wymagających głębszego przetwarzania, Gemini 3 Flash zużywa średnio 30% mniej tokenów niż Gemini 2.5 Pro, co może przełożyć się na oszczędności.
Wojna na modele AI
Tulsee Doshi, starszy dyrektor i szef produktu ds. modeli Gemini, podkreśliła, że Flash jest pozycjonowany jako „model roboczy”, oferujący znacznie niższą cenę wejściową i wyjściową, co umożliwia wielu firmom realizację zadań masowych. Od czasu premiery Gemini 3, Google przetwarza ponad bilion tokenów dziennie za pośrednictwem swojego API, co świadczy o intensywności rywalizacji z OpenAI.
Wcześniej w tym miesiącu, Sam Altman miał wysłać wewnętrzną notatkę „Code Red” do zespołu OpenAI po spadku ruchu w ChatGPT i wzroście udziału Google w rynku konsumenckim. W odpowiedzi, OpenAI wydało GPT-5.2 i nowy model generowania obrazów, podkreślając ośmiokrotny wzrost wolumenu wiadomości w ChatGPT od listopada 2023 roku.
Mimo że Google nie odniosło się bezpośrednio do konkurencji z OpenAI, Doshi zauważyła, że rynek jest niezwykle dynamiczny, a takie wydania „zachęcają nas do dalszego rozwoju i tworzenia nowych sposobów oceny tych modeli”.
