Google rozwija tryb interaktywny w Stitch, agencie do projektowania interfejsów
Google doszlifowuje Stitch, swojego agenta do projektowania interfejsów, który ma już pełny dostęp do możliwości Gemini 2.5 Pro. Według obecnych obserwacji wzrosła zarówno jakość, jak i różnorodność generowanych rezultatów w porównaniu z ostatnimi tygodniami.
Najciekawszą nowością jest eksperymentalny Tryb Interaktywny. Użytkownik może klikać elementy w projekcie, a model przewiduje i renderuje kolejne ekrany, budując ścieżki nawigacji niemal w locie. To koncept prototypowania interfejsów bez z góry zakodowanych layoutów, z naciskiem na reakcję na kontekst i interakcje. Tempo generowania nadal jest odczuwalnie wolne, a funkcja pozostaje ukryta, ale pokazuje kierunek rozwoju.
Jeśli podejście dojrzeje, może zmienić sposób tworzenia i testowania doświadczeń cyfrowych: zamiast sztywnych makiet – iteracyjne, krok po kroku, z natychmiastową weryfikacją hipotez projektowych. Najbardziej skorzystają na tym zespoły produktowe, projektanci i programiści, którym zależy na szybkim badaniu wariantów UI.
Równolegle rozwijane są dodatkowe elementy: Adnotacje oraz nowy Image Mode, przewidziany do generowania obrazów referencyjnych. Ten ostatni ma być zasilany modelem określanym jako „nano-banana” lub pokrewnym – to jednak niepotwierdzone szczegóły. W planach jest też eksport projektów do Jules: użytkownik zrobi zrzut ekranu w Stitch i prześle go do Jules w celu automatyzacji kolejnych kroków. To ściślej spina Stitch z ekosystemem Google, wzmacniając integrację agentów i automatyzację między aplikacjami.
Na razie żadne z tych funkcji nie ma ogłoszonej daty premiery. Jak zauważa TestingCatalog, całość sygnalizuje przejście w stronę bardziej generatywnych i modularnych przepływów pracy w projektowaniu UI. Ostateczny wpływ będzie jednak zależał od rozwiązania problemów z wydajnością i stabilnością generacji.
