Formuła E i Google Cloud: Nowa era dostępności w motorsporcie dzięki AI
Świat Formuły E, znany z pionierskiego podejścia do zrównoważonych i szybkich wyścigów samochodów elektrycznych, osiągnął kolejny kamień milowy. Seria, która w sezonie 10. odnotowała imponujący wzrost globalnej oglądalności telewizyjnej do 491 milionów widzów (35% więcej niż w poprzednim sezonie), teraz wyznacza nowe kierunki w dostępności, łącząc siły z Google i Google Cloud.
Kluczowym elementem tej współpracy jest wprowadzenie raportów audio z wyścigów, generowanych przez zaawansowaną technologię AI Google Cloud. Ich celem jest zapewnienie osobom niewidomym i niedowidzącym równie intensywnych wrażeń z wyścigów, co widzącym kibicom.
AI na rzecz inkluzywności: Partnerstwo Formuły E i Google Cloud
Oficjalne ogłoszenie partnerstwa miało miejsce podczas Google Cloud Summit w Londynie. Jeff Dodds, CEO Formuły E, podkreślił, że projekt wykorzysta generatywną sztuczną inteligencję Google Cloud do tworzenia barwnych, wielojęzycznych streszczeń audio każdego wyścigu E-Prix. Ma to na celu dostarczenie dynamicznych i angażujących wrażeń, oddając istotę oraz kluczowe chwile rywalizacji.
„W Formule E wierzymy, że dreszczyk emocji związany z wyścigami samochodów elektrycznych powinien być dostępny dla każdego” – zaznaczył Dodds. Dodał również, że ta innowacyjna współpraca z Google Cloud to ‘fantastyczny przykład wykorzystania technologii dla dobra, tworzący zupełnie nowy sposób doświadczania dramatu i emocji naszego sportu przez niewidomych i niedowidzących fanów’.
Istotnym aspektem jest ścisła współpraca z Królewskim Narodowym Instytutem Osób Niewidomych (RNIB). Dzięki temu innowacja ma być „prawdziwie inkluzywna i spełniać swoje zadanie, tak aby żaden fan nie został pominięty” – podkreśla Dodds. Ta dwustronna współpraca, która rozpoczęła się od hackathonu Google Cloud podczas London E-Prix w 2024 roku, obejmuje sesje testowe z użytkownikami i grupy fokusowe w Berlinie i Londynie, a pełne wdrożenie zaplanowano na sezon 12.
Technologia Google Cloud w służbie audio deskrypcji
John Abel, dyrektor zarządzający ds. oprogramowania specjalistycznego w Google Cloud, zauważył, że „przez zbyt długi czas wizualny charakter wyścigów stanowił barierę dla fanów niewidomych lub niedowidzących”. Właśnie to jest główny powód rozwoju nowego rozwiązania. Technologia AI Google Cloud działa jako ‘cyfrowy gawędziarz, tworząc żywą narrację audio, która ożywia szybkość, strategię i emocje Formuły E’.
Proces tworzenia raportów audio jest złożony i wykorzystuje zaawansowane modele Google Cloud. Rozpoczyna się od transkrypcji komentarzy z wyścigów w czasie rzeczywistym, do czego służy model Chirp, będący częścią platformy Vertex AI. Następnie modele Gemini analizują przetranskrybowane komentarze, uwzględniając dane dotyczące czasu wyścigu i oficjalne informacje. System identyfikuje i opisuje kluczowe wydarzenia, takie jak wyprzedzenia, incydenty czy strategiczne pit stopy.
Ostatecznie, tekst jest przekształcany w naturalną i ekspresyjną mowę za pomocą zaawansowanej technologii text-to-speech. Cały proces jest tak szybki, że gotowe raporty audio są dostępne zaledwie kilka minut po zakończeniu wyścigu. Raporty te będą dystrybuowane na popularnych platformach audio, w tym Spotify, i będą dostępne w ponad 15 językach, m.in. angielskim, hiszpańskim, francuskim, niemieckim, mandaryńskim i arabskim.
Sonali Rai, kierownik ds. mediów, kultury i technologii immersyjnych w RNIB, podkreśla, że „audio deskrypcja zmienia sposób, w jaki niewidomi i niedowidzący fani sportów motorowych mogą w pełni zaangażować się w oglądanie całego spektaklu wyścigowego – chłonąc dźwięki samochodów na torze i czując pasję tłumu”. Rai dodaje, że zaangażowanie Formuły E we współpracę bezpośrednio ze społecznością niewidomych i niedowidzących przy rozwoju tej technologii „jest właściwym podejściem i ustanawia fantastyczny standard w dziedzinie inkluzywności dla innych sportów”.
