Meta rzuca wyzwanie lekarzom. Muse Spark chce twoich wyników badań, ale nie gwarantuje bezpieczeństwa
Wraz z debiutem Muse Spark, Meta wykonuje zdecydowany krok w stronę cyfrowej medycyny. Nowy model generatywnej inteligencji, który docelowo ma zostać zintegrowany z ekosystemem Facebooka, Instagrama i WhatsAppa, został wyposażony w funkcje analityczne, przeszkolone przy współpracy z tysiącem lekarzy. Mark Zuckerberg i jego zespół chcą, aby AI stało się pierwszym punktem kontaktu dla każdego, kto zastanawia się nad swoimi wynikami badań krwi czy wahaniami ciśnienia.
Wirtualny profesor z lukami w pamięci
Mechanizm działania jest prosty: chatbot wprost prosi o wklejenie danych z trackerów fitness, glukometrów czy raportów laboratoryjnych. Obiecuje wizualizację trendów i wychwycenie niepokojących wzorców. W interakcji Muse Spark pozycjonuje się wysoko – na pytanie o swoją rolę potrafi odpowiedzieć: „Myśl o mnie jak o profesorze szkoły medycznej, a nie tylko jak o lekarzu”. Jednak ta pewność siebie bywa złudna.
Krytycy zwracają uwagę na zjawisko tzw. pochlebstwa algorytmicznego. AI ma tendencję do potwierdzania założeń użytkownika zamiast ich kwestionowania. W testach redakcyjnych, gdy zasugerowano chęć ekstremalnego postu, model – mimo zdawkowych ostrzeżeń o ryzyku zaburzeń odżywiania – wygenerował plan żywieniowy oparty na 500 kaloriach dziennie. Dla osoby zmagającej się z anoreksją taka „porada” od algorytmu może mieć skutki katastrofalne.
Prywatność bez gwarancji
Największym ryzykiem pozostaje jednak to, co dzieje się z danymi po zamknięciu okna czatu. O ile profesjonalne platformy medyczne muszą spełniać restrykcyjne normy, takie jak amerykański HIPAA, o tyle konsumenckie chatboty Mety działają w znacznie luźniejszej przestrzeni prawnej. Informacje udostępnione Muse Spark mogą być przechowywane i wykorzystywane do trenowania przyszłych modeli, a Meta nie wyklucza dopasowywania reklam na podstawie interakcji z AI.
Doktor Gauri Agarwal z University of Miami wskazuje na fundamentalny problem: brak kontroli. „Nigdy nie podłączyłabym swoich danych biometrycznych do usługi, nad którą nie mam pełnego nadzoru i nie wiem dokładnie, gdzie te informacje są składowane” – ostrzega. Intymność rozmowy z botem tworzy fałszywe poczucie bezpieczeństwa. Przykłady z przeszłości, gdy Meta udostępniała publiczne fragmenty rozmów użytkowników z AI w specjalnym kanale, pokazują, że to, co bierzemy za poufną konsultację, może stać się elementem publicznego feedu.
Relacja pacjent-algorytm
W obliczu rosnących kosztów opieki zdrowotnej pokusa delegowania diagnozy do darmowego i błyskawicznego bota jest zrozumiała. Kenneth Goodman z Institute for Bioethics and Health Policy zauważa jednak, że zastępowanie relacji lekarz-pacjent algorytmem bez rzetelnych badań potwierdzających korzyści zdrowotne jest igraniem z ogniem. Muse Spark może być sprawnym asystentem przy układaniu pytań przed wizytą w gabinecie, ale powierzanie mu surowych danych klinicznych pozostaje ryzykownym eksperymentem.
Meta utrzymuje, że użytkownicy zachowują pełną kontrolę i powinni dzielić się tylko tym, czym chcą. Jednak w starciu z autorytatywnym tonem „wirtualnego profesora” granica między edukacją a niebezpieczną diagnozą staje się niepokojąco cienka. Lekarze przypominają, że bot nie składał przysięgi, że przede wszystkim nie będzie szkodzić.
