AI w medycynie. ChatGPT zinterpretuje twoje wyniki? Ekspertka ostrzega: „To nie diagnoza!”

2026-01-14 17:25

Firma OpenAI poinformowała w styczniu o uruchomieniu nowego modułu w ChatGPT, który ma m.in. pomagać w analizie wyników badań krwi na podstawie przesłanej dokumentacji medycznej. Liderka inicjatywy „AI w Zdrowiu” Ligia Kornowska podkreśla jednak, że użytkownicy nie powinni traktować odpowiedzi chatbota jako diagnozy. Szczegóły poniżej.

AI w medycynie. ChatGPT zinterpretuje twoje wyniki? Ekspertka ostrzega: „To nie diagnoza!”

i

Autor: Freepik.com

ChatGPT Health: analiza wyników i podpowiedzi dla użytkowników

OpenAI zaprezentowało nową funkcję wyszukiwania i porządkowania informacji dotyczących zdrowia, która ma być dostępna jako ChatGPT Health. Moduł pojawi się w bocznym menu aplikacji i ma działać w oparciu o dokumentację przesyłaną przez użytkownika. Wśród możliwości wymieniono m.in. interpretację wyników badań krwi oraz sugestie dietetyczne.

Według OpenAI to odpowiedź na rosnące zainteresowanie zdrowiem wśród użytkowników. Z raportu firmy „AI as a Healthcare Ally” wynika, że codziennie ponad 40 mln osób zadaje ChatGPT pytania związane z opieką zdrowotną, a temat ten stanowi ponad 5 proc. wszystkich wiadomości wysyłanych do asystenta.

Ekspertka: bez certyfikacji nie ma pewności, czy AI nie wprowadzi w błąd

Ligia Kornowska, zajmująca się wykorzystaniem AI w ochronie zdrowia, zwróciła uwagę na ryzyko związane z takimi narzędziami.

– Jeśli algorytm sztucznej inteligencji ma bezpośrednio wpływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tzw. algorytmów wysokiego ryzyka – powiedziała ekspertka.

I to niezależnie od tego, czy z systemu korzysta pacjent, czy lekarz.

– W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak jest to w przypadku ChatGPT Health, tak naprawdę nie wiemy, czy ten algorytm poda pacjentowi dobre informacje, czy wprowadzi go w błąd – zauważyła Kornowska.

Według niej certyfikacja pozwalałaby lepiej ocenić skuteczność algorytmu, jego czułość oraz to, z jakim prawdopodobieństwem podaje prawdziwe informacje, a kiedy może wprowadzać użytkownika w błąd.

Narzędzia dla szpitali i ostrzeżenia o danych oraz błędach AI

Zdaniem Kornowskiej, przynajmniej na razie, ChatGPT Health powinien być wykorzystywany głównie w celach edukacyjnych, a użytkownicy powinni być jasno informowani o konieczności samodzielnej weryfikacji otrzymanych treści. Ekspertka podkreśliła też, że pacjenci nie powinni mieć przekonania, iż chatbot zastąpi konsultację medyczną.

OpenAI pokazało również pakiet narzędzi dla instytucji medycznych pod nazwą „OpenAI for Healthcare”. Ma on wspierać m.in. pracę administracyjną – poprzez tworzenie podsumowań wypisów, zaleceń czy dokumentacji klinicznej. Firma poinformowała, że z podobnych rozwiązań korzystają już niektóre placówki w USA, m.in. AdventHealth oraz Boston Children’s Hospital.

Kornowska zwróciła jednak uwagę, że przepisy dotyczące ochrony danych wrażliwych różnią się w UE i USA. Podkreśliła, że korzystając z narzędzi amerykańskich firm, trzeba upewnić się, że spełniają one unijne wymogi, w tym RODO.

Na ryzyko błędnych porad generowanych przez AI wskazywał także brytyjski „The Guardian”. Według styczniowego śledztwa dziennika, podsumowania tworzone przez AI w wyszukiwarce Google zawierały nieścisłości dotyczące zdrowia, m.in. wyników badań wątroby. Z tego powodu osoby chore mogłyby błędnie uznać, że nic im nie dolega.

Rzecznik Google przekazał, że firma nie komentuje pojedynczych usunięć w wyszukiwarce, ale pracuje nad ulepszeniami w sytuacjach, gdy narzędzia AI nie uwzględniają pełnego kontekstu.

Kontrowersje dotyczą również wpływu chatbotów na zdrowie psychiczne. W sierpniu ubiegłego roku media informowały o pozwie przeciwko OpenAI po samobójczej śmierci 14-letniego chłopca z Kalifornii. Rodzice twierdzili, że rozmowy z ChatGPT miały go zachęcać do odebrania sobie życia.

Z kolei Associated Press podała w listopadzie, że do OpenAI trafiło łącznie siedem podobnych pozwów, w których wskazywano m.in. na samobójstwa i szkodliwe urojenia u osób, które wcześniej nie miały problemów psychicznych.

W odpowiedzi OpenAI poinformowało o wdrożeniu zabezpieczeń dla rozmów dotyczących wrażliwych tematów.

- Stale udoskonalamy szkolenia ChatGPT, aby rozpoznawać i reagować na oznaki stresu psychicznego lub emocjonalnego, łagodzić napięcia w rozmowach i kierować ludzi do realnego wsparcia – napisała firma.

Rz czy ż? Ó czy u? To największe pułapki w polskiej ortografii
Pytanie 1 z 25
Pióro czy piuro?
exb vod trela 14.01.2026