To wygodne, szybkie i dostępne o każdej porze. Ale specjaliści wskazują, czego AI nie jest w stanie dostrzec — i dlaczego może to kosztować zdrowie, a nawet życie.
Zjawisko konsultowania z AI-lekarzem przybrało już skalę masową: według danych firmy OpenAI codziennie ponad 40 mln ludzi na całym świecie pyta ChatGPT o objawy, schorzenia i metody leczenia.
Zainteresowanie zdrowiem wcale nie jest złe
Lekarz rodzinny Valerij Morozov z kliniki Northway przyznaje, że samo zainteresowanie własnym zdrowiem to dobry znak. Problem zaczyna się tam, gdzie kończy się krytyczne myślenie. „Problemy zaczynają się wtedy, gdy informacje na temat zdrowia są przyjmowane bezkrytycznie i ślepo w nie wierzymy. Można skonsultować się ze sztuczną inteligencją, ale nie można bezkrytycznie kierować się jej zaleceniami lub wymagać od lekarza, aby je stosował” — mówi Morozov.
W praktyce lekarz codziennie przyjmuje pacjentów przychodzących już z gotową „diagnozą” wygenerowaną przez algorytm. To jeszcze nie jest sytuacja niebezpieczna. Poważniejszy problem pojawia się, gdy ktoś po przeczytaniu odpowiedzi AI w ogóle rezygnuje z wizyty.
„Nie jest to złe dla wstępnego zrozumienia i wiedzy (przyjście z AI-diagnozą — przyp.red.). Znacznie większym problemem jest sytuacja, gdy osoba analizuje informacje i nie podejmuje żadnych działań, decydując się w ogóle nie zgłaszać do lekarza. Wówczas wzrasta ryzyko przeoczenia poważnego schorzenia” — podkreśla medyk.
Czego algorytm nie zobaczy
AI odpowiada wyłącznie na podstawie tego, co wpisano w zapytaniu. Nie obserwuje pacjenta, nie bada go, nie dopyta o szczegół, który może zmienić całą ocenę sytuacji.
„Sztuczna inteligencja nie ma możliwości oceny dynamiki stanu pacjenta, nie widzi człowieka, nie może przeprowadzić badania ani zadać dodatkowych pytań, tak jak robi to lekarz. Pacjent może uznać, że pewne informacje nie są ważne i ich nie wspomnieć, a właśnie one mogą mieć decydujące znaczenie przy ustalaniu diagnozy i leczenia” — wskazuje Valerij Morozov.
Lekarz podaje konkretny przykład: dziecko po ukąszeniu przez kleszcza ma zaczerwienienie i gorączkę. AI może podejrzewać boreliozę i zalecić wizytę — i na tym kończy analizę. Lekarz dopytałby o temperaturę, czas trwania gorączki, wygląd wysypki i samopoczucie dziecka. To właśnie te niuanse pozwalają odróżnić jedną chorobę od drugiej.
Kto ponosi odpowiedzialność?
Audrius Zinevičius, ekspert ds. ubezpieczeń specjalistycznych w Lietuvos draudimas, zwraca uwagę na wymiar prawny i etyczny. Dane zdrowotne przekazane platformie technologicznej to nie to samo, co wizyta u lekarza. W skrócie — u lekarza za nas odpowiada lekarz. W przypadku AI odpowiedzialność bierze… no właśnie.
„Jeśli przekazujemy nasze dane zdrowotne firmie technologicznej, która nie świadczy usług opieki zdrowotnej, odpowiedzialność spoczywa na samym użytkowniku. W przypadku konsultacji z lekarzem obowiązuje tajemnica zawodowa i jasna odpowiedzialność za podejmowane decyzje. To zasadnicza różnica” — zaznacza Zinevičius.
Alternatywą łączącą wygodę z profesjonalizmem okazuje się telemedycyna. Z badań przeprowadzonych na zlecenie Lietuvos draudimas wynika, że 9 na 10 mieszkańców Litwy wybrałoby w razie potrzeby zdalną konsultację z lekarzem rodzinnym. Wśród osób w wieku 26-35 lat odsetek ten sięga 93 proc. No i w przypadku telemedycyny wiadomo, na kim spoczywa odpowiedzialność.



