Badania przeprowadzone przez Instytut Life Span na Uniwersytecie w Kansas wykazały, iż rodzice poszukujący w internecie informacji na temat zdrowotne dotyczące dzieci bardziej ufają sztucznej inteligencji (AI), takiej jak ChatGPT, niż pracownikom służby zdrowia. Czy jest czym się niepokoić?
Nie wiedzieli, iż to ChatGPT
Od lat rodzice korzystają z internetu i nie jest to nic zaskakującego. Do tej pory korzystali z artykułów, które znaleźli w Google lub prosili o rady na forach dla rodziców. Od jakiegoś czasu do grona "internetowych lekarzy" dołączył także ChatGPT. Wiedząc, iż rodzice często szukają porad w sieci, badacze postanowili przyjrzeć się dokładniej temu zjawisku.
Leslie-Miller i jej zespół przeprowadzili badanie z udziałem 116 rodziców w wieku od 18 do 65 lat. Respondenci otrzymali teksty na temat zdrowia, poruszające takie tematy, jak trening snu dziecka i odżywianie. Były to treści generowane przez ChatGPT oraz takie napisane przez pracowników służby zdrowia. Uczestnikom badania nie powiedziano jednak, kto je napisał.
Respondenci zauważyli jedynie minimalne różnice w otrzymanych treściach, ale w tym pojedynku to ChatGPT został oceniony jako "bardziej godny zaufania, dokładny i niezawodny".
Dlaczego rodzice ufają sztucznej inteligencji?
Choć naukowcy nie sprawdzali, dlaczego dokładnie rodzice bardziej ufają sztucznej inteligencji, to autorzy badania mają jednak swoją teorię na ten temat. Otóż narzędzia AI wiedzą, jak formułować treść na tyle atrakcyjnie, by "sprzedać" ją użytkownikowi. ChatGPT prezentuje informacje w sposób bezpośredni i łatwy do zrozumienia. Kluczem więc jest prostota i przystępność. Według autorów badania znaczenie ma także fakt, iż rodzice oczekują szybkich wskazówek.
Warto tu przytoczyć badania prowadzone na Uniwersytecie Kalifornijskim w San Diego i Uniwersytecie Johnsa Hopkinsa w 2023 roku. Wykazały one, iż porady udzielane pacjentom przez ChatGPT często oceniane są przez odbiorców jako bardziej "empatyczne" w porównaniu z tymi, których udzielają lekarze.
Ryzyko leczenia dzieci na podstawie tekstu AI
Chociaż uzyskiwanie informacji zdrowotnych w ten sposób może być bardzo wygodne, to jednak jest to ryzykowne rozwiązanie. Informacje serwowane przez ChatGPT mogą być przestarzałe, niedokładne lub niedopasowane do konkretnych okoliczności.
Naukowcy przypominają, iż odpowiedzi AI są generowane na podstawie ogromnej ilości ogólnych informacji, które można znaleźć w sieci. Nie należy oczekiwać od sztucznej inteligencji inicjatywy i wyobraźni. Brakuje jej także doświadczenia klinicznego i dodatkowej wiedzy, jaką posiadają pracownicy służby zdrowia. ChatGPT nie spersonalizuje również swoich wskazówek pod konkretnego pacjenta. W ten sposób w gruncie rzeczy może generować błędne porady, a to z kolei może prowadzić do szeregu niebezpiecznych skutków.
Korzystanie z narzędzi AI w zakresie porad medycznych może prowadzić do przeoczenia objawów, błędnej interpretacji poważnych schorzeń lub opóźnień w znalezieniu odpowiedniej opieki. Szczególnie w przypadku dzieci drobne problemy zdrowotne mogą gwałtownie się nasilić, dlatego niezbędna jest ocena sytuacji przez wykwalifikowanego specjalistę.
Coś cię niepokoi? Odłóż telefon i skorzystaj z porady prawdziwego specjalisty – apelują lekarze.