Wybierz język

Polish

Down Icon

Wybierz kraj

England

Down Icon

Lekarze z Ontario apelują, aby rozmawiać nie tylko z pracownikami służby zdrowia, ale także z ChatGPT

Lekarze z Ontario apelują, aby rozmawiać nie tylko z pracownikami służby zdrowia, ale także z ChatGPT

ChatGPT i podobne narzędzia wykorzystujące sztuczną inteligencję potrafią czasem udzielić pacjentom trafnych odpowiedzi na ich pytania, jednak kanadyjscy badacze medyczni przestrzegają, że przed podjęciem działań na podstawie otrzymanych informacji należy je dokładnie sprawdzić.

Porada badaczy pojawiła się na konferencji prasowej zorganizowanej w tym tygodniu przez Ontario Medical Association (OMA), podczas której omówiono źródła informacji typu „zrób to sam” — od wyszukiwarek , przez media społecznościowe, po chatboty — oraz ich wpływ, a także to, co pacjenci mogą zamiast tego zrobić.

Jak powiedziała dr Valerie Primeau, psychiatra z North Bay, która kieruje programami leczenia stacjonarnego i społecznego w zakresie zdrowia psychicznego i uzależnień, ważne jest, aby ostrzegać ludzi już teraz, ponieważ pacjenci coraz częściej korzystają z narzędzi opartych na sztucznej inteligencji.

Chatboty dają przekonujące i empatyczne wyniki — ale informacje mogą być fałszywe .

„Mam teraz pacjentów, którzy kontaktują się z ChatGPT, aby uzyskać porady i porozmawiać” – powiedział Primeau. „Przewiduję więc, że ten problem będzie się utrzymywał i jeśli nie zajmiemy się nim teraz i nie pomożemy ludziom w jego rozwiązaniu , będą mieli trudności”.

Dr David D'Souza, radioonkolog z London w Ontario, który prowadzi badania kliniczne nad metodami obrazowania w leczeniu raka, powiedział, że w zależności od tego, w jaki sposób pacjenci przerywają przekazy sztucznej inteligencji, mogą oni opóźniać podjęcie konwencjonalnych metod leczenia.

„Pacjent przyszedł do mnie z pytaniem, czy powinien poczekać z leczeniem zdiagnozowanego nowotworu za kilka lat, ponieważ wierzy, że sztuczna inteligencja dostosuje leczenie raka do potrzeb pacjentów” – powiedział D’Souza reporterom. „Musiałem go przekonać, dlaczego powinien poddać się leczeniu już teraz”.

Uśmiechnięta kobieta
Dr Zainab Abdurrahman sugeruje, aby pacjenci sprawdzali odpowiedzi chatbotów pod kątem informacji zamieszczonych na stronach internetowych profesjonalnych organizacji medycznych. (Tiffany Mongu/CBC)

Biorąc pod uwagę, że konsumenci będą korzystać z tych narzędzi, prezes OMA, dr Zainab Abdurrahman, radzi, aby w przypadku wpisu o treści „lekarze ukrywali to przed tobą” sprawdzić strony internetowe odpowiednich organizacji specjalistycznych, takich jak prowincjonalne stowarzyszenia zajmujące się opieką onkologiczną, aby upewnić się, czy potwierdzają one tę informację.

Abdurrahman, który jest także immunologiem klinicznym i alergologiem, ostrzega, że fałszywe reklamy , w tym obrazy generowane przez sztuczną inteligencję, mogą również wprowadzać pacjentów w błąd.

Utrata niuansów sprawia, że trudniej polegać na wynikach sztucznej inteligencji

Chociaż technologia ciągle się rozwija, dzisiejsze chatboty rutynowo odpowiadają na pytania dotyczące zdrowia, podając fałszywe informacje, którewydają się wiarygodne .

Wjednym z badań dr Benjamin Chin-Yee, adiunkt w katedrze patologii i medycyny laboratoryjnej na Western University, wraz ze współautorami wprowadził do dużych modeli językowych AI, w tym ChatGPT, niemal 5000 streszczeń literatury medycznej i naukowej, a następnie poprosił o streszczenia.

Odkryli, że trzy czwarte wersji sztucznej inteligencji pomijało kluczowe fragmenty starannie chronionych stwierdzeń.

Na przykład artykuł w czasopiśmie naukowym może stwierdzać, że lek okazał się skuteczny tylko u określonej grupy pacjentów, podczas gdy streszczenie pomija ten kluczowy szczegół, powiedziała Chin-Yee, która jest również hematologiem.

Na zdjęciu widać ekrany wyświetlające logo DeepSeek, chińskiej firmy zajmującej się sztuczną inteligencją, która opracowuje duże modele językowe w modelu open source, oraz logo chatbota ChatGPT firmy OpenAI zajmującego się sztuczną inteligencją w Tuluzie, w południowo-zachodniej Francji, 29 stycznia 2025 r.
Technologie generatywnej sztucznej inteligencji, takie jak chatboty, opierają się na technologiach dopasowywania wzorców, które dają najbardziej prawdopodobny wynik w odpowiedzi na zadane pytanie. (Lionel Bonaventure/AFP/Getty Images)

„Istnieje obawa, że zagubienie tych szczegółowych niuansów może wprowadzić w błąd lekarzy, którzy chcą wykorzystać tę wiedzę, aby wpłynąć na swoją praktykę kliniczną”.

Chin-Yee stwierdził, że sztuczna inteligencja to dynamicznie rozwijająca się dziedzina badań naukowych, w której powstają nowe modele, bardziej zbliżone do ludzkich i przyjazne użytkownikom, ale poleganie wyłącznie na tych narzędziach może wiązać się z pewnymi niedogodnościami.

Podobnie David Chen, student medycyny z Uniwersytetu w Toronto, porównał wyniki uzyskane przez chatboty w odpowiedzi na 200 pytań o raka z forum Reddit z odpowiedziami udzielonymi przez onkologów.

„Byliśmy zaskoczeni, gdy odkryliśmy, że te chatboty były w stanie działać na poziomie kompetencji zbliżonym do kompetencji człowieka, co potwierdził nasz zespół lekarzy w zakresie jakości, empatii i czytelności” – powiedział Chen.

Jednak wyniki eksperymentów mogą nie odzwierciedlać tego, co dzieje się w realnym świecie.

„Bez nadzoru medycznego trudno w stu procentach ufać niektórym wynikom tych generatywnych technologii” – powiedział Chen, dodając, że obawy dotyczące prywatności, bezpieczeństwa i zaufania pacjentów wciąż nie zostały w pełni zbadane.

OBEJRZYJ | Naukowcy wykorzystują sztuczną inteligencję do leczenia pacjentów z problemami mózgu:
Oczekuje się, że sztuczna inteligencja zrewolucjonizuje opiekę zdrowotną. Na Wydziale Lekarskim Uniwersytetu Memorial sztuczna inteligencja jest już wykorzystywana w leczeniu pacjentów z różnymi schorzeniami mózgu. Profesor neurobiologii Michelle Ploughman oprowadziła Carolyn Stokes z CBC po swoim laboratorium w Centrum Millera i pokazała, jak sztuczna inteligencja zmienia opiekę nad pacjentem.
Nie polegaj na jednym chatbocie

Generatywne technologie sztucznej inteligencji, takie jak chatboty, opierają się na technologiach dopasowywania wzorców, które dają najbardziej prawdopodobny wynik na dane pytanie, w oparciu o informacje, na których zostały wytrenowane. Jednak w medycynie mało prawdopodobne, możliwe diagnozy również mogą mieć znaczenie i nie należy ich wykluczać.

Ponadto chatboty mogą mieć halucynacje — podawać informacje, które brzmią przekonująco, ale są nieprawdziwe, zmyślone, bezsensowne lub nieistotne.

„Opublikowano również badania sugerujące, że odsetek halucynacji u tych chatbotów może sięgać nawet 20 procent” – powiedział Chen, co może sprawiać, że wyniki są „klinicznie błędne”.

Mężczyzna w sportowej marynarce i poszetce uśmiecha się do kamery
Dr Eric Topol twierdzi, że informacje medyczne dostarczane przez chatboty nie zostały jeszcze w pełni ocenione pod kątem użyteczności publicznej. (Nicholas Barrett)

Wiosną kardiolog Eric Topol, profesor i wiceprezes wykonawczy Scripps Research w San Diego w Kalifornii, opublikował książkę Superagers: An Evidence-Based Approach to Longevity , w której przyjrzał się wpływowi sztucznej inteligencji na długowieczność i jakość życia.

„Jest wiele dobrych i złych anegdot” – powiedział Topol o pacjentach korzystających z chatbotów. „Nie zostało to systematycznie ocenione w sposób merytoryczny i użyteczny dla ogółu społeczeństwa”.

Topol powiedział, że radzi ludziom, aby konsultowali się z wieloma chatbotami i upewniali się, że otrzymują wiarygodne informacje. Zasugerował również, aby prosić o cytaty z literatury medycznej, zaznaczając, że czasami nie są one prawdziwe i wymagają weryfikacji.

Topol powiedział, że w idealnym świecie przeprowadzono by test odpowiedzi chatbotów od dziesiątek tysięcy osób, śledząc, jakie testy zostały przeprowadzone, jakie postawiono diagnozy i jakie były wyniki u tych, którzy korzystali ze źródeł sztucznej inteligencji, i u tych, którzy tego nie robili. Firmy technologiczne raczej nie wezmą w nim udziału, ponieważ nie każda z nich by na tym zyskała, dodał.

„To już inny świat i nie da się cofnąć czasu” – powiedział Topol o mądrym korzystaniu z narzędzi.

cbc.ca

cbc.ca

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow