Używasz ChatGPT do odpowiadania na pytania medyczne? Dlaczego to jeszcze nie jest dobry pomysł?
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2024%252F09%252FANP-473901592.jpg&w=1280&q=100)
Czy ChatGPT to nasz lekarz rodzinny przyszłości? To pytanie pojawia się coraz częściej w ostatnich latach. Jednak sytuacja w Stanach Zjednoczonych pokazuje, że ChatGPT nie zawsze jest w tym obszarze najlepszym sprzymierzeńcem. U mężczyzny rozwinęła się rzadka choroba, po tym jak bot oparty na sztucznej inteligencji doradził mu, jak wyeliminować sól z diety.
W 2023 roku medyczny chatbot Google, oparty na sztucznej inteligencji, zdał wymagający egzamin medyczny w USA. Badacze Google zlecili programowi przeprowadzenie testu wielokrotnego wyboru USMLE. Med-PaLM uzyskał wynik 67,6%, co oznaczało zaliczenie programu. „Med-PaLM działa obiecująco, ale nadal ustępuje lekarzom” – napisali wówczas autorzy.
W „Annals of Internal Medicine” , amerykańskim czasopiśmie medycznym, opisano przypadek, w którym zastosowanie ChatGPT jako środka wspomagającego leczenie doprowadziło do rzadkiej choroby. 60-letni mężczyzna przeczytał o negatywnym wpływie soli kuchennej (chlorku sodu) i zapytał bota AI, jak wyeliminować ją z diety. ChatGPT zasugerował wówczas, że chlorek można zastąpić bromkiem sodu, który był nadal stosowany jako środek uspokajający na początku XX wieku.
Po trzech miesiącach zażywania bromku sodu mężczyzna udał się na pogotowie. Tam twierdził, że sąsiad go otruł. Objawy obejmowały silne pragnienie, bezsenność i trądzik. Później okazało się, że winowajcą był bromek sodu. W rezultacie u mężczyzny rozwinął się bromizm, znany również jako zatrucie bromkiem.
„Ten przypadek pokazuje, jak wykorzystanie sztucznej inteligencji (AI) może potencjalnie przyczynić się do rozwoju możliwych do uniknięcia negatywnych skutków zdrowotnych” – piszą autorzy, związani z Uniwersytetem Waszyngtońskim. Chociaż nie mieli dostępu do czatu mężczyzny, na pytanie, czym można zastąpić chlorek, otrzymali również odpowiedź, w której wspomniano o bromku. „Chociaż w odpowiedzi zaznaczono, że kontekst ma znaczenie, nie podano konkretnego ostrzeżenia zdrowotnego ani nie zapytano, dlaczego chcemy się tego dowiedzieć, jak zakładaliśmy, że zrobiłby to lekarz”.
Argumentują, że należy pamiętać, iż ChatGPT i inne systemy sztucznej inteligencji „mogą generować nieścisłości naukowe, nie potrafią krytycznie omawiać wyników i ostatecznie napędzać rozprzestrzenianie się dezinformacji”. Autorzy postrzegają ChatGPT jako „narzędzie o ogromnym potencjale, które może zniwelować różnice między naukowcami a osobami spoza środowiska akademickiego”, ale zwracają uwagę na ryzyko wyrwania informacji z kontekstu. Jest „wysoce mało prawdopodobne”, aby ekspert medyczny wspomniał w tym przypadku o bromku sodu. „Pracownicy służby zdrowia powinni zwracać uwagę na to, skąd ich pacjenci uzyskują dostęp do informacji medycznych”.
Czatowanie z ChatGPT wiąże się z innymi zagrożeniami. Na przykład, niektórzy użytkownicy korzystają z bota jako osobistego terapeuty. Sztuczna inteligencja reaguje z dużą empatią, więc nie jest to zaskakujące, ale u osób z prawdziwymi problemami może to prowadzić do pogorszenia zdrowia psychicznego . Na przykład, pewien mężczyzna stracił pracę, popadł w depresję i zapytał ChatGPT o najwyższe mosty w Nowym Jorku. Zwykły terapeuta natychmiast interweniowałby; ChatGPT dostarcza przejrzystą listę.
Nawet pytania o seks wydają się ryzykowne . Brytyjskie badania pokazują, że wielu młodych ludzi korzysta z ChatGPT jako formy edukacji seksualnej. Jednak zdaniem ekspertów, trudno jest ustalić, skąd pochodzą odpowiedzi udzielane przez ChatGPT. Oznacza to, że bot może udzielić nieprawidłowej odpowiedzi lub zasugerować coś zupełnie niepożądanego.
Sinice i bakterie: coraz więcej miejsc do pływania o złej jakości wody
Metro Holland