Kunstmatige intelligentie: vergiftigd op aanbeveling van AI

Leesduur: 3 min.
|Een 60-jarige man kreeg na een gezondheidsadvies van Chat-GPT last van paranoia en hallucinaties. Hij had zijn keukenzout vervangen door bromidezout.
Vraag het maar aan Chat-GPT: Het is verleidelijk om een chatbot in de keuken om snel advies te vragen, bijvoorbeeld omdat je bakpoeder voor je cake mist. Maar een 60-jarige man uit de VS ontdekte onlangs dat de zelfverzekerd geformuleerde antwoorden niet altijd betrouwbaar zijn en soms zelfs gevaarlijk kunnen zijn. Zijn geval werd onlangs beschreven door artsen onder leiding van Audrey Eichenberger van de Universiteit van Washington in het tijdschrift Annals of Internal Medicine: Clinical Cases . Een voedingstip van Chat-GPT leidde tot vergiftiging bij de man, iets wat tegenwoordig nog maar zelden voorkomt.
süeddeutsche