Yapay Zeka: Yapay Zeka'nın tavsiyesiyle zehirlendi

Okuma süresi: 3 dk.
|60 yaşındaki bir adamın Chat-GPT'den aldığı sağlık tavsiyeleri paranoya ve halüsinasyonlara yol açtı. Sofra tuzunu bromür tuzuyla değiştirmişti.
Chat-GPT'ye sorun: Belki de kekiniz için kabartma tozu eksik olduğu için mutfaktaki bir sohbet robotundan hızlıca tavsiye istemek cazip gelebilir. Ancak ABD'li 60 yaşındaki bir adam, robotun kendinden emin bir şekilde verdiği cevapların her zaman güvenilir olmadığını ve hatta bazen tehlikeli olabileceğini yakın zamanda keşfetti. Vakası, Washington Üniversitesi'nden Audrey Eichenberger liderliğindeki doktorlar tarafından Annals of Internal Medicine: Clinical Cases dergisinde yakın zamanda açıklandı. Chat-GPT'den gelen bir beslenme önerisi, adamın zehirlenmesine yol açtı ve bu durum günümüzde nadiren görülüyor.
süeddeutsche