Dil Seçin

Turkish

Down Icon

Ülke Seçin

England

Down Icon

Ontario doktorları, yalnızca ChatGPT ile değil, tıp uzmanlarıyla da görüşmelerini tavsiye ediyor

Ontario doktorları, yalnızca ChatGPT ile değil, tıp uzmanlarıyla da görüşmelerini tavsiye ediyor

ChatGPT ve benzeri yapay zeka araçları bazen hastaların sorularını doğru bir şekilde yanıtlayabiliyor, ancak Kanadalı tıp araştırmacıları, gördüklerinize göre hareket etmeden önce bilgilerin dikkatlice kontrol edilmesi gerektiği konusunda uyarıyor.

Araştırmacıların tavsiyesi, Ontario Tabipler Birliği'nin (OMA) bu hafta düzenlediği medya brifinginde geldi. Toplantıda, arama motorlarından sosyal medyaya, sohbet robotlarına kadar kendin yap bilgi kaynakları ve bunların etkileri ile hastaların bunun yerine neler yapabileceği tartışıldı.

North Bay'de ruh sağlığı ve bağımlılıklar konusunda yatılı ve toplum programlarına liderlik eden psikiyatrist Dr. Valerie Primeau, hastaların giderek daha fazla yapay zeka araçlarına yöneldiğini, bu nedenle insanları şimdi uyarmanın önemli olduğunu söyledi.

Sohbet robotları ikna edici ve empatik sonuçlar veriyor; ancak bilgiler sahte olabilir .

Primeau, "Şu anda tavsiye almak ve sohbet etmek için ChatGPT ile konuşan hastalarım var," dedi. "Bu nedenle, bu sorunla karşılaşmaya devam edeceğimizi öngörüyorum ve eğer şimdi bu sorunu ele alıp insanların bu süreçte ilerlemesine yardımcı olmazsak, zorlanacaklar."

Londra, Ontario'da görüntü tabanlı kanser tedavileri üzerine klinik araştırmalar yürüten radyasyon onkoloğu Dr. David D'Souza, hastaların yapay zekanın kendilerine söylediklerini nasıl kesintiye uğrattıklarına bağlı olarak geleneksel tedavileri erteleyebileceklerini söyledi.

D'Souza gazetecilere, "Bir hastam, birkaç yıl içinde teşhis edilen kanserinin tedavisi için beklemesi gerekip gerekmediğini sordu. Çünkü yapay zekanın hastalar için kanser tedavilerini özelleştireceğine inanıyordu," dedi. "Onu neden şimdi tedavi olması gerektiğine ikna etmem gerekti."

Gülümseyen kadın
Dr. Zainab Abdurrahman, hastaların chatbot yanıtlarını profesyonel tıbbi kuruluşların web sitelerinde belirtilenlerle karşılaştırmalarını öneriyor. (Tiffany Mongu/CBC)

Tüketicilerin araçları kullanacağını göz önünde bulundurarak, OMA Başkanı Dr. Zainab Abdurrahman, eğer bir gönderide "doktorlar bunu sizden saklıyor" yazıyorsa, ilgili uzman grupların, örneğin il kanser bakım derneklerinin web sitelerini kontrol edip bu bilgiyi destekleyip desteklemediklerini kontrol etmenizi öneriyor.

Aynı zamanda klinik immünolog ve alerji uzmanı olan Abdurrahman, yapay zeka tarafından oluşturulan görseller de dahil olmak üzere sahte reklamların hastaları yanlış yönlendirebileceği konusunda uyardı.

Kayıp nüans, yapay zeka sonuçlarına güvenmeyi zorlaştırıyor

Teknolojinin gelişmesine rağmen günümüzün sohbet robotları sağlık sorularına,yetkili gibi görünen yanlış bilgilerle rutin olarak yanıt veriyor.

Bir çalışmada , Western Üniversitesi'nde patoloji ve laboratuvar tıbbı bölümünde yardımcı doçent olan Dr. Benjamin Chin-Yee ve ortak yazarları, ChatGPT de dahil olmak üzere yapay zekanın büyük dil modellerine yaklaşık 5.000 tıbbi ve bilimsel literatür özeti girdiler ve özetler istediler.

Yapay zeka versiyonlarının dörtte üçünün dikkatlice korunan ifadelerin önemli kısımlarını atladığını buldular.

Hematolog olan Chin-Yee, örneğin dergi makalesinde bir ilacın sadece belirli bir hasta grubunda etkili olduğu söylenirken, özetin bu önemli ayrıntıyı atlayabileceğini söyledi.

29 Ocak 2025'te Fransa'nın güneybatısındaki Toulouse'da çekilen fotoğrafta, açık kaynaklı büyük dil modelleri geliştiren Çinli bir yapay zeka şirketi olan DeepSeek'in logosu ve OpenAI'nin yapay zeka sohbet robotu ChatGPT'nin logosu yer alıyor.
Sohbet robotları gibi üretken yapay zeka teknolojileri, belirli bir soruya en olası çıktıyı veren desen eşleştirme teknolojilerine dayanmaktadır. (Lionel Bonaventure/AFP/Getty Images)

"Endişe şu ki, ayrıntılardaki bu nüans kaybolduğunda, bu bilgiyi klinik uygulamalarını etkilemek için kullanmaya çalışan uygulayıcılar için yanıltıcı olabilir."

Chin-Yee, yapay zekanın hızla değişen, daha insan benzeri ve kullanıcı dostu yeni modellerle aktif bir araştırma alanı olduğunu, ancak yalnızca araçlara güvenmenin dezavantajları olabileceğini söyledi.

Benzer şekilde, Toronto Üniversitesi'nde tıp öğrencisi olan David Chen, Reddit forumunda kanserle ilgili sorulan 200 soruya, chatbot'ların sağladığı sonuçlarla onkologların verdiği yanıtları karşılaştırdı .

Chen, "Doktor ekibimizin kalite, empati ve okunabilirlik değerlendirmelerine dayanarak, bu sohbet robotlarının neredeyse insan uzman seviyesinde yetkinlik gösterebildiğini gördüğümüzde şaşırdık" dedi.

Ancak deneysel sonuçlar gerçek dünyada olanları yansıtmayabilir .

Chen, "Tıbbi gözetim olmadan, bu üretken teknolojilerin bazı çıktılarına yüzde 100 güvenmek zor" dedi ve gizlilik, güvenlik ve hasta güveni konusundaki endişelerin henüz tam olarak araştırılmadığını ekledi.

İZLE | Araştırmacılar beyin hastalarının tedavisinde yapay zekayı kullanıyor:
Yapay zekânın sağlık hizmetlerinde devrim yaratması bekleniyor. Memorial Üniversitesi Tıp Fakültesi'nde ise yapay zekâ, çeşitli beyin rahatsızlıkları olan hastaların tedavisinde halihazırda kullanılıyor. Nörobilim profesörü Michelle Ploughman, CBC'den Carolyn Stokes'a Miller Merkezi'ndeki laboratuvarını gezdirdi ve yapay zekânın hasta bakımını nasıl değiştirdiğini gösterdi.
Tek bir sohbet robotuna güvenmeyin

Sohbet robotları gibi üretken yapay zeka teknolojileri, eğitildiği bilgilere dayanarak belirli bir soruya en olası sonucu veren desen eşleştirme teknolojilerine dayanır. Ancak tıpta, olası olmayan teşhisler de önemli olabilir ve göz ardı edilmemelidir.

Ayrıca, sohbet robotları halüsinasyon görebilir; ikna edici görünen ancak yanlış, uydurma, saçma veya alakasız çıktılar üretebilirler.

Chen, "Ayrıca, bu sohbet robotlarının halüsinasyon oranlarının yüzde 20'ye kadar çıkabileceğini öne süren araştırmalar da yapıldı," dedi ve bu da çıktının "klinik olarak hatalı" olabileceğini belirtti.

Spor ceket ve mendil giyen bir adam kameraya gülümsüyor
Dr. Eric Topol, sohbet robotlarının sağladığı tıbbi bilgilerin henüz kamu kullanımına sunulmak üzere tam olarak değerlendirilmediğini söylüyor. (Nicholas Barrett)

İlkbaharda, Kaliforniya, San Diego'daki Scripps Araştırma'da profesör ve başkan yardımcısı olan kardiyolog Eric Topol, yapay zekanın uzun ömür ve yaşam kalitesi üzerindeki etkisini inceleyen Superagers: An Evidence-Based Approach to Longevity adlı bir kitap yayınladı.

Topol, hastaların sohbet robotlarını kullanmasıyla ilgili olarak, "Birçok iyi anekdot var, kötü anekdotlar da var," dedi. "Bu durum, kamuoyunun kullanımına yönelik anlamlı bir şekilde sistematik olarak değerlendirilmedi."

Topol, insanlara birden fazla sohbet robotuna danışmalarını ve güvenilir bilgi aldıklarından emin olmalarını tavsiye etti. Ayrıca, tıbbi literatürden alıntılar istemeyi önerdi; ancak bunların bazen gerçek olmadığını ve doğrulanması gerektiğini de ekledi.

Topol, ideal olarak on binlerce kişinin katıldığı bir sohbet robotu yanıtlarının gerçek dünyada test edileceğini, hangi testlerin yapıldığını, hangi teşhislerin konulduğunu ve yapay zeka kaynaklarını kullananlar ve kullanmayanlar için sonuçların izleneceğini söyledi. Ancak teknoloji şirketlerinin katılmasının pek olası olmadığını, çünkü her birinin bundan kazançlı çıkmayacağını belirtti.

Topol, araçları akıllıca kullanma konusunda, "Artık dünya farklı ve zamanda geriye gidemezsiniz" dedi.

cbc.ca

cbc.ca

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow