Seleccione idioma

Spanish

Down Icon

Seleccione país

England

Down Icon

Hable con profesionales médicos, no solo con ChatGPT, instan los médicos de Ontario

Hable con profesionales médicos, no solo con ChatGPT, instan los médicos de Ontario

ChatGPT y herramientas de inteligencia artificial similares a veces pueden responder con precisión las preguntas de los pacientes, pero los investigadores médicos canadienses advierten que la información debe verificarse cuidadosamente antes de actuar en función de lo que se ve.

El consejo de los investigadores llega mientras la Asociación Médica de Ontario (OMA) organizaba una conferencia de prensa esta semana, en la que se debatían fuentes de información caseras (desde motores de búsqueda hasta redes sociales y chatbots) y sus impactos, así como lo que los pacientes pueden hacer en su lugar.

Es importante advertir a la gente ahora, dijo la Dra. Valerie Primeau, psiquiatra de North Bay que dirige programas comunitarios y para pacientes hospitalizados sobre salud mental y adicciones, porque los pacientes recurren cada vez más a las herramientas de inteligencia artificial.

Los chatbots dan resultados convincentes y empáticos , pero la información puede ser falsa .

"Tengo pacientes que acuden a ChatGPT para obtener consejos y conversar", dijo Primeau. "Por lo tanto, preveo que este problema seguirá presente, y si no lo abordamos ahora y ayudamos a las personas a afrontarlo , tendrán dificultades".

El Dr. David D'Souza, oncólogo radioterapeuta en London, Ontario, que dirige la investigación clínica sobre tratamientos para el cáncer basados en imágenes, dijo que dependiendo de cómo los pacientes interrumpan lo que la IA les dice, podrían posponer los tratamientos convencionales.

"Un paciente me preguntó si debía esperar unos años para recibir tratamiento para el cáncer que le diagnosticaron, ya que cree que la IA personalizará los tratamientos oncológicos para cada paciente", declaró D'Souza a la prensa. "Tuve que convencerlo de por qué debía recibir tratamiento ahora".

Mujer sonriente
La Dra. Zainab Abdurrahman sugiere que los pacientes comparen las respuestas del chatbot con lo que dicen los sitios web de organizaciones médicas profesionales. (Tiffany Mongu/CBC)

Dado que los consumidores utilizarán las herramientas, la presidenta de la OMA, Dra. Zainab Abdurrahman, aconsejó que si una publicación dice "los médicos te han estado ocultando esto", consulte los sitios web de grupos especializados relevantes, como las asociaciones provinciales de atención oncológica, para ver si lo respaldan.

Los anuncios falsos , incluidas las imágenes generadas por IA, también pueden desviar a los pacientes, advirtió Abdurrahman, quien también es inmunólogo clínico y alergista.

La pérdida de matices hace que sea más difícil confiar en los resultados de la IA

Si bien la tecnología avanza, los chatbots actuales responden rutinariamente a consultas de salud con información falsa queparece autorizada .

Enun estudio , el Dr. Benjamin Chin-Yee, profesor adjunto del departamento de patología y medicina de laboratorio de la Western University y sus coautores introdujeron casi 5.000 resúmenes de literatura médica y científica en modelos de lenguaje grande de IA, incluido ChatGPT, y solicitaron resúmenes.

Descubrieron que tres cuartas partes de las versiones de IA pasaban por alto partes clave de declaraciones cuidadosamente guardadas.

Por ejemplo, el artículo de la revista podría decir que un medicamento sólo fue efectivo en un determinado grupo de pacientes, mientras que el resumen omite ese detalle clave, dijo Chin-Yee, quien también es hematólogo.

Una fotografía muestra pantallas que muestran el logotipo de DeepSeek, una empresa china de inteligencia artificial que desarrolla modelos de lenguaje grandes de código abierto, y el logotipo del chatbot de inteligencia artificial ChatGPT de OpenAI en Toulouse, suroeste de Francia, el 29 de enero de 2025.
Las tecnologías de IA generativa, como los chatbots, se basan en tecnologías de coincidencia de patrones que ofrecen el resultado más probable para una pregunta determinada. (Lionel Bonaventure/AFP/Getty Images)

La preocupación es que, cuando se pierde ese matiz en los detalles, puede resultar engañoso para los profesionales que intentan utilizar ese conocimiento para influir en su práctica clínica.

Chin-Yee dijo que la IA es un área activa de investigación que está cambiando rápidamente, con modelos más nuevos que son más parecidos a los humanos y fáciles de usar, pero puede haber desventajas al confiar solo en las herramientas.

De manera similar, David Chen, estudiante de medicina de la Universidad de Toronto, comparó los resultados proporcionados por los chatbots a 200 preguntas sobre el cáncer de un foro de Reddit con las respuestas proporcionadas por oncólogos.

"Nos sorprendió descubrir que estos chatbots podían alcanzar niveles de competencia casi humanos, según la evaluación de calidad, empatía y legibilidad de nuestro equipo médico", afirmó Chen.

Pero los resultados experimentales pueden no reflejar lo que sucede en el mundo real.

"Sin supervisión médica, es difícil confiar al 100 por ciento en algunos de estos resultados de estas tecnologías generativas", dijo Chen, y agregó que las preocupaciones sobre la privacidad, la seguridad y la confianza del paciente aún no se han explorado por completo.

VER | Investigadores utilizan IA para ayudar a tratar a pacientes con problemas cerebrales:
Se espera que la inteligencia artificial revolucione la atención médica. Y en la Facultad de Medicina de la Universidad Memorial, la IA ya se utiliza en el tratamiento de pacientes con diversas afecciones cerebrales. La profesora de neurociencia Michelle Ploughman mostró a Carolyn Stokes, del CBC, su laboratorio en el Centro Miller y demostró cómo la IA está transformando la atención al paciente.
No confíes en un solo chatbot

Las tecnologías de IA generativa, como los chatbots, se basan en técnicas de coincidencia de patrones que ofrecen el resultado más probable a una pregunta dada, según la información con la que fueron entrenados. Sin embargo, en medicina, los diagnósticos improbables también pueden ser importantes y no deben descartarse.

Además, los chatbots pueden alucinar : producir resultados que suenan convincentes pero que son incorrectos, inventados, sin sentido o irrelevantes.

"También se han publicado estudios que sugieren que estos chatbots tienen tasas de alucinaciones de más del 20 por ciento", dijo Chen, lo que podría hacer que los resultados sean clínicamente erróneos.

Un hombre con chaqueta deportiva y pañuelo de bolsillo sonríe a la cámara.
La información médica proporcionada por los chatbots no se ha evaluado completamente para uso público, afirma el Dr. Eric Topol. (Nicholas Barrett)

En la primavera, el cardiólogo Eric Topol, profesor y vicepresidente ejecutivo de Scripps Research en San Diego, California, publicó un libro, Superagers: An Evidence-Based Approach to Longevity , que analizó el impacto de la IA en la longevidad y la calidad de vida.

"Hay muchas anécdotas buenas y malas", dijo Topol sobre los pacientes que usan chatbots. "No se ha evaluado sistemáticamente de forma significativa para su uso público".

Topol aconsejó consultar varios chatbots y verificar la fiabilidad de la información. También sugirió solicitar referencias de la literatura médica, señalando que a veces no son reales y deben verificarse.

Idealmente, Topol afirmó que se realizaría una prueba real de las respuestas de los chatbots de decenas de miles de personas, rastreando las pruebas realizadas, los diagnósticos recibidos y los resultados de quienes usaron IA y quienes no. Sin embargo, es improbable que las empresas tecnológicas participen porque ninguna de ellas se beneficiaría, afirmó.

"Es un mundo diferente ahora y no se puede volver atrás en el tiempo", dijo Topol sobre el uso inteligente de las herramientas.

cbc.ca

cbc.ca

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow