Humanos versus máquinas: cómo la IA ve nuestro mundo


La forma supera al contenido: cuando la IA evalúa objetos, presta atención a la apariencia, mientras que los humanos se centran más en el significado. / © Adobe Stock/metamorworks
Actualmente, utilizamos numerosas herramientas de IA en nuestra vida cotidiana, desde el reconocimiento de imágenes hasta el procesamiento del habla. Pero ¿ve la inteligencia artificial el mundo con los mismos ojos que nosotros? Investigadores del Instituto Max Planck y la Universidad Justus Liebig de Giessen investigaron esta cuestión. Querían saber si la IA percibe objetos, edificios u otros seres vivos de la misma manera que los humanos, o si sus estrategias difieren. Para determinarlo, utilizaron imágenes naturales.
Los cuatro autores del estudio desarrollaron un método para identificar y comparar diversas dimensiones clave a las que los humanos y la IA prestan atención al reconocer objetos. Estas dimensiones representan diversas propiedades de los objetos, desde aspectos puramente visuales como "redondo" o "blanco" hasta propiedades semánticas como "relacionado con animales" o "relacionado con el fuego". Algunas combinan elementos visuales y semánticos.
El análisis se basó en 5 millones de juicios humanos y un modelo de red neuronal profunda (DNN) de casi 2000 imágenes de objetos, y reveló claras diferencias, que el equipo de científicos ha publicado en la revista "Nature Machine Intelligence". Mientras que los humanos prestan atención principalmente al significado de un objeto, preguntándose "¿qué sé de él?", la IA se centra más en características externas como la forma y el color.
Este sesgo visual hace que la IA obtenga resultados similares, pero a menudo se equivoque al examinarlos más de cerca. Por ejemplo, en una "dimensión relacionada con animales", la IA excluyó muchas imágenes de animales e incluyó algunas que no mostraban ningún animal. Estas imágenes solo mostraban imágenes de la naturaleza, jaulas o barrotes. Esto demuestra que lo similar no es lo mismo. Y los resultados similares a veces se basan en caminos completamente diferentes que los llevaron a ellos.
A pesar de una toma de decisiones parcialmente similar, los humanos y la IA parecen adoptar estrategias de pensamiento diferentes. Según los investigadores, esto plantea interrogantes sobre la fiabilidad y la confianza de los sistemas de IA.
Por lo tanto, el estudio proporciona no solo información sobre la mentalidad de los sistemas artificiales, sino también comparaciones con enfoques humanos. Esto resulta valioso para la investigación en áreas como la neurociencia cognitiva computacional. Según el Instituto Max Planck, esto no solo permite una mejor comprensión de cómo la IA procesa la información, sino que también proporciona información sobre la cognición humana y el diseño de sistemas de IA seguros y fiables.

pharmazeutische-zeitung