Desarrollando una inteligencia artificial que "piense" como los humanos

Vea También

 

Desarrollar una inteligencia artificial que "piense" como los humanos

La creación de una IA similar a la humana es algo más que imitar el comportamiento humano: la tecnología también debe ser capaz de procesar la información, o "pensar", como los humanos si se quiere confiar plenamente en ella.

Una nueva investigación, publicada en la revista Patterns y dirigida por la Facultad de Psicología y Neurociencia de la Universidad de Glasgow, utiliza el modelado en 3D para analizar el modo en que las redes neuronales profundas -que forman parte de la familia más amplia del aprendizaje automático- procesan la información, para visualizar cómo su procesamiento de la información se asemeja al de los humanos.

Se espera que este nuevo trabajo allane el camino para la creación de una tecnología de IA más fiable que procese la información como los humanos y cometa errores que podamos entender y predecir.

Uno de los retos a los que todavía se enfrenta el desarrollo de la IA es cómo entender mejor el proceso de pensamiento de las máquinas y si se corresponde con la forma en que los humanos procesan la información, para garantizar la precisión. Las redes neuronales profundas se presentan a menudo como el mejor modelo actual del comportamiento humano en la toma de decisiones, alcanzando o incluso superando el rendimiento humano en algunas tareas. Sin embargo, incluso las tareas de discriminación visual engañosamente simples pueden revelar claras inconsistencias y errores de los modelos de IA, cuando se comparan con los humanos.

Actualmente, la tecnología de redes neuronales profundas se utiliza en aplicaciones como el reconocimiento de rostros, y aunque tiene mucho éxito en estas áreas, los científicos aún no comprenden del todo cómo estas redes procesan la información y, por tanto, cuándo pueden producirse errores.

En este nuevo estudio, el equipo de investigación abordó este problema modelando el estímulo visual que se le dio a la Red Neural Profunda, transformándolo de múltiples maneras para poder demostrar una similitud de reconocimiento, mediante el procesamiento de información similar entre los humanos y el modelo de IA.

El profesor Philippe Schyns, autor principal del estudio y director del Instituto de Neurociencia y Tecnología de la Universidad de Glasgow, afirmó: "Cuando se construyen modelos de IA que se comportan "como" los humanos, por ejemplo para reconocer la cara de una persona cada vez que la ven como lo haría un humano, tenemos que asegurarnos de que el modelo de IA utiliza la misma información de la cara que haría otro humano para reconocerla. Si la IA no hace esto, podríamos tener la ilusión de que el sistema funciona igual que los humanos, pero luego descubrir que se equivoca en algunas circunstancias nuevas o no probadas".

Los investigadores utilizaron una serie de rostros modificables en 3D y pidieron a los humanos que calificaran la similitud de estos rostros generados aleatoriamente con cuatro identidades conocidas. A continuación, utilizaron esta información para comprobar si las redes neuronales profundas realizaban las mismas valoraciones por los mismos motivos, probando no solo si los humanos y la IA tomaban las mismas decisiones, sino también si se basaban en la misma información. Es importante destacar que, con su enfoque, los investigadores pueden visualizar estos resultados como las caras 3D que impulsan el comportamiento de los humanos y las redes. Por ejemplo, una red que clasificó correctamente 2.000 identidades fue impulsada por una cara muy caricaturizada, lo que demuestra que identificó las caras procesando información facial muy diferente a la de los humanos.

Los investigadores esperan que este trabajo allane el camino hacia una tecnología de IA más fiable que se comporte más como los humanos y cometa menos errores imprevisibles.

Fuentes, créditos y referencias:

“Grounding deep neural network predictions of human categorization behavior in understandable functional features: The case of face identity” by Christoph Daube, Tian Xu, Jiayu Zhan, Andrew Webb, Robin A.A. Ince, Oliver G.B. Garrod and Philippe G. Schyns, 10 September 2021, Patterns.
DOI: 10.1016/j.patter.2021.100348

Artículo Anterior Artículo Siguiente

Anuncio publicitario

Reciba actualizaciones por Telegram