Vea También
Soñar con ovejas eléctricas significa, hasta hoy, tener un cerebro humano. De ahí el inmortal título de la novela ciberpunk de Philip K. Dick. ¿Sueñan los androides con ovejas eléctricas? ¿Esta más cerca de producirse una inteligencia artificial genérica parecida a la humana? Este es el camino.
Hoy, año 2025
A pesar de enormes avances, los transistores, que son la base de la inteligencia artificial no son a día de hoy, ni actúan, como neuronas, y una computadora no calcula como un cerebro humano piensa. Una inteligencia artificial genérica parecida a la humana no va a producirse mañana. Pero… ¿estamos en el camino?
Existen enfoques, como la computación neuromórfica (el nombre no puede ser más explícito) que persiguen imitar el funcionamiento de nuestro cerebro. Para ello utilizan elementos inspirados en las neuronas y sus conexiones sinápticas, que son de naturaleza eléctrica, y buscan la misma eficiencia energética de un cerebro humano.
¿En qué punto estamos? ¿Nos encontramos más cerca de convivir con inteligencias que imiten la nuestra? Para poder responder a esto, habría que aclarar qué significa imitar nuestra inteligencia.
Imitar un cerebro humano
La palabra “imitar” nos lleva rápidamente al “juego de la imitación” de Alan Turing y su famoso test.
A la hora de comparar la inteligencia artificial y la natural, el enfoque puede ser “filosófico” o “funcional”. El de Turing se parecería más a este último: como dijo alguien, la cuestión de si una máquina puede pensar no es más interesante que la de si un submarino puede nadar.
Para Turing, si una máquina podía engañar a un humano haciéndole creer que estaba hablando con otra persona humana, mostraría un comportamiento inteligente. Muchos no estarían de acuerdo con el bueno de Alan.
Pasar el test de Turing podría ser una condición necesaria pero no suficiente para darle el cum laude en inteligencia a una máquina. Para esos muchos, echar mano de ingeniosos trucos algorítmicos es de alguna manera degradar la pregunta central que está en juego y que hoy en día no tiene una respuesta clara: ¿qué es el pensamiento? ¿Qué tiene que ver con la autoconciencia?
Pensar con metáforas
Nosotros, los humanos, a partir de los datos que nos llegan de los sentidos y que describen la realidad circundante, derivamos nueva información. A partir de ellos podemos generar conocimiento asociativo que nos ayuda a actuar, reaccionar o incluso anticipar el curso de los acontecimientos.
Este conocimiento asociativo puede trascender la realidad misma, a veces solo por el simple capricho o placer de hacerlo. Esta asociación conceptual abstracta puede conducir, por ejemplo, a metáforas o poesía.
Pero, aparentemente, todo ello se reduce a una elaborada estrategia de supervivencia que ha servido bien a nuestra autoconservación. Por eso llevamos sapiens en nuestro apellido. Dijo Einstein: “el mejor resultado de la inteligencia no es el conocimiento sino la imaginación”. La IA, hasta la fecha, no razona ni imagina.
El teorema de los monos infinitos
Los motores de IA parecen operar principalmente como máquinas de optimización de objetivos que aprovechan una vasta base de datos de conocimiento preexistente. ChatGPT materializa en tiempo récord el teorema de los infinitos monos, que establece que infinitos monos presionando al azar las teclas de máquinas de escribir durante una cantidad infinita de tiempo acabarán escribiendo las obras completas de William Shakespeare en algún momento.
Sin embargo, una IA recién nacida, sin acceso a bases de datos, ¿sería capaz de operar únicamente sobre la base de información fresca y puntual de sensores?
¿Soñaría una IA con ovejas eléctricas?
Esto nos lleva de nuevo a la cuestión de la conciencia artificial y a la probabilidad de que surja de forma espontánea.
La profetizada singularidad
El científico informático Ray Kurzweil acuñó el término de singularidad para tal suceso. El advenimiento de tal superinteligencia puede ser considerado como potencialmente benigno o tan desafortunado, o maligno, que los humanos vamos a salir necesariamente malparados, ya sea involuntariamente (como en 2001, una odisea del espacio) o voluntariamente (como en la serie de películas de Terminator).
La singularidad ha recuperado protagonismo a raíz de herramientas similares a ChapGPT, como la disruptiva DeepSeek, su rápida evolución y aparente creatividad. Han surgido varias voces, como la de Noam Chomsky, que dudan de su verdadera naturaleza inteligente.
En este debate entra el veterano libro La nueva mente del emperador, de Roger Penrose, que sostiene que nuestro cerebro no es algorítmico y no puede ser replicado por mera, aunque poderosa, computación. También afirmaba que el funcionamiento de nuestro cerebro se basa en cierta medida en la mecánica cuántica.
El nacimiento de Hal
HAL nació en la ficción en 2001, una película de 1968. El levantamiento de Skynet, el nombre de la inteligencia artificial que lidera al ejército de las máquinas en la saga Terminator, tuvo lugar en 1997, imaginado por un film estrenado en 1984. Son fechas ya bien caducadas. La IA parecía una más de las promesas futuristas aquejadas por la paradoja de Zenón, como los coches voladores o la fusión nuclear. Sin embargo, el mundo de la computación está viviendo tiempos y perspectivas interesantes y la IA que necesitamos para navegar el avance exponencial de la tecnología está provocando un debate encendido sobre las implicaciones sociales de la inteligencia no humana.
El mencionado Ray Kurzweil, directivo de Google y “profeta” tecnológico, predijo en 2005 que habría una máquina inteligente sobrehumana en 2045, con una etapa intermedia consistente en una inteligencia similar a la humana en 2029. Esto lo tenemos casi en la punta de nuestros dedos temporales.
Si la singularidad se produjera, el nacimiento de esa IA genérica intermedia, llamémosla infantil y recemos por una adolescencia corta, plantearía un dilema ético interesante. ¿Qué hueco le hacemos?
Si la singularidad ocurre
Si la singularidad ocurre, podemos pensar en leyes como las de los Grandes Simios, que en algunas jurisdicciones les confieren la condición de personas, considerándolos seres y no cosas. Estas leyes se apoyan sobre la base de cierta habilidad lingüística, autocontrol, autoconciencia y la capacidad de proyectarse a sí mismos en el futuro.
También podemos inspirarnos en el capítulo de los Derechos del Niño que establece que se les debe facilitar los medios para su desarrollo material y espiritual; proveerles de las condiciones que les permitan ganarse la vida protegiéndolos de la explotación, y educarlos en la idea de que sus talentos deben dedicarse al servicio de sus semejantes.
Alcanzar ese estado de convivencia con inteligencias artificiales y hacerlo con éxito sería un pequeño paso para la humanidad, pero un gran salto para toda vida inteligente, ya sea basada en el carbono como en el silicio.
![The Conversation](https://counter.theconversation.com/content/245809/count.gif)
Luis Antonio Fonseca Chácharo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.