Vea También
Nos reunimos con Manuel Carro pocos días después de que Elon Musk saliera a escena a presentar Grok 3, la última versión de su sistema de inteligencia artificial generativa, con este lema: “Nuestra misión es entender el universo”.
Dos cafés por la mañana, siempre a la misma hora. Un despacho luminoso en un edificio modernista a las afueras de Madrid, rodeado de un bosque de encinas. Manuel Carro dirige IMDEA Software, instituto de investigación dedicado a la informática básica. Cerca de un centenar de investigadores desarrollan en las plantas superiores los fundamentos que hacen posible que el software funcione y avance: “el software es la espina dorsal de la sociedad actual”, señala Carro. Sin matemáticas no hay código, no hay software, no hay IA, no hay móviles, ni banca, ni lavadoras. Sin software no hay Elon Musk.
En este momento de intenso interés científico, social y político en relación al desarrollo de la inteligencia artificial y la computación, Manuel Carro atiende a la entrevista sin eludir preguntas sobre la posición de Europa respecto a EE. UU. y China en la carrera tecnológica, o la guerra cibernética por el control de la información.
¿La inteligencia artificial, la de Elon Musk, o la que venga, desvelará los secretos del universo?
Pues habría que empezar hablando de Elon Musk. Yo creo que es una persona digna de estudio, porque es bastante excepcional en muchos aspectos. Esté uno de acuerdo o no con sus métodos, hay pocas personas (digamos que solo hay una persona) que hayan arrancado Tesla, SpaceX y The Boring Company, los lanzallamas Flamethrower y, antes de todo esto, PayPal, etc. Pero si uno se pone a pensar en qué significa la apuesta de Elon en la IA, evidentemente está lanzando un mensaje a Google.
¿A Google?
El lema inicial de Google era clasificar la información del mundo. Elon Musk está diciendo: “¡Qué poco ambicioso eres, Google!” No es el mundo sino el universo. No es clasificar la información, sino entenderla.
Pero ¿la IA explicará el universo?
Si eres un científico o un tecnólogo avanzado, verás el anuncio de Elon Musk y sabrás que solo es marketing. El gran problema de promesas así es que crean expectativas que llegan al gran público, no se cumplen y como efecto secundario generan desconfianza en la ciencia.
Te puedo poner un ejemplo relacionado con los modelos de aprendizaje automático. En 1958 se desarrolló la primera red neuronal, era muy sencilla. El New York Times publicó una columna diciendo que en poco tiempo sería capaz de hablar y escribir como una persona. Han pasado casi 70 años desde entonces hasta que han llegado ChatGPT y otros modelos de lenguaje que aún no se comunican como humanos, y que no sabemos si lo harán algún día.
«Es muy importante desmitificar la ciencia. No tenemos varitas mágicas».
Una empresa, como la de Elon Musk, tiene que hacer grandes promesas, buscar notoriedad, pero los que hacemos ciencia sabemos que antes de llegar a entender el universo, que no sé si ocurrirá nunca, son muchos otros los problemas reales que hay que resolver y ni siquiera sabemos si podremos resolverlos. Es muy importante desmitificar la ciencia. No tenemos varitas mágicas.
Con los mayores desarrollos en inteligencia artificial en manos de los países con más poder geopolítico y armamentístico, ¿vivimos una guerra tecnológica?
Los países vecinos siempre han estado en guerra en algún momento. Piensa en la historia de Europa. Todos hemos guerreado con todos por algún interés. Ahora las fronteras geográficas se han desdibujado. Si hablamos de comercio global, también tenemos que hablar de guerra global. El poder no solo se conquista en el ámbito geográfico, sino también en el espacio económico. Y después está el ciberespacio, porque hoy en día la información también es poder. No me refiero solo al software, me refiero al control de la información en general.
¿Por qué interesa el software?
Hoy día muchas de las decisiones que se toman, queramos o no, las toma un programa. Y a veces no se deberían tomar de esa manera, pero lo cierto es que se toman por software.
«El software, los modelos que este implementa y las decisiones que se toman son esenciales en la ‘guerra cibernética'».
El famoso algoritmo de las redes sociales es una manera muy burda de decir que hay un programa que está decidiendo qué vídeo te muestra. Hay un método de compraventa financiera, High Frequency Trading (HFT) , en el que unos programas dirigen la toma de algunas decisiones financieras, fondos de inversión, con un impacto en la bolsa mundial, y todo eso mediante software. Las predicciones económicas en cierto sentido son modelos matemáticos que luego se ejecutan y se prueban en software, en simulaciones. No solo la información manejada, sino también el software, los modelos que este implementa y las decisiones que se toman son esenciales en esa “guerra cibernética”.
Robar código de otra empresa o introducirse en los sistemas informáticos de otra organización para modificarlos, para cambiar cómo funcionan, forma parte de la guerra.
¿Es la cara b del código, sus riesgos?
Eso es algo que tiene toda la tecnología. Yo creo que casi todas las herramientas se pueden utilizar con el fin para el que fueron concebidas, al que en un principio vamos a conceder el beneficio de la duda y suponer que es bueno, pero también pueden emplearse con fines, digamos, contrarios a la sociedad o malvados. Es el ejemplo básico del cuchillo, ¿es bueno o malo un cuchillo?
¿La inteligencia artificial nos hace más vulnerables que nunca?
Yo no diría que las inteligencias artificiales hacen a priori los sistemas más inseguros. Sí es cierto que crean determinadas brechas de seguridad más accesibles. En IMDEA Software hacemos bastantes desarrollos de ciberseguridad –y, en general, de lo que se llama seguridad informática– y también de criptografía.
«La IA puede ser útil para orquestar un ataque, pero también para protegernos».
Podríamos tomar una inteligencia artificial, un modelo de lenguaje, como un buscador con esteroides, hiperdesarrollado para encontrar información. Entonces haría más fácil encontrar la “receta” para penetrar en un sistema. Pero no está inventando nada que no estuviese ahí ya. Al mismo tiempo, lo que hacemos es desarrollar con IA métodos para detectar cuando un sistema está siendo atacado, porque hay patrones reconocibles. Es decir, que puede ser útil para orquestar un ataque, pero también para protegernos.
¿El “bien” y el “mal” siguen en equilibrio?
Entre los policías y los ladrones, los ladrones siempre van un paso adelante porque no tienen que seguir la ley y los policías sí, y es así desde que hay leyes. Los criminales siempre van un poco por delante.
¿Cómo se trabaja para que el consumo energético de las máquinas no acabe con el planeta?
Se trabaja en materiales, en refrigeración, y nosotros, en hacer programas lo más eficientes posibles. Hasta ahora, lo que los programadores tenían en la cabeza eran desarrollos que fueran a la mayor rapidez posible. Pero no todo necesita ir rápido. Diseñar programas para que consuman lo menos posible o, al menos, saber cuánto van a consumir y asegurar que no van a pasar de determinada cota es bastante complicado, pero ya se tiene en cuenta.
Y, sobre todo, trabajamos para hacer código que sea correcto, fiable, o sea, que haga las cosas bien, que lo que haga sea lo que quieres que haga, que sea escalable, es decir, que pueda tratar muchos datos con recursos limitados.
Que el programa sea correcto en su funcionalidad, ¿significa que tiene que ser ético?
Correcto no significa ético. Y no digo que no haya que tener en cuenta la ética. Esta es algo transversal, no solo una cuestión informática. Es un tema preocupante al cual la informática sola no puede dar una solución.
¿En qué lugar te sitúas frente al miedo al desarrollo tecnológico y el ciberoptimismo?
Yo soy optimista. No percibo miedo a la tecnología, aunque sí cierta preocupación. Quizá una desconfianza que es razonable. Y es interesante que digas con respecto al desarrollo tecnológico, porque el desarrollo tecnológico y la ciencia van muy juntos, pero no son exactamente lo mismo.
Hoy en día, los desarrollos tecnológicos en las áreas que me son más cercanas, la IA, etcétera, ni siquiera están en manos de las universidades. No pueden competir con las empresas que han sido creadas ex profeso para ello. No pueden competir con OpenAI o con DeepMind. Por varias razones, pero entre ellas porque el objetivo final de la universidad y de la ciencia es más proporcionar saber, conocimiento, entendimiento, y no proporcionar productos finales, que es lo que hacen estas empresas.
¿Europa puede hacer frente común para ser independiente tecnológicamente de EE. UU., las grandes tecnológicas y China?
Europa ha puesto sobre la mesa distintos planes para intentar lograr una independencia. Pero yo creo que se necesitan cambios en las legislaciones para permitir dar determinados pasos fundamentales en este momento. Muchos de los planes se ven coartados porque la legislación no permite que se ejecuten con la agilidad y la flexibilidad necesaria.
«La independencia tecnológica es más preocupante que la supremacía».
Todos los científicos con los que hables y todos los tecnólogos avanzados te dirán que una cosa que hace falta en España es mayor financiación y mayor flexibilidad. También es fundamental informar claramente a la sociedad hacia dónde queremos ir. Quizá tampoco sea necesario tener supremacía tecnológica, pero sí independencia tecnológica, que me parece más preocupante que la supremacía.
Y no dejar de lado a la sociedad
Sin duda, porque posiblemente la sociedad lo que pida es más seguridad.
Tenemos que tener claro antes de empezar qué cosas son permisibles, cuáles no, y por qué no lo son. Y no estoy intentando separar la tecnología de la legislación, algo que no debería pasar. Pero lo que tampoco deberíamos asumir es que los tecnólogos puedan crear una legislación, del mismo modo que no le pides al gobierno que escriba programas.
Las empresas tienen mucha prisa por tener productos que se ponen a disposición de todo el mundo antes de que pueda haber una legislación. Estas son las tensiones, un dilema no resuelto, y no sé si alguien sabe cómo resolverlo.
Pero, Manuel, ¿tú duermes tranquilo?
Oh, sí, yo duermo tranquilo.
