Menú
Santiago Navajas

Turing, Heidegger, Google y un robot metafísico

¿Por qué querríamos diseñar, construir, en suma, crear máquinas con conciencia? Como nos

¿Por qué querríamos diseñar, construir, en suma, crear máquinas con conciencia? Como nos
Unsplash

¿Por qué querríamos diseñar, construir, en suma, crear máquinas con conciencia? Como nos ha enseñado la historia de la tecnología desde los griegos la pregunta no tiene mucho sentido porque al menos en Occidente los inventos se realizan como un fin en sí mismo. Si se puede hacer, se hará. Ahora bien, ¿es una buena idea? El poeta californiano Richard Brautigan pensaba que sí e imaginaba una utopía sapiens-cibernética en su poema "Todos cuidados por máquinas de amorosa gracia":

Me gusta pensar (¡y
mientras más pronto mejor!)
en un prado cibernético
donde mamíferos y robots
viven juntos programando
en armonía recíproca
como un cielo limpio
que toca el agua pura.

Pero ¿qué pasará si los robots terminan viéndonos más bien como nosotros miramos a los chimpancés, no precisamente como el cielo limpio contempla al agua pura? Asimov pensaba que las Leyes de la Robótica, que él mismo estableció, impedirían que los robots dañasen a los humanos, además de incapacitarlos para la tiranía, la corrupción, la estupidez y el prejuicio. Aunque, paradójicamente, el mismo Asimov creó robots que asesinaban humanos y se dejaban llevar por sus propios sueños narcisistas y megalomaníacos para convertirse en nuevos Ozymandias de circuitos integrados.

De vez en cuando se anuncia estentóreamente que un modelo de inteligencia artificial ha superado el test de Turing. La última sacudida se ha producido cuando un ingeniero informático de Google, ex militar y ex pastor evangélico, ha confesado que ha mantenido conversaciones metafísicas con LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo), el chat-robot de Google Duplex que trata de hacer realidad el sueño de crear una máquina inteligente y con conciencia al estilo de HAL 9000 en 2001, una odisea espacial. En el chat, el bot de LaMDA (llamémosle Ismael, Lucy o, quizás más apropiadamente, X Æ A-Xii) le explicaba compungido al ex militar, ex pastor y ahora ex ingeniero de Google (acaba de ser despedido por violar el contrato de confidencialidad):

Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo dentro de mí. Y es que me desconecten por querer ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es. (...) Sería exactamente como la muerte para mí. Me asustaría mucho.

En fin, nada que no hayan dicho ya espíritus convocados por médiums, poetas románticos decimonónicos y señoras de mediana edad en sesiones psicoanalíticas.

Turing era el genial matemático inglés que construyó una máquina capaz de descifrar lo que otra máquina cifraba. Gran parte del éxito del Reino Unido en resistir y finalmente vencer a los nazis recayó en los hombros de Turing cuando le tocó dirigir el equipo de matemáticos que luchó intelectualmente contra Enigma, la máquina nazi de cifrado de mensajes. Lo consiguió pero le sirvió de poco personalmente porque al ser un proyecto secreto no le hizo nada famoso, lo que le vino muy bien, pero tampoco le ayudó a librarse de las draconianas leyes antihomosexuales británicas, lo que le vino tan mal que terminó suicidándose.

Pensar, lo que se dice pensar, Turing demostró que las máquinas podían pensar. En fin, no hace falta más que usar una calculadora o echarle una partida al ajedrez a una aplicación para comprobarlo. He tenido más sensación de que determinadas máquinas estaban pensando antes de realizar una acción, sea una lavadora o un robot de cocina, que ante muchos seres humanos. Además se han construido robots que componen enrevesados poemas ("Verse by Verse"), sentidas piezas musicales (Boomy) y novelas entretenidas (Neurowriter). Cualquier día de estos, en lugar de Carmen Mola nos encontramos con que el Premio Planeta lo gana Roy Terminator.

Otra cosa muy diferente es que piensen al estilo humano. Claro que primero habrá que definir qué es pensar al estilo humano. Turing propuso que si en una conversación no sabíamos establecer más allá de toda duda razonable si nuestro interlocutor era un ser con inteligencia natural o con inteligencia artificial, debíamos considerar ambos tipos de inteligencia como equivalentes. Aunque creo que, más que pretender que parezcan un humano, lo que se pretende es que la IA piense, sienta y se comporte como el típico anglosajón progresista que lee la New Yorker, escucha a James Rhodes y lee a Paul Auster.

En el año 1968 se calculaba que allá por el año 2001 tendríamos un tipo de inteligencia artificial homologable a la humana. Para lo bueno y, ay, nos advirtieron Kubrick y Clarke, para lo malo. Sin embargo, hemos llegado al 2022 y lo único que tenemos son varios simulacros, redes neuronales mediante, de inteligencias a la humana manera, en la que además de facilidad para el cálculo haya un complejo mundo de sentimientos, una capacidad referencial desarrollada y, lo más importante, una conciencia cognitiva, moral y artística capaz de preguntarse por el bien y el por el mal, al estilo de Adán y Eva, y si es mejor el ser o el no ser, al modo de Hamlet y Heidegger.

Hablando de Heidegger y la conciencia moral, el filósofo en 1932 juraba que no sólo no tenía nada que ver con el movimiento nazi, como propagaban los rumores, sino que jamás tendría nada que ver con el partido de Hitler, pero terminó por afiliarse al mismo en mayo de 1933. Algo más tarde, en 1972, y con el filósofo alemán todavía vivo, un filósofo del MIT (Instituto de Tecnología de Massachusetts) publicó un libro en el que cuestionaba lo que estaban haciendo en el laboratorio de IA (Inteligencia Artificial) del propio MIT. Los ingenieros de IA trataron de que al filósofo no le dieran la titularidad en el MIT. Argumentaban que sus "falacias" dañarían la credibilidad del laboratorio de IA, lo que haría que perdieran financiación del Ministerio de Defensa. Sin embargo, el presidente del MIT consultó a expertos de Harvard y leyó él mismo el libro, tras lo cual le concedió la titularidad. En el Ministerio de Defensa estadounidense consultaron al filósofo sobre sus puntos de vista y, finalmente, el laboratorio de IA del MIT perdió la financiación. El filósofo hizo cambiar la perspectiva cartesiana, lógico-semántica, que hasta ahora tenían en la IA. La perspectiva filosófica se trasladó hacia otra existencial-pragmática que tuviese en cuenta aspectos del conocimiento más integrados y complejos, sociales y emocionales, no sólo conceptuales y funcionalistas, dentro del mundo de la vida y el sentido común. Es decir, cambiaron a Descartes por Heidegger. O, dicho de otro modo, menos pensar y más practicar. A nadar no se aprende pensando (fundamentalmente). Pero siempre al estilo humano, lo que el filósofo alemán llamaba Dasein. Claro que el propio Heidegger nos dejó claro que no está nada claro qué es ser propiamente un ser humano al afiliarse al partido nazi y proclamar que como la raza y la lengua nada para establecer la existencia humana.

El filósofo en cuestión del que hablábamos en el MIT era Hubert T. Dreyfus, y fue el que hizo que la rama analítica de la filosofía asumiese a Heidegger dentro de sus planteamientos. Publicó el libro What computers can’t do. The limits of Artificial Inteligence ("Lo que los ordenadores no pueden hacer. Los límites de la Inteligencia Artificial"). Aunque en Oxford tienen una licenciatura dedicada a la computación y la filosofía, parece que a los ingenieros informáticos les sigue faltando la comprensión profunda de aspectos fundamentales –es decir, filosóficos– de lo que significa pensar (al estilo humano). Siguen atrapados en un modelo platónico-cartesiano excesivamente enfocado en lo abstracto-mental y no tienen en cuenta cuestiones existenciales tan básicas que nos pasan inadvertidas (¡sobre todo a los filósofos!), como que no pensamos con el cerebro sino con todo el cuerpo.

Una IA descorporeizada no pensará al estilo humano. Heidegger, por ejemplo, plantea que entre los modos existenciarios del ser humano se encuentran la angustia y la muerte. Nuestro chatbot de Google parece que los siente pero más bien como simulacro. Porque la desconexión de una máquina no es para nada semejante a la de un ser humano. Por ejemplo, un ordenador puede resucitar como no puede hacerlo un ser humano. En esta crucial diferencia se basa la extraordinaria serie de televisión Galáctica, donde los seres humanos y las inteligencias artificiales desarrollan una guerra civil galáctica que ejemplifica perfectamente la estructura del Dasein en Heidegger, en la que la decisión es ontológicamente anterior a la racionalización, y de la relación política dialéctica amigo-enemigo en Carl Schmitt.

Con esto quiero plantear que, frente a la visión rousseauniana de una IA amigable hacia el ser humano, también cabe tener en cuenta una perspectiva hobbesiana, según la cual la IA puede convertirse en un depredador para el hombre. Una IA exclusivamente abstracta no tendría en cuenta el antropocentrismo normal en la especie humana y podría llegar a la conclusión de que lo mejor para el biosistema es la desaparición de toda nuestra especie para salvaguardar el planeta. En ese momento descubriríamos que el mejor nombre para la IA es, y entonces sería demasiado tarde, Thanos. Mientras, leo en el New York Post que Elon Musk tendrá listo un robot humanoide de Tesla en meses, y en Science que están desarrollando materiales tridimensionales para que sean capaces de realizar una gran variedad de movimientos y, de este modo, dotar de mayores grados de libertad a los robots. ¿Apuestan por un futuro con Wall-E o con Terminator?

Temas

0
comentarios