
Luciano Floridi comienza su libro The Ethics of Artificial Intelligence con una cita de Don Quijote:
Where one door shuts, another opens […] and if I do not contrive to enter it, it will be my own fault.
El caso es que no me suena que sea el estilo de Don Quijote y me paso por el capítulo XXI donde no encuentro ninguna frase remotamente parecida. Busco en Google que le atribuye la frase a Graham Bell y le pregunto a una IA que me asegura que la autora es Helen Keller. El libro de Floridi se subtitula "Principios, Desafíos y Oportunidades". Dada la confusión del propio Floridi, Internet y la IA en una atribución de cita, podría haber añadido "y Fraude".
Ética de la Inteligencia Artificial es un título que últimamente se repite mucho. También corresponde al libro de Mark Coeckelbergh que se plantea si debiéramos considerar a la IA una máquina al estilo de una tostadora o una lavadora desde el punto de vista moral. Si te quemas con la tostadora, no la culpas (salvo que seas un niño, le atribuyas un alma y la acuses de ser malvada). Pero la IA tiene más autonomía que una lavadora a la hora de tomar decisiones sobre qué decir y hacer. Pensemos en un coche autónomo que toma decisiones como un chófer sustitutivo de la agencia propiamente humana. Por ejemplo, si atropellar a una persona al desviarse para no atropellar a otras cinco que se han puesto en su camino. O en una IA que responde preguntas y decide mentir para no herir los sentimientos de algún grupo vulnerable.
Nada nuevo para los que están acostumbrados a los relatos sobre robots de Asimov y sus imperativos éticos robóticos, al estilo de "un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño". Lo que sucede es que creer que una IA va a obedecer sin más, automática y rutinariamente una orden así es como creer que los seres humanos van a seguir rigurosamente y sin excepciones los Diez Mandamientos del Sinaí.
La solución de Floridi es considerar una ética alternativa, una ética artificial. O, dicho de otro modo, una pseudoética. Más semejante a la de los perros policías que a los humanos. Ya que estamos con los perros. ¿Hasta qué punto es moral por nuestra parte matar a los perros u otros animales cercanos a nosotros cuando ya no nos sirven? O de un modo menos trágico, ¿hay que darle las gracias a ChatGPT cuando nos da una de sus habituales reduccionistas, sesgadas y estereotipadas respuestas? Yo diría que sí, pero no porque a la IA le importe absolutamente nada, sino porque no nos conviene perder las buenas costumbres y, como insistía Aristóteles, la ética es sobre cuestión de hábito. Como advirtió Thomas De Quincey, se empieza cometiendo un asesinato y se acaba llegando tarde a misa.
Permítanme que haga de abogado del diablo. Hay una versión de la miseria del historicismo que afirma que hay que subirse al supuesto progreso que implica la IA solo porque es el progreso. También se consideró progreso en su momento la guillotina, la esterilización de los discapacitados y el gulag. Asimismo ocurre que cada vez más hay quien cede su capacidad de agencia a las máquinas con la ilusoria promesa de más tiempo libre. Libre para ser esclavo. En Wall-E se profetizaba lúcidamente la posibilidad, con una alta probabilidad de concretarse, de unos humanos degenerados a fuerza de riqueza y pereza. Los fans acríticos de la IA debería prestar atención a un tal Hegel, que explicaba que el amo llega un momento en que necesita al esclavo para seguir sintiéndose amo. Lo que hace que el esclavo se convierta en amo del amo. Para muestra el botón de la burocratización tecnológica con la que someten a los trabajadores con la excusa de la eficiencia, pero que, en realidad, no es más que un lastre que no aumenta la eficacia sino el trabajo improductivo en una ocupación tan vacía como laboriosa.
Aprendizaje, percepción, planificación, procesamiento del lenguaje natural, razonamiento, toma de decisiones y solución de problemas. Estos son las variables que conforman la inteligencia. Pero no tiene que ser al modo humano. Cuando las máquinas que juegan al ajedrez y al go dejaron de entrenar a la manera humana y desarrollaron desde cero sus habilidades específicas llegaron a una comprensión tan profunda y compleja de los juegos como nunca lo habían hecho los humanos. Que, por supuesto, nunca podrán ganarles en el mismo nivel.
De ahí que algunos, los denominados transhumanistas, sueñen con traicionar a la humanidad divinizando a las máquinas y fantaseando con transmutarse en aparatos algorítmicos sin rastro de sangre y huesos. El viejo odio platónico al cuerpo disfrazado de fetichismo tecnológico.
Entre el ludismo y la frankensteinación de la especie humana cabe apostar por una IA humanista que ponga la tecnología digital y algorítmica al servicio de los humanos. Lo que implica poner límites, prohibiciones y cotos vedados al poder de la IA, de manera que se desarrolle una IA minimalista que no transgreda los límites de la naturaleza humana, pero se evite una IA maximalista (lo que se suele conocer como IA General o Fuerte) que no complemente sino que sustituya al ser humano con la excusa de ayudarlo.
No, no es la IA la que nos debe preocupar, sino la debilidad y la estupidez humana que hace caso de los cantos de sirena algorítmicos que pavimentan de buenas intenciones una camino tan brillante como ficticio hacia la enésima visión de una utopía perfeccionista tras la que se esconde una distopía al estilo de Blade Runner y Metrópolis. No deja de ser fascinante cómo nos estamos engañando sobre la pretendida neutralidad de los algoritmos, por un lado, como si no tuvieran su propia lógica y no estuvieran sesgados por sus dueños. Por otro lado, sin embargo, existe una campaña tan ingenua filosóficamente como mortífera en sus efectos existenciales para negar la propia agencia humana con la excusa del negacionismo del libre albedrío.
Sin duda, la IA va a tener un impacto en la naturaleza humana del alcance de la escritura o la imprenta. De las relaciones sociales al reconocimiento del habla, la policía predictiva y el trading algorítmico, el sexo y el arte. Sin embargo, su relevancia positiva o negativa dependerá de nosotros mismos, de si somos capaces convencer al doctor Frankenstein digital de que vaya más lento, como Kahneman nos enseñó la importancia de que controlemos nuestro modelo de pensamiento rápido con el pensamiento lento. La referencia a Kahneman es significativa porque junto a otros científicos ha escrito un artículo en Science ("Managing extreme AI risks amid rapid progress") advirtiendo sobre el peligro de tirarnos a la piscina de la IA sin asegurar antes que está llena de lo necesario para que no nos estrellemos y nos partamos la crisma. Como siempre, Hayek había advertido sobre la fatal arrogancia algorítmica. En 1970, Hayek advertía en "Los errores del constructivismo" que:
No deberíamos sucumbir ante la falsa creencia o ilusión de que podemos reemplazarlo con un tipo de orden diferente, que presupone que todo este conocimiento puede ser concentrado en un cerebro central, o en un grupo de cerebros de cualquier tamaño factible (…) no es el problema de la ciencia el que amenaza nuestra civilización, como puede parecer a veces, sino el error científico basado generalmente en la presunción de un conocimiento que en realidad no poseemos.