Gamés arroja algunos trozos de una entrevista aparecida en el portal español Ethic al filósofo y político español José María Lassalle, autor de Civilización artificial, en la cual el escritor repasa algunos riesgos de la IA en el mundo
Gil se enteró de la publicación del nuevo libro del filósofo y político español José María Lassalle: Civilización artificial (Arpa, 2024). Gamés ha subrayado algunos fragmentos de una entrevista aparecida en el portal español Ethic en la cual el escritor repasa algunos de los riesgos de la Inteligencia artificial en el mundo. Gilga arroja a esta página del fondo algunos trozos.
***
Las atribuciones que la orden presidencial de octubre de 2023 le confieren al presidente de los Estados Unidos lo han convertido en un AI Commander in Chief, lo cual le permite alinear todas las capacidades tecnológicas de acuerdo con la seguridad nacional. Esto puede aumentar la beligerancia con la que Estados Unidos está instrumentalizando el uso de la IA. La seguridad nacional, a través del ámbito de las armas letales autónomas que se han convertido en una de las manifestaciones más directas de la IA o de sus usos más plásticos, busca ejércitos con capacidad mortífera absoluta. Lo estamos viendo ahora mismo en Gaza con el uso de armas letales por parte del ejército israelí.
***
(…) no estamos ante una tecnología facilitadora, sino sustitutoria, con una capacidad de aumento de poder que desborda la imaginación humana y, especialmente, jurídica cuando quiere identificar los riesgos y generar un marco de seguridad normativa. Si fuéramos al origen de un diseño regulatorio basado en el propósito y en el sentido que queremos dar, entonces tendríamos una capacidad para fijar límites desde otra dimensión. Pero esto colisiona mucho con la mentalidad positivista de nuestro derecho. Este es uno de los problemas que acompaña a la regulación de una tecnología que, insisto, es sustitutoria: busca replicar el cerebro humano y las capacidades cognitivas que se traducen en el trabajo intelectual, sin las imperfecciones humanas. El problema es que, a veces, al analizar la IA, dejamos por el camino su ADN utópico.
***
(…) hay una pulsión fáustica en el desarrollo de la IA que nos lleva a la utopía: porque lo que estamos queriendo hacer es darle al ser humano la capacidad para ser sustituido en su imperfección por algo perfecto, que quiere ser alguien consciente, con una súper inteligencia que coloque a los humanos por detrás de ese alguien. Ese es el riesgo que no somos capaces de definir, porque los tecnólogos no están educados en las humanidades; pero, sobre todo, no están educados en la parte de las humanidades que conecta el conocimiento histórico con el mito, con la simbología y todo lo que, de alguna manera, ha acompañado antropológicamente a la cultura. Estamos adentrándonos en el riesgo de la creación en sus orígenes más profundos.
***
El ser humano está programado orgánicamente para experimentar el límite y las consecuencias de las trascendencias de sus acciones. Y eso es lo que, por mucho que queramos darle a la máquina introduciendo sesgos éticos, no va a entender. Porque el soporte de la máquina es sintético. No experimenta la caducidad que experimentamos como seres humanos. Eso es un factor que plantea unos riesgos que no son tangibles en lo inmediato, pero que están generando una cadena de consecuencialidad que puede llevar a que la máquina sea capaz de desarrollar estados mentales propios. Y ahí nos enfrentaremos a una alteridad radical sobre la que no debemos empatizar.
***
Si el desarrollo competitivo de la IA lo están haciendo dos súper potencias que están luchando por la hegemonía planetaria buscando tener empresas más competitivas, ejércitos más letales y gobiernos con mayor capacidad de control social, ¿cómo vamos a garantizar, a nivel estructural, el desarrollo de una IA para el bien común? Se está desarrollando dentro de una lógica amigo-enemigo a nivel geopolítico. Y luego, a nivel social, cada democracia está viviendo la polarización, la confrontación creciente de unos con otros, la incapacidad para identificar el bien común a través de un consenso normativo. Tenemos un problema mayúsculo. La democracia está fallando en sus bases deliberativas –que no participativas–, (por lo que) es muy difícil orientar el desarrollo de la IA hacia un bien común compartido.
***
Como todos los viernes, Gil toma la copa con amigos verdaderos. Mientras el mesero se acerca con la charola que sostiene el Glenfiddich 15, Gamés pondrá a circular las frases de Stephen Hawking por el mantel tan blanco: “el éxito en la creación de la IA sería el más grande acontecimiento. Desgraciadamente también podría también ser el último”.