La ironía de las computadoras

Ideas

Por más inteligentes que parezcan, en el corazón de los grandes sistemas de cómputo únicamente hay millones de minúsculas y rapidísimas hormiguitas, incapaces por sí solas de hacer nada sorprendente ni especial... pero sí pueden.

En realidad pedimos demasiado si esperamos que una máquina exhiba comportamiento inteligente. (Ilustración: Simón Serrano)
Guillermo Levine
Ciudad de México /

These are the days of miracle and wonder.

(Estos son los días de milagros y maravillas.)

Paul Simon / Graceland

Desde hace unos meses todo parece girar alrededor de las promesas y amenazas de la inteligencia artificial (IA), de la cual a diario surgen noticias a veces alarmantes y en ocasiones esperanzadoras, aunque bien a bien sigamos sin tener demasiada claridad sobre el tema.

En un artículo anterior traté de dilucidar un poco el asunto, pero en aquella ocasión esquivé un tema, digamos, filosófico referente a los sustentos tecnológicos de las computadoras y de la llamada “tercera revolución industrial”, y ahora me gustaría retomarlo porque, a mi parecer, encubre aspectos que no sé si calificar de irónicos, paradójicos o acaso sorprendentes, pues sucede que la innegable, contundente y enorme potencia de las computadoras (y de la IA) reside en su inocente y a la vez inherente sencillez, cercana a lo casi tonto por simple, como ahora intentaremos mostrar.

Básicamente todo se lo debemos al matemático inglés George Boole (1815-1864) y a su libro Una investigación sobre las leyes del pensamiento en las que se basan las teorías matemáticas de la lógica y las probabilidades, donde presenta lo que llama "operaciones necesarias para el pensamiento", basadas en el concepto de signo: “Todas las operaciones del lenguaje como instrumento del razonamiento pueden ser dirigidas por un sistema de signos [...] así como aquellas operaciones de la mente por medio de las cuales las concepciones de las cosas se combinan para formar nuevos conceptos implicando los mismos elementos”.

A continuación presenta los conceptos del sistema binario, con 0 y 1 como únicos elementos: “De hecho, nada y universo son los dos límites de la extensión de conjuntos, puesto que son los límites de las posibles interpretaciones de las cosas en general, ninguno de los cuales puede relacionar menos elementos de los que incluye nada, o más de los que incluye universo”, y procede a completar un nuevo sistema de pensamiento abstracto, luego de más de dos mil años de existencia de la tradicional lógica aristotélica. Ni 100 años después, esta nueva álgebra de lo sencillo se convertiría en la base formal con la cual funcionan los circuitos de las computadoras… y toda la “era digital”.

Los lenguajes de programación de computadoras

Transcurrida la primera mitad del siglo XX, las cosas comienzan a acelerar el ritmo. La primera computadora electrónica digital —ENIAC— comenzó a funcionar en 1947: un enorme aparato de 30 toneladas y 18 mil bulbos, capaz de efectuar alrededor de cinco mil sumas (o 2,800 multiplicaciones) en un segundo, dejando atrás para siempre las limitaciones humanas de velocidad y precisión. Las computadoras que la siguieron estuvieron basadas en un modelo establecido, entre otros, por el matemático húngaro nacionalizado estadunidense John von Neumann (1903-1957), vigente hasta la fecha. También por esos años, un resultado teórico debido al matemático e ingeniero estadunidense Claude Shannon (1916-2001) especificaba que el sistema binario es suficiente para representar cualquier cantidad de información, y entonces la pinza se comenzó a cerrar, extraordinariamente estimulada con el posterior desarrollo de los circuitos electrónicos miniaturizados (en 2000, la mitad del Premio Nobel de Física le fue otorgada al ingeniero estadunidense Jack Kilby –1923-2005– “por su participación en la invención del circuito integrado” de unos 40 años antes).

Se inauguró así una nueva etapa en las capacidades de procesamiento de datos, que no han hecho sino aumentar, al grado de que cualquier teléfono “inteligente” hoy en día es en realidad una computadora millones de veces (sí, millones) más rápida y poderosa que las que en julio de 1969 lograron la hazaña de llevar al hombre a la luna. Ya nos quedará de tarea averiguar cómo es que ahora no precisamente somos siquiera cientos de veces más inteligentes ni avanzados que hace 55 años.

Podría decirse que el asunto como lo conocemos hoy comenzó en los años 60 gracias a —entre muchas otras— las investigaciones del lingüista Noam Chomsky (además, un intelectual estadunidense y mordaz crítico de la política exterior de su país) y del matemático Donald Knuth, quienes inauguraron la lingüística matemática y los llamados “lenguajes formales”, de donde luego emergieron los lenguajes de programación de computadoras. Nada de lo actual sería posible sin estas formas superiores de comunicación con las máquinas, porque entonces todo tendría que reducirse al extremadamente limitado (aunque sobrehumanamente veloz) “lenguaje de máquina” de ceros y unos, los famosos bits.

Revisando las capacidades operativas de los procesadores actuales —los “motores” de las computadoras— vemos que, en términos generales, aunque por supuesto esto parece una contradicción, los increíblemente rápidos dispositivos electrónicos (CPU: Unidad central de procesamiento y GPU: Unidad de procesamiento gráfico) no pueden hacer realmente mucho, pues solo disponen de unas 10 clases de funciones primitivas diferentes, todas ellas sobre grupos de bits almacenados en las “celdas” de la memoria central.

En términos amplios, esas operaciones son las siguientes: lectura y escritura de un número binario; operaciones aritméticas y lógicas entre valores binarios; manipulación sobre los bits de celdas de memoria; selección de la siguiente instrucción a ejecutar dependiendo de comparaciones previas entre valores de celdas; operaciones en paralelo sobre grupos de bits; operaciones simples sobre grupos de celdas, e instrucciones de entrada y salida de bits, así como para la gestión básica del sistema. El lenguaje de máquina es lo único que los procesadores pueden en realidad atender, incluidos los sorprendentes nuevos chips de compañías como Nvidia y otras, capaces de manejar enormes arreglos de datos binarios (matrices) en paralelo a velocidades extremas.

Procesadoras enormemente rápidos… y tontos

Como esas instrucciones únicamente efectúan operaciones básicas sobre uno o más grupos de bits en la memoria, la irónica primera conclusión es que los procesadores son enormemente rápidos... y tontos, porque únicamente pueden manipular bits y nada más. Esto no debe malinterpretarse: por supuesto que los circuitos de altísima integración, las súper computadoras y los sistemas de información resultantes son la cumbre de toda la historia de descubrimientos, desarrollos y avances de la humanidad en tecnología, ingeniería y economía; representan un soberbio triunfo de la belleza de las matemáticas y del poder de la ciencia, pero no dejan de ser “simples” mecanismos digitales y determinísticos, por definición incapaces de actuar directamente sobre los elementos de la realidad del mundo; solo operan sobre los elementos electrónicos que los conforman. La inteligencia ciertamente no es uno de sus atributos, y en realidad pedimos demasiado si esperamos que una máquina exhiba comportamiento inteligente... aunque vaya que sí lo aparentan.

¿Cómo entonces se logra la portentosa ilusión de hacer que un dispositivo electrónico parezca entendernos, conteste preguntas y hasta nos diga cosas que desconocemos, cuando los principios de funcionamiento tanto de los equipos (hardware) como de los programas con los cuales operan (software) siguen siendo esencialmente los mismos en su sencillez conceptual aunque, por supuesto, mucho más elaborados?

La respuesta descansa en nuestra maravillosa capacidad de configurar “capas” de abstracción que operan como una especie de esferas concéntricas reutilizables y de complejidad creciente, en donde las nuevas y más externas usan y dependen de aquellas que les siguen en la jerarquía hacia abajo, hasta llegar finalmente a descansar en los conceptos fundamentales de la lógica booleana de 1854, y de allí emana lo que llamo la ironía de las computadoras, como ahora trataré de mostrar.

En el primer artículo sobre inteligencia artificial explicaba que, gracias a gigantescas inversiones de miles de millones de dólares, unas muy pocas empresas en el planeta han dedicado años a “entrenar” complejas redes neuronales y sistemas de aprendizaje (que en realidad son los elegantes nombres de métodos matemáticos y computacionales para convertir meros datos sueltos en información enriquecida mediante complejas estructuras organizativas), donde durante meses cientos de ingenieros alimentan los sistemas con millones de millones de datos tomados de Internet y con enormes cantidades de casos predefinidos, para irlos acercando paulatina y estadísticamente a reconocer patrones a partir de los cuales podrán generar nuevas respuestas válidas, formadas empleando combinaciones de términos precedentes y ya interconectados. Allí no hay realmente inteligencia sino más propiamente sorprendentes desarrollos y extrapolaciones ojalá válidas a partir de los datos existentes.

Empleando una espeluznante cantidad de ciencia, matemáticas, ingeniería y software fue que por el año 2020 se comenzaron a configurar los llamados LLM (Large Language Models, Grandes modelos de lenguaje), capaces de transmutar esos descomunales sistemas de cómputo e información en agentes conversacionales con extraordinarias capacidades lingüísticas en una gran cantidad de idiomas.

Larry Page (junto con Sergey Brin, el otro fundador de Google) cuenta que, hacia 1997, siendo estudiante de doctorado en computación en la universidad de Stanford —no obtuvo el grado porque la dejó para dedicarse a su empresa—, “se me ocurrió la loca idea de descargar todo el Web en mi computadora”, y unos pocos años después lograron la hazaña, que hoy ya casi nos parece un producto de la naturaleza, de brindar acceso instantáneo a toda la información disponible, en forma dinámica, intuitiva y sencilla, y lo consiguieron gracias a unos algoritmos o métodos matemáticos para organizar y recuperar los contenidos de las páginas Web, que luego evolucionarían hasta alcanzar el estado actual.

Si el lector creía que la “inteligencia artificial” de las actuales súper computadoras se debe a que los mega circuitos de marcas como AMD, Apple, IBM, Intel, Nvidia y otros son capaces de razonar y comprender las cosas del mundo, los párrafos anteriores le harán ver que no es así y que la respuesta debe por tanto residir en otro lado, porque los principios básicos siguen siendo similares a los realmente simples esquemas originarios.

Todo lo anterior me lleva entonces a los siguientes extraños desvaríos que pongo a consideración del resignado lector: Pareciéramos presenciar cómo una vertiginosamente cuantitativa aunque simple acumulación de minúsculos elementos pudiera producir resultados cualitativamente diferentes, capaces de engañar a cualquiera y hacerle creer que está frente a un ente dotado de inteligencia (¡o hasta de conciencia!).

Y si bien nunca tuvo carácter de ciencia, ni tampoco procede directamente del pensamiento de Marx, uno no puede dejar de pensar en lo que Engels proponía como la “Ley de transición de la cantidad a la cualidad” como parte de su explicación del Materialismo dialéctico:

“Así por ejemplo, toda la cuarta sección de El Capital de Marx —producción de la plusvalía relativa en el terreno de la cooperación, división del trabajo y manufactura, maquinaria y gran industria— trata de innumerables casos en los cuales la alteración cuantitativa modifica la cualidad de las cosas de que se trata, con lo que [...] la cantidad se muta en cualidad, y a la inversa. Así es, por ejemplo, el hecho de que la cooperación de muchos, la fusión de muchas fuerzas en una fuerza total, engendra, para decirlo con las palabras de Marx, una ‘nueva potencia de fuerza’ esencialmente diversa de la suma de sus fuerzas individuales” (Federico Engels, Anti-Dühring, XI).

En términos actuales, si a velocidades excelsas se logra coordinar un enorme conjunto de muy simples y pequeños elementos, es posible conseguir resultados cualitativamente superiores a los de la naturaleza básica del dominio de donde provienen. Aunque las paradojas de Zenón parecían mostrar que no se podría obtener continuidad a partir de un conjunto de elementos fraccionados —famosamente desmentidas con la invención del cine por los hermanos Lumière en 1895—, la ahora virtualmente perfecta emulación de lo analógico a partir de lo digital es una realidad tecnológica cotidiana.

Es posibilidad, enunciada en la primera mitad del siglo XX, se conoce como el Teorema de muestreo de Nyquist-Shannon, y es uno de los pilares de la teoría matemática de las comunicaciones gracias a la cual, por ejemplo y entre tantas otras variantes, desde hace décadas existe la música en formato digital. Como el oído humano puede registrar sonidos con frecuencias entre 20 y 20,000 Hertz (ciclos por segundo), la teoría indica que si se toman 40,000 muestras de una señal audible cada segundo, serán suficientes para mantener la fidelidad cuando abandonan el dominio de lo analógico, como en los discos compactos y en los medios de streaming por Internet.

Regresando al tema, por más inteligentes que parezcan, y no obstante su gigantesco potencial e impacto, en el corazón de los grandes sistemas de cómputo únicamente hay millones de minúsculas y rapidísimas hormiguitas, incapaces por sí solas de hacer nada sorprendente ni especial... pero sí pueden. Algo debiera eso de decirnos acerca de nuestras concepciones de inteligencia, y prefiero mejor no hablar de los mitos de la creación, porque igualmente los actuales descubrimientos de genética molecular muestran cómo los sistemas complejos pueden por sí mismos producir soluciones novedosas sin hacer uso de un diseño “superior”, en virtud de la cantidad y disposición de sus posibles combinaciones.

Termino con una especulación por completo ajena a lo hasta ahora discutido... aunque tal vez no lo fuera tanto.

Existen múltiples fábulas de la creación a partir del poder de las palabras (“En el principio era el verbo”), y ahora me referiré al Gólem, según se explica en el libro de Gershom Scholem, La Cábala y su simbolismo, 1960 (siglo veintiuno editores, 1976):

“Los judíos polacos modelan, después de recitar ciertas oraciones y de guardar unos días de ayuno, la figura de un hombre de arcilla y cola, y una vez pronunciado el nombre divino maravilloso sobre éste ha de cobrar vida. Cierto que no puede hablar, pero entiende bastante lo que se habla o se le ordena. Le dan el nombre de Gólem, y lo emplean como una especie de doméstico para ejecutar toda clase de trabajos caseros. Sin embargo, no debe salir nunca de casa. En su frente se encuentra escrito emét (‘verdad’), va engordando de día en día y se hace en seguida más grande y fuerte que todos los demás habitantes de la casa, a pesar de lo pequeño que era al principio. De ahí que, por miedo de él, éstos borren la primera letra, de forma que queda solo met (‘está muerto’), y entonces el muñeco se deshace y se convierte en arcilla. Pero hubo una vez uno que, por descuido, dejó crecer tanto a su Gólem que ya no podía llegarle a la frente. Movido por un gran miedo, ordenó a su criado que se quitase las botas, pensando que, al doblarse, le podría llegar a la frente. Ocurrió tal como pensaba el dueño, y éste pudo felizmente borrar la primera letra, pero toda la carga de arcilla cayó sobre él y lo aplastó" (p. 174).

Pero aún hay más sobre el asunto:

“La creación golémica encierra peligros, incluso peligro de muerte como toda creación magna, pero estos peligros no proceden del Gólem, de las fuerzas que de él derivan, sino más bien del hombre mismo: el producto de tal creación no es el que origina por medio de cualquier forma de independización poderes peligrosos, sino que lo que ha de tacharse de peligroso es la tensión suscitada por el proceso en el propio creador. Los fallos en la ejecución del proceso no conducen a una degeneración del Gólem, antes bien a la destrucción directa de su constructor” (p. 208).

Y aunque también pensaba hablar del “Anhelo fáustico” o de la novela Frankenstein o el moderno Prometeo (1818), de la inglesa Mary Shelley, mejor aquí lo dejamos…

Guillermo Levine

fil.tr.int@gmail.com

AQ

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.