Inteligencia artificial: reflexiones sobre un futuro inminente

Por sus implicaciones sociales y políticas la inteligencia artificial debe ser un campo de estudio de primer orden.

y | Tecnología

En una colonia de gorriones, cansada de las actividades manuales y repetitivas, un miembro propone traer a un búho. Los búhos son más fuertes y podrán realizar más rápido todas las actividades tediosas. Mientras tanto, los gorriones podrán dedicar su tiempo extra a cuidar de los ancianos y los menores. Aparentemente es una excelente idea; todos parecen concordar, excepto un miembro de la comunidad que argumenta que será difícil domesticar al búho y sentencia: “Esto seguramente será nuestra ruina, ¿no deberíamos de pensar más sobre el arte de la domesticación de búhos, antes de que traigamos a esta criatura a vivir entre nosotros?”

Esta fábula es la piedra de toque del libro Superinteligencia: caminos, peligros y estrategias (2016) del filósofo Nick Bostrom. No conocemos el final de la fábula, pero es un planteamiento que permite a Bostrom iniciar una discusión sobre lo que para él constituye una de las grandes amenazas de la humanidad: el incremento acelerado en la capacidad para resolver problemas analíticos de las computadoras es tal que llegaremos a un punto en el que éstas se volverán más inteligentes que nosotros. En este punto, si las máquinas decidieran actuar contra nosotros, dejaremos de gozar de nuestro carácter de especie dominante en el planeta. De acuerdo con Bostrom, necesitamos tener una discusión seria sobre los riesgos que los avances computacionales traerán consigo. De lo contrario –como advierte el gorrión en la fábula–, estaríamos promoviendo nuestra propia destrucción.

El libro de Bostrom está repleto de analogías que suponen implícitamente una circularidad de la historia. Por ejemplo, Bostrom nota que incluso aunque los humanos tenemos capacidades físicas inferiores a la mayoría de los mamíferos en la tierra, gozamos de una ventaja que ningún otro mamífero tiene: nuestra capacidad cognitiva. Esta ventaja competitiva nos permitió alzarnos como reyes del planeta y marginar a otras especies. Por lo tanto, de continuar el progreso tecnológico, los seres humanos podríamos acabar marginalizados si existiera un ente con un poder cognitivo significativamente mayor al nuestro.

Este momento es caracterizado por Bostrom como el de la singularidad: una explosión de inteligencia. La explosión ocurrirá, según Bostrom, gracias a los avances en el campo de la inteligencia artificial. Es importante notar que no es la primera vez que existen estos miedos sobre la competencia que las máquinas representan hacia los humanos. Desde el siglo XIX, el economista David Ricardo ya había examinado “la cuestión de la maquina” que se centraba en la influencia que tendrían estas en las diferentes clases sociales. La inteligencia artificial, como tal, ha despertado miedos específicamente desde la invención de las computadoras hace más de setenta años. El debate ha resurgido cada vez que se alcanza un hito tecnológico en el campo. El más reciente ejemplo es el programa DeepMind de Google que venció al campeón mundial de Go y desencadenó toda una serie de especulaciones sobre el poder de la inteligencia artificial. Incluso The Economist dedicó recientemente un número completo al tema.

Probablemente el mayor problema con la hipótesis de Bostrom es que se centra en una discusión abstracta en el campo lógico que extrapola el desarrollo futuro de la inteligencia artificial. Dentro del dominio filosófico, su tesis puede tener cierta validez, sin embargo, cuando se consideran los retos técnicos del campo, el futuro dominado por las máquinas presenta más desafíos de los que considera Bostrom.

Primero que nada, es necesario entender el contexto actual de los avances en el campo de la inteligencia artificial. Es importante hacer notar que el estudio y desarrollo de la inteligencia artificial ha sido un suceso dual, tanto teórico como práctico. Una computadora es una máquina que es capaz de ejecutar instrucciones escritas por un programador con el objetivo de resolver problemas concretos. A cualquier procedimiento que permita resolver cierta clase de problemas se le conoce como algoritmo. Hablar de un algoritmo es referirse a una serie de pasos para resolver un problema con un dominio de entradas (inputs) y de salida (resultados) perfectamente delimitado.

La teoría de la computación es la rama de las matemáticas que estudia de manera formal problemas teóricos que han surgido del estudio de procesos computacionales. Pioneros del área como Alan Turing y Alonzo Church cimentaron el desarrollo de los primeros ordenadores a través de la formalización en términos matemáticos de la idea de algoritmo. Particularmente notable fue el trabajo de Turing, quien formuló el modelo teórico de una computadora y que es hoy el más utilizado por matemáticos dedicados a probar teoremas sobre los límites y la naturaleza de resolver problemas de manera algorítmica: las llamadas “máquinas de Turing”.

Una pregunta de primer orden es si el cerebro humano es una máquina de Turing y, en caso de serlo, si es posible programar una computadora para imitar o simular las capacidades de aquel. Posiblemente la respuesta sea afirmativa. Para estudiar la inteligencia de una máquina, Turing propuso una prueba que evaluara las capacidades cognitivas de un agente computacional: una máquina capaz de sostener una conversación con un ser humano sin que éste llegue a la conclusión de que su interlocutor es una máquina.

El campo de la inteligencia artificial va más allá de la simulación y el estudio de las capacidades cognitivas humanas. La meta de los investigadores y practicantes de la inteligencia artificial no es solo el resolver la clásica prueba de Turing. Es también el de crear agentes y sistemas que puedan interactuar con otros agentes y la de realizar tareas en medios caóticos e imprevisibles. En este ámbito están incluidas la robótica y la machine learning.

A manera de ejemplo, los algoritmos que Google utiliza para indexar los resultados de una búsqueda, o los utilizados por Facebook para reconocer nuestros rostros en una foto, o recomendar contenidos y anuncios, son todos parte del ámbito del machine learning, que a pesar de tener un nombre de ciencia ficción es una rama de la estadística aplicada a dominios computacionales, especialmente útil en problemas con los que se requieren encontrar estructuras para realizar inferencias al tener disponibles grandes cantidades de datos.

En el lado práctico, los métodos favoritos utilizados por la industria han cambiado a través de los años. Durante el último lustro se ha visto una explosión en la utilización de un procedimiento que se conoce como Deep Learning, y que utiliza redes neuronales en una multitud de problemas que van desde el reconocimiento de imágenes, la robótica, hasta el algoritmo utilizado por Deep Mind para derrotar al campeón de Go.

El Deep learning es el ejemplo paradigmático de la gran distancia que existe entre el entendimiento del público sobre la inteligencia artificial y la realidad del campo. El nombre y su utilización de redes neuronales tienden a hacer pensar al público que se trata de algo más sofisticado de lo que en realidad es. Las redes neuronales de las que hablamos son un modelo matemático del funcionamiento de una neurona. El modelo es una versión tan simplificada de una neurona que en realidad es incorrecto relacionar el modelo con neuronas biológicas. En Deep Learning, múltiples unidades de estas neuronas son colocadas en una arquitectura de conexiones entre ellas, que presupone la existencia de neuronas input y neuronas output, y el modelo es entrenado (es decir, los parámetros del mismo son ajustados) mediante training data para que éste “aprenda” una función. El proceso es el mismo que el de realizar una regresión pero utilizando un modelo matemático más sofisticado. Estos algoritmos han sido especialmente exitosos en problemas sobre reconocimiento de imágenes y de voz.

Uno de los hechos más interesantes del Deep Learning es que la idea no es para nada nueva. Las redes neuronales fueron inventadas hace muchos años, pero no fue hasta hace poco que las capacidades computacionales de los computadores aunado a la masiva cantidad de datos que internet produce permitieron la resurrección de este método. En el campo teórico, sabemos muy poco sobre el funcionamiento y propiedades matemáticas de los algoritmos que son usados para Deep Learning. Es decir, desconocemos sus propiedades de convergencia, la naturaleza de sus saddle points o por qué parecen funcionar tan bien en la práctica para problemas de clasificación, como lo son los que involucran entender el contenido de una imagen.

Los avances recientes han sido impresionantes en tanto muchos problemas cuyas soluciones, no muchos años atrás, parecían lejanas. Aun así, los métodos actuales, aunque posiblemente habiliten nuevas realidades en el futuro próximo, como los autos de conducción autónoma en una carretera, son bastante limitados en tanto trabajan en medios restringidos. Un tablero de Go es un dominio perfectamente definido, determinado y sin mucha más aleatoriedad que los movimientos del oponente. Una carretera a pesar de ser bastante caótica, sigue siendo un dominio en donde, por lo general, el tipo de objetos que un agente espera encontrar está restringido a otros automóviles.

Es cierto que la inteligencia artificial ha tenido avances significativos en los últimos años, sin embargo, todavía se encuentra lejos de poder crear robots al estilo de las películas de ciencia ficción. Estamos lejos de poder crear un sistema que lea una novela y la pueda explicar. Los modelos que existen para hacer inferencia en el lenguaje son muy restringidos y si acaso son capaces de (por ejemplo) traducir unas pocas oraciones sin que podamos notar que estamos lidiando con una computadora y no con un ser humano. El lenguaje es tan inmensamente difícil de modelar porque es una estructura realmente compleja, no solo por su carácter cultural sino porque en sí misma tiene una serie de auto-referencias, reglas que no son reglas, y un millardo de excepciones y referencias que ligan un término de una oración con otro en una parte retirada del texto.

Estamos muy lejos de resolver ese problema, precondición casi obligada para tener un sistema suficientemente inteligente para que un día piense en eliminarnos. En cualquier caso, la creencia que una vez que logremos crear una inteligencia superior a la nuestra ésta deseará deshacerse de nosotros está basada en el supuesto de que toda otra inteligencia seguirá el camino del exterminio y la sinrazón que ha caracterizado la historia de la especie humana.

Por todo lo anterior, las conjeturas de Bostrom resultan un simple ejercicio de realidades mágicas que hoy en día se antojan difíciles de concretar, al menos en el mediano plazo. Hoy en día queda claro que los retos analíticos a los que se enfrenta el campo de la inteligencia artificial son amplios y, por lo tanto, estamos lejos de la singularidad que predice Bostrom.

(Foto: cortesía de Binary Koala.)

Artículos relacionados

Internet y los nazis

Antonio Martínez Velázquez
Repensar la libertad de expresión

Antonio Martínez Velázquez