¿Los robots deberían ser nuestros esclavos?

Los avances tecnológicos en inteligencia artificial deben acompañarse con un nuevo marco de derechos.

| Tecnología

Sanko Seisakusyo (三幸製作所) – Tin Wind Up – Tiny Zoomer Robots – Front

En 2009, la doctora Joanna J. Bryson –especialista en inteligencia artificial de la Universidad de Bath en el Reino Unido– escribió un artículo científico que podría fácilmente ser llamado “el clickbait de los artículos científicos”. La reflexión que lo impulsó fue preguntarse cómo las personas nos relacionamos con los robots. Bryson había trabajado con algunos robots semihumanoides y se había dado cuenta de que la mayoría de la gente interactuaba con ellos como si fueran personas, o incluso les intentaba atribuir características humanas que no tenían. Entonces, ¿cuál es la metáfora correcta –en los sentidos de preciso y apropiado– para referirnos a la relación que tenemos con nuestros compañeros artificiales?

El artículo no funcionó con el nombre “Just an artifact”, pero cuando corrigió el nombre, cambiándolo por Robots should be slaves, se convirtió en el eje central de discusiones y polémicas. En el libro Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues se exponen varias ideas que son muy interesantes para el área de la tecnoética y las ciencias de la computación (y para la ciencia ficción, dirían algunos). La principal de ellas es que “los robots no deben ser descritos como personas y no se les debe dar responsabilidad legal o moral por sus acciones”.

Muchos de sus críticos más grandes son fanáticos de la ciencia ficción que han sido influenciados por décadas de literatura y películas en las que el tema se ha tratado desde todos los puntos de vista imaginables.

Aquí surge un problema por demás interesante. En la ciencia ficción moderna, los agentes de inteligencia artificial han sido humanizados; se les han dado características que van más allá de su naturaleza. Solo hace falta ver cómo se aborda el tema en la taquillera A.I. Inteligencia Artificial o la famosa interpretación de Robin Williams en El hombre bicentenario (basada en el cuento corto de Isaac Asimov). Una de las preguntas que debemos hacernos : ¿es en realidad ésta la manera en la que la inteligencia artificial está sucediendo en el mundo real?

La respuesta a esa pregunta es sencilla: no. De momento.

El problema de esta visión romantizada de los entes “inteligentes” creados por la ciencia es que, en primer lugar, el cuerpo humano es una máquina biológica muy eficiente, pero no constituye de ninguna manera un diseño apropiado para un robot. Sería interesante (y quizás se cambiaría mucho el tono de la discusión) si la ciencia ficción representara a los robots haciendo lo que hacen mejor: ser eficientes en repetir tareas complejas y sin equivocarse.

¿Es posible que construyamos algo con lo que tengamos obligaciones mentales, éticas o morales? ¿Acaso la ciencia ficción está llenando nuestra conciencia colectiva de ideas de inteligencias artificiales a las que queremos adoptar, liberar o matar antes de que nos maten a nosotros?

Al modificar el nombre de su artículo, Bryson logró evidenciar una cuestión que está relacionada con la historia universal: ¿qué tanto dejamos que nuestro pasado afecte nuestras visiones del futuro?

Hay que recordar que las grandes potencias tecnológicas del presente son, en su mayoría, países reconocidos por haber tenido un pasado oscuro cuando se habla de esclavismo o segregación.

Vale la pena reconocer la primera historia moderna de robots –y la que le da el nombre a los mismos: “R.U.R.” (Rossumovi univerzální roboti o Robots Universales Rossum), una obra de teatro del autor checo Karel Čapek, escrita en 1920. En checo, robot significa esclavo. Aunque las personas artificiales representadas en la obra no son robots en la definición moderna de la palabra sino que son, más bien, androides o incluso clones, que muchas veces son confundidos con humanos y, además, poseen pensamientos propios, lo cual hace que terminen rebelándose y provocando la extinción de la humanidad.

La obra de teatro está más relacionada con el marxismo europeo de la época que con cualquier otra cosa. No es hasta que este concepto de robot llega a los Estados Unidos (que hoy en día es una de las potencias tecnológicas en cuanto a inteligencia artificial), que empezamos a encontrar historias que más que una crítica política, se convierten en relatos del neo-esclavismo en las que los robots quieren ser libres o se rebelan contra sus creadores.

Si nosotros recordamos la trama en la película de Bicentenial Man, podemos ver ciertos paralelismos entre el esclavismo norteamericano y la historia que narra la película –como bien lo hace ver Gregory Hampton en su libro Imagining Slaves and Robots in Literature, Film, and Popular Culture. En la película vemos que Andrew, el robot, es comprado y llevado a la casa de sus dueños en donde el padre de familia tiene una reunión con todos ellos y les pide que intenten tratarlo-como-si-fuera una persona, pese a ser una posesión. En el caso de EEUU, pasa algo parecido, aunque los esclavos negros eran considerados una posesión, poco a poco fueron entrando en los hogares de sus dueños, sensibilizando a los mismos y poco a poco fueron dejando esa errónea etiqueta de subhumanos en la cual los esclavistas se escudaban para seguir con la práctica.

En la película, Andrew se convierte en un estudioso autodidacta, compra su propia libertad y termina por buscar derechos humanos. Se ha cambiado poco a poco, sustituyendo sus partes robóticas por partes humanas hasta llegar a ser indistinguible de una persona. Y la historia se convierte en un paralelismo de los movimientos de derechos civiles del siglo pasado en EEUU.

¿Pero es esto correcto? La narrativa de la rebelión en contra de los humanos ha invadido incluso la investigación científica con un nombre apropiadamente salido de la ciencia ficción: el Terminator Scenario. Y hace poco la discusión se ha vuelto a intensificar en las noticias debido a un video de Boston Dynamics en el que un robot humanoide es empujado y molestado con un palo mientras intenta tomar unas cajas.

El objetivo del video era que el público viera que el algoritmo de control es muy robusto y le permite al robot hacer sus labores e incluso levantarse sin problemas si se caía. Pero el video causó revuelo porque pareciera que el robot es atormentado por su amo mientras intenta hacer labores manuales, pero aun así seguía haciéndolas por dignidad o miedo. Aunque todos sabemos que solo estaba siguiendo su algoritmo. El experimento puede ser observado como una muestra de los avances de la ingeniería moderna, sin embargo, la respuesta emocional que tenemos al ver el video viene de nuestro bagaje cultural y la manera en identificar sujetos de derechos.

Poco después del video, Boston Dynamics fue abandonado por sus dueños, Google. La corporación alegó que se trató una decisión de negocios. Sin embargo, el dilema persiste: como sociedad es difícil crear un nuevo marco de referencia para la relación que estamos construyendo con estas inteligencias artificiales. La referencia más cercana que tenemos es la relación amo-esclavo o dueño-sirviente. Y para los ingenieros que están desarrollando la siguiente generación de robots humanoides muchas veces esto pasa a segundo plano.

Esta discusión va más allá de si los robots pueden o no tener una conciencia propia.

Lo que habríamos de preguntarnos debería ser: ¿cómo nos afecta a nosotros estar en una relación esclavo-maestro? ¿Cómo cambia esto nuestra psique, nuestra manera de pensar acerca de nosotros mismos o acerca de los demás? Si nosotros como sociedad empezamos a tratar algo, lo que sea, como un esclavo, es probable que empecemos a desarrollar ciertos síntomas. Si empezamos a entrar en una relación esclavo-maestro con un ente, ¿qué efectos secundarios tendremos?

Según la ciencia moderna (como bien dice Stuart Russell en uno de los libros de texto del ámbito: Artificial Intelligence: A Modern Approach), hay dos grandes razones por las cuales creamos inteligencias artificiales: para usarlas como herramientas en las tareas cotidianas y para entender mejor cómo funcionamos nosotros mismos. Pero la razón que está debajo de ella es esta inherente soledad de la especie humana.

Como personas –como seres humanos– nos sentimos abandonados. No hemos conocido una especie con la que podamos compartir nuestros miedos, nuestras inquietudes o nuestras ideas, a pesar de nuestra constante búsqueda. Y es ahí donde esta búsqueda de compañía nos lleva a desarrollar nuestro “síndrome de Frankenstein”.

Nos da miedo que esa inteligencia creada nos vea como los malos. ¿Por qué?

Porque la única relación que conocemos en la que alguien al que percibimos como un igual está bajo nuestro control es la de esclavo-amo. Y nos da miedo ser los malos del cuento porque desconocemos lo que podemos hacer en esa posición.

Entonces, no importa si los robots desarrollan sentimientos o conciencia. La pregunta va más allá: ¿cómo nos cambiará socialmente la convivencia con los robots? ¿Cómo cambiará lo que consideramos aceptable y lo que no, si entramos en una nueva relación esclavo-amo?

Para poder entender cómo sería esta relación, podríamos ver otro de los proyectos en los que Google está trabajando: los automóviles sin conductor. A diferencia del robot-humanoide, aquí nadie se pregunta qué pasaría si estos automóviles inteligentes se rebelan o si no les damos derechos. Y es interesante porque pareciera que mucho tiene que ver con que se trata de autos y no de figuras antropomórficas y en este caso el automóvil inteligente se parece más a (o es una extensión de) una herramienta que usamos todos los días. El auto solo hace su deber y punto.

¿Qué diferencia hay entre un robot humanoide y un auto inteligente? A nivel de inteligencia artificial, muy poca. Pero con nuestra necesidad de empatía, tendemos a humanizar a uno por encima del otro.

Muchas veces la programación en estos autos refleja de mejor manera lo que había comentado anteriormente acerca de la ética y las tres leyes de la robótica que existen en las historias de Isaac Asimov, incluída la del Bicentenial Man. Las tres leyes de la robótica de Asimov no están tan distantes de un código moral. Nos hablan de que un robot no debe hacer daño o dejar que una persona sufra daño, obedecer a los humanos a menos de que se vaya a hacer daño a un humano y cuidarse a sí mismo a menos de que esto sea desobediencia o le pueda hacer daño a una persona.

En el mundo real un robot (o un carro inteligente, que es lo mismo) no tendrá estas decisiones morales tan claras. Si tiene que tomar una decisión entre quitarle la vida a su conductor o a una persona cualquiera en la calle, ¿a quién escoger? Es muy probable que los automovilistas humanos se aprovechen de estos robots automóviles y los traten como automovilistas de segunda, porque esencialmente pueden hacer lo que sea y el auto robótico va a hacer todo lo posible para mantenerse seguro. Va a frenar y darles el paso si intentan meterse en su carril. Estos autos, sin lugar a dudas, sufrirán del bullying de sus contrapartes humanas.

Entonces, ¿por qué abusar de uno sí y del otro no? ¿Dónde pintar la raya?

Y aquí es donde vale la pena pensar que, tal vez, la idea de que el robot es un agente moral –y por lo tanto “humanizable” – está mal planteada. No debemos preocuparnos tanto por tratar mal a un robot –y la pregunta debería ser: ¿por qué querríamos tratarlos mal? No debemos preocuparnos tampoco porque un día nos maten, porque si lo hacen es porque han sido programados para hacerlo. Los robots solo son un reflejo de nosotros mismos y de los sentimientos humanos que nos incitan a crearlos. Quizá esa es la parte más difícil de aceptar y la que más miedo nos provoca. A través de las relaciones que creemos con ellos, lograremos conocernos mejor y cuestionarnos y pensar: ¿seré yo el malo del cuento?

(Foto: cortesía de D J.)

Artículos relacionados