Yo, algoritmo

(Ilustración: Curiousflux)
Share on facebook
Share on twitter
Share on email
Share on facebook
Share on twitter
Share on whatsapp
Share on email

A mediados de los años treinta, un joven escritor de ciencia ficción caminaba por las calles de Nueva York con una pregunta en su cabeza: ¿cómo puede afectar la tecnología a la sociedad? ¿Qué repercusiones tenían todos los adelantos tecnológicos que se estaban dando en esa época en la manera de vivir?

A partir de ese momento, ese joven inmigrante ruso, un prodigio de la ciencia y con una imaginación sin igual, decidió cambiar su manera de escribir y empezó un movimiento que sería llamado la ciencia ficción social, la cual trataba de entender la naturaleza humana y su relación con la tecnología.

De estas ideas, nacerían las Tres Leyes de la Robótica:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entraran en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Fue en 1942 que Isaac Asimov —uno de los escritores más reconocidos en el mundo de la ciencia ficción— describió las tres leyes de la robótica en un cuento llamado “Círculo vicioso, las cuales formarían parte de la mayoría de sus siguientes historias, ambientadas en un futuro en el que los robots positrónicos son parte fundamental del desarrollo de la sociedad humana.

Según Asimov, estas leyes surgen para contrarrestrar el «complejo de Frankenstein», ese temor de que las máquinas pudiesen rebelarse y alzarse contra los humanos que las hemos creado.

Las tres leyes de la robótica representan el código moral de un robot. Un robot que actúa bajo los imperativos de estas tres leyes se comportaría como un ser moralmente correcto; y muchas de las historias del escritor ruso juegan con las interpretaciones que se le pueden dar a las mismas.

Hoy en día vivimos un futuro muy distante del que imaginó Asimov: no tenemos un Imperio Espacial, no hemos conocido otras especies en el Universo y tampoco tenemos robots positrónicos que nos ayuden en nuestro día a día.

Aun así, la tecnología juega un papel extremadamente importante en nuestro mundo: tenemos redes sociales, buscadores, torrents, impresoras 3D, smartphones y tablets,  programas que nos ayudan a ver el contenido que hay en internet, que nos ayudan a escribir, desarrollar ciencia y crear obras artísticas. Vivimos rodeados de tecnología que se ha hecho tan ubicua que ni siquiera nos damos cuenta de que está ahí; y por eso mismo, muchas veces no vemos el impacto que tiene en la manera en que vivimos.

11770475_10155821706175114_252953763_o

(ilustración: Curiousflux)

Todas estas maravillas tecnológicas están basadas en un objeto relativamente nuevo para la humanidad: los algoritmos, el código que opera muchos de nuestros objetos computacionales y que gobierna todos los rincones digitales. Los algoritmos se han convertido en intermediarios, en porteros digitales de nuestra información: entes que deciden lo que es importante para nosotros y lo que no es, sin siquiera darnos cuenta.

Definir un algoritmo puede ser relativamente sencillo: un conjunto de pasos ordenados para resolver un problema u obtener un resultado definido. Si bien los algoritmos forman parte central de las ciencias duras, son también el fundamento de la tecnología que usamos todos los días.

Algo que hace a los algoritmos una idea tan interesante es que, una vez que un algoritmo es diseñado e implementado, puede existir de manera autónoma, sin necesidad de un ser humano que esté ahí para monitorearlo o supervisarlo. Y esto los pone en un apartado especial, por encima de cualquier otra herramienta creada por la humanidad.

Es por esto que, según el Centre of Internet and Human Rights, hay tres razones por las cuales vale la pena cuestionar la naturaleza de estos algoritmos: su complejidad y opacidad, sus funciones como filtros de información y la toma subjetiva de decisiones.

La mayoría de la gente no se da cuenta de que son algoritmos quienes gobiernan el internet: los usuarios ni siquiera saben que existen. Son fórmulas que toman información y nos dan resultados, pero en la mayoría de los casos no sabemos siquiera cómo se llegó a esos resultados; o en otros casos estos algoritmos son tan complejos que, incluso aunque pudiéramos verlos, serían muy difíciles de entender. Son una caja negra que tiene entradas y salidas, pero cuyo funcionamiento es un misterio para la mayoría. Y a esto le podemos sumar que la mayoría de las veces se trata de algoritmos propietarios, que nadie más puede ver y cuyo funcionamiento es secreto.

El mejor ejemplo de esto es Facebook y su newsfeed. La página principal de Facebook de cada usuario es la manera en que sus millones de usuarios ven los contenidos que sus amigos, familiares, empresas y demás páginas dentro de la red social publican. Es tan omnipresente que la mayoría de las páginas debe gran parte de su tráfico (hasta el 40%) al newsfeed de Facebook. Este newsfeed es curado por un algoritmo que decide qué mostrar y qué no a cada usuario y es ajustado semanalmente por los ingenieros de Facebook tomando en cuenta «miles y miles de métricas». Aun así, la mayoría de los usuarios ni siquiera nos damos cuenta de que existe. Aunque es algo que muchos usamos todos los días, nadie sabe cómo funciona.

Ahora bien, si hablamos de los algoritmos como filtros, vale la pena, por ejemplo, ver la Ted Talk «Beware online filter bubbles» de Eli Pariser, en la que nos habla de cómo las compañías hacen un constante esfuerzo para que sus servicios estén «hechos a la medida» del usuario, incluyendo las noticias y los resultados de búsqueda. Cada que usamos Google, por ejemplo, el buscador no solo nos regresa los resultados esperados, sino que se da cuenta de qué tipo de sitios visitamos más, qué tipo de información consumimos más, cómo lo hacemos e incluso cómo y con quién la compartimos.

Con esta información, un complicado —y eficaz— algoritmo cada vez nos regresa información más afín con nuestros gustos; nos quedamos atrapados en una burbuja de filtros hecha a nuestra medida. Una prisión de información diseñada para nosotros mismos por un algoritmo. No nos vemos expuestos a información que desafíe nuestros puntos de vista o que nos podría ayudar a ampliar nuestra visión de la realidad.

Cabe ver que esta información personalizada representa también un beneficio para el usuario. Bien dice Matt Cutts, director del departamento contra el spam de Google: “La personalización es importante; si yo busco ‘bitcoin crash’ en Google no debería obtener la misma información que un experto en cripto-monedas, o que un entusiasta que no pudo compilar Bitcoin, o mi mamá, que no sabe siquiera qué es Bitcoin”. Y si bien puede verse como un pequeño sacrificio por el beneficio que representa, muchas veces el gran problema es que ni siquiera nos damos cuenta de que la información que tenemos enfrente ha sido personalizada para atender a nuestros gustos o necesidades, lo cual nos puede dar una visión errónea de la realidad.

Hay casos en los que los algoritmos toman decisiones subjetivas, como es el caso de Twitter y sus trending topics. Hubo discusiones, por ejemplo, acerca de si los hashtags usados por los movimientos de Occupy alrededor del mundo fueron desfavorecidos o incluso suprimidos de las búsquedas de Twitter. La red social usa un algoritmo para detectar trending topics llamado frecuencia de término –frecuencia inversa de documento–; en esencia el algoritmo filtra términos muy frecuentes como ruido de fondo. Para que algo sea un trending topic no solo tiene que tener muchas menciones, sino que toma en cuenta la frecuencia de las menciones, la localización geográfica y la interconexión de los usuarios que están usando el término.

Lo interesante de este algoritmo es que puede crear un loop de retroalimentación y hacer que ciertos términos se hagan todavía más populares. Además, estos algoritmos ayudan a crear públicos calculados. Crean una versión del público y se la presentan al público mismo, influyendo directamente en la manera en que se ven a sí mismos. Es una manera de decirle a los usuarios: estos son ustedes.

Esto crea una imagen irreal y viciada del público mismo en sus mentes: Twitter y sus trending topics (por poner un ejemplo) nos pueden llegar a presentar un reflejo irreal de nosotros como público. Puede ser tendencioso y nos puede dar ideas erróneas de nuestros pares en la red social, o de nosotros por formar parte de la misma. Si vemos algo que no somos, si nuestra retroalimentación es tendenciosa y errónea, las ideas que nacen de ella lo van a ser también. No solo estamos viendo un reflejo imperfecto, sino un reflejo que destaca ciertas características de nosotros que no son fieles a la imagen completa. Es aquí donde podemos llegar a preguntarnos: ¿en realidad soy eso que me están presentando?

Yo_Algoritmo01

(Ilustración: Curiousflux)

Y bien, si hablamos de algoritmos que afectan la vida de las personas, valdría la pena hablar de dos casos por demás interesantes: los automóviles inteligentes, que se podrían ver en un dilema moral casi en su día a día —tal como en ingeniosos cuentos de Asimov— y el creciente uso de herramientas autónomas de guerra, como los drones avanzados automatizados, las armas automáticas o las herramientas de inteligencia artificial para reunir inteligencia militar, que podrían llegar a quitar las decisiones de llevar a cabo  un ataque, o incluso una guerra, de las manos de los humanos que las crearon. Daniel Suarez, escritor de ciencia ficción contemporáneo, aborda la temática en sus novelas Daemon y Freedom (TM), además de ser el tema central de su novela Kill Decision, en la que se nota la preocupación a la hora de darle a un robot la capacidad de decidir sobre la vida humana. Su opinión y algunas reflexiones están en otra interesante plática del TED Global 2013.

Pero esto son solo ejemplos. ¿Qué hacer ante esta problemática, ante estos algoritmos opacos, filtros de información que van más allá del control de los simples mortales y que toman decisiones por nosotros?

La verdad es que nos estamos adentrando en un terreno desconocido. Así como a mediados de la década de 1990 adentrarse en internet era volver al Viejo Oeste americano —un mundo sin ley, que se consideraba peligroso y en el que cada quien se protegía como podía—, hoy estamos ante una problemática social nueva con el tema de los algoritmos y es importante intentar poner un poco de orden. Pero ¿cómo?

Stephan Noller habla de una solución relativamente sencilla para esto en su artículo “Why we need algorithm ethic: transparencia. “La transparencia es uno de los principios más importantes cuando queremos echar luz en este caos”, dice, argumentando que los algoritmos tienen que ser transparentes tanto en la manera en que son implementados como en la forma en que trabajan. Y Noller va un paso más allá, diciendo que los algoritmos deben ser públicos, así como la información que usan.

Y aquí es cuando las cosas se ponen interesantes; más allá de un problema ético se convierte en un problema de control. De nuevo, estamos ante el síndrome de Frankenstein: tenemos miedo de no saber que nuestros amados algoritmos se vuelvan en nuestra contra.

El problema de “transparentar los algoritmos” es que hay muchos intereses en juego. Imaginar a Google cediendo información concerniente a la manera en que trabaja su buscador es impensable, o simplemente el hecho de que guarden información personal de sus usuarios —que es la manera en que lucra— es considerado un crimen en muchos países.

Una de las ideas que vale la pena retomar es el derecho a ser anónimo o a la pseudonimidad. Buscadores como DuckDuckGo tienen políticas que los comprometen a no recolectar o compartir información personal de sus usuarios. Esto permite empoderar a sus usuarios, quienes reciben resultados de búsqueda no filtrados (o “personalizados”).  Encontrar una manera de regresarle el poder al usuario es un buen principio cuando hablamos de ética de los algoritmos.

Quizás la idea de Nollen de un  botón que regrese el control a los humanos (algo que está implementado en muchos prototipos de automóviles autónomos) es un paso en la dirección correcta, pero habrá que cuestionarnos más acerca de la ética de los algoritmos. Conforme estos crecen en complejidad y autonomía nos enfrentamos con muchos dilemas y hacer que estas herramientas tomen decisiones éticamente correctas se vuelve más y más difícil. Pero quizás ese no es el punto. Tal vez no queremos que los algoritmos hagan juicios éticos por nosotros. Tal vez lo que necesitamos es estar más conscientes de lo que estos algoritmos deciden y saber más acerca de cómo funcionan.

Y es que, si leemos los cuentos de Asimov —especialmente los que conforman el libro Yo, robot—, vemos que hay una pregunta que los ata a todos: ¿cómo podemos enseñarle a las máquinas a resolver dilemas éticos cuando muchas veces ni siquiera nosotros los podemos resolver?

Share on facebook
Share on twitter
Share on email
Share on facebook
Share on twitter
Share on whatsapp
Share on email

ARCHIVO

Shopping Basket