Internet y los nazis

La escalada de discursos filofascistas en línea trae a la discusión la responsabilidad de las plataformas y sus usuarios en la propagación de mensajes de odio. Para Antonio Martínez por ahora el mejor antídoto es el contradiscurso y no la censura.

| Internacional

En los años noventa, Mike Godwin, de la Electronic Frontier Foundation,  acuñó una máxima para las conversaciones en línea: «A medida que una discusión en línea se alarga, la probabilidad de que aparezca una comparación en la que se mencione a Hitler o a los nazis tiende a uno». Cuando aparece Hitler, perdiste el argumento. Con la escalada en el discurso nazi en línea habría que observar la cantidad de perdedores que tejen redes alrededor de ese discurso.

Grupos filofascistas viven en la red desde el siglo pasado. Blogs y grupos dedicados a esparcir propaganda se han desarrollado en distintas plataformas de la web. En general, no se les puede detener. Por estructura, los contenidos se crean en los bordes y a las plataformas no se les requiere verificar el contenido. La sección 230 de la Communications Decency Act brinda salvaguardas a los intermediarios para no ser responsables legales del contenido de sus plataformas. De tal forma que WordPress no es responsable del contenido de blogs y páginas, ni los administradores de los mismos son responsables de los comentarios en las entradas. Este modelo ayudó al crecimiento de los servicios en la web y con ello se puede explicar, en parte, el florecimiento de plataformas como Facebook o Google. Con los años se han ido agregando restricciones a estas salvaguardas vinculadas con temas de pornografía infantil y derechos de autor.

El paradigma está por transformarse. La fórmula legal y práctica de la no responsabilidad de intermediarios se ha vuelto disfuncional: se les ha solicitado que intervengan de forma legal en asuntos de distinta naturaleza y, en la práctica, al conformarse en monopolios, las empresas proactivamente tienen que hacerse responsables de lo que ocurre en sus plataformas. No es casual que Facebook poco a poco deje de ser un simple repositorio del contenido de sus suscriptores para convertirse en un productor cada vez más agresivo de contenido.

El problema de las soluciones de control de discurso en plataformas privadas de internet es el volumen de los casos y el alto grado de equivocación. Por ejemplo, los esfuerzos para eliminar la propaganda terrorista en Youtube han llevado al cierre de canales que documentan las atrocidades del terrorismo. ¿Cómo distinguen estas plataformas esas diferencias? No se sabe. Lo cierto es que los videos en muchas ocasiones son los mismos, la diferencia reside en el tratamiento de cada uno. Las plataformas deben tener el derecho de alojar o rechazar cualquier contenido que deseen. El verdadero dilema es que cada vez más gente ‒incluyendo políticos‒ exige que estas plataformas regulen, filtren y moderen el contenido de su plataforma para eliminar el «mal» discurso. ¿Cómo asegurar que Middle East Eye, Bellingcat o Airwars puedan informar sin ser censuradas?

La defensa de la libertad de expresión debe hacerse sin ambages. Resulta preocupante lo que significa para esta misma confiar en los intermediarios para que «permitan» que un discurso se produzca. Al mismo tiempo, reconozco que las plataformas tienen sus propios derechos de libertad de expresión a la hora de moderar qué contenido aparece en ellas. Y también que no tener moderación en absoluto conduce a que sean superadas y se vuelvan inútiles ‒comenzando con el spam‒ y, si una plataforma se hace lo suficientemente grande, que el comportamiento troll u otro comportamiento inmaduro aíslen el debate más inteligente. Esto es diferente de argumentar que cierto discurso no debe decirse o no se debe permitir que se diga.

Los monopolios digitales están alcanzando un límite en su capacidad de gestionar problemas sociales. La privatización del ejercicio de derechos es la norma para miles de millones. Dos caminos podrían comenzar a solucionar el problema a nivel internet. El primero, descentralizar y distribuir las plataformas por medio de protocolos, esto es: que se pueda publicar el contenido donde se quiera, incluyendo las plataformas creadas por cada usuario. Las compañías solo actuarían como fuentes centralizadas para curar y conectar ‒y podría ser hecho de diferentes maneras por distintas compañías‒. El segundo, expropiar colectivamente monopolios como Google, Facebook y Twitter de manera que cada usuario fuera dueño de una parte de la compañía y, por lo tanto, de su gestión: una suerte de cooperativa pública global que se ajustara a las normas del derecho internacional en lugar de a los caprichos de sus dueños.

Los nazis continuarán reuniéndose en línea. Los usuarios de internet tenemos filtros ampliamente disponibles para ignorarlos que no son suficientes. El problema de la privatización del ejercicio de derechos continuará hasta que no se tomen soluciones radicales. De momento, el mejor antídoto sin censurar parece el «contradiscurso». Esto, por supuesto, no soluciona el conflicto, pero parece una solución mejor que esperar que unas cuantas compañías imaginen como por magia cómo convertirse en benévolos dictadores que nos permitan ejercer derechos en sus plataformas.

Artículos relacionados