Auditar los algoritmos: cómo combatir la desinformación sin caer en el Ministerio de la Verdad

Manifestante con un cartel sobre Fake News.
Sin comentarios Facebook Twitter Flipboard E-mail

Las noticias falsas y los bulos no son algo nuevo, pero puede que sí lo sea la medida en que millones de personas los han adoptado. Solo en el último año, hemos visto a los teóricos de la conspiración sabotear la vacuna contra el Covid, diseñar una narrativa de fraude electoral falsa y alentar una protesta en el Capitolio estadounidense. El 30% de los republicanos tiene una opinión favorable de QAnon, según una encuesta de YouGov. Más del 70% de los republicanos creen que Trump ganó legítimamente las elecciones y el 40%, de los estadounidenses creen en la teoría infundada de que el Covid se fabricó en un laboratorio chino.

Algunos expertos abogan por crear Comisiones de la Verdad que pongan orden en este ecosistema de información confuso donde las mentiras corren a sus anchas. Otra opción es adoptar un Ministerio de la Verdad —al puro estilo 1984— que impulse cambios en la estructuración de contenido de las plataformas. Y una última solución, quizás menos invasiva, pasa por auditar los algoritmos de las tecnológicas, nido de gran parte de los bulos en Internet.

Cuando el Estado cree que debe imponer el Ministerio de la Verdad

Con su introducción se actuaría contra esa desinformación y ayudaría a mejorar y aumentar la transparencia con respecto al origen de la desinformación y a la manera en la que se produce y difunde, además de evaluar su contenido. Para esclarecer los hechos del Capitolio, por ejemplo, algunos opinan que se debería crear una Comisión de la Verdad, al igual que se hizo con la Comisión del 11-S, que ayudara a investigar la planificación y ejecución de este tipo de actos.

Esta misma categoría también plantea algo más constante en el tiempo, un Ministerio de la Verdad. Es la creación de un grupo de trabajo interinstitucional que aborde directamente todos los tipos de desinformación y el extremismo nacional, en lugar de trabajar en procesos separados o por comisiones, y que estaría dirigido por algo así como un "zar de la realidad", aunque pueda sonar algo distópico.

Este grupo de trabajo se reuniría regularmente con plataformas tecnológicas e impulsaría cambios estructurales que podrían ayudar a esas empresas a abordar sus propios problemas de extremismo y desinformación. Por ejemplo, podría formular exenciones de "puerto seguro" que permitirían a las plataformas compartir datos sobre QAnon y otras comunidades con investigadores y agencias gubernamentales sin infringir las leyes de privacidad.

Algo similar a lo que planteó el Ayuntamiento de Madrid de la exalcaldesa Manuela Carmena cuando lanzó una web dentro de su portal oficial llamado Versión Original. El objetivo de esta herramienta era desmentir todas las noticias en las que se aludía a la gestión municipal y que se consideraban parciales o erróneas. Algo así como un listado de rectificaciones en afirmaciones que se hacían en los medios o bulos que se extendían en redes sociales para defenderse de las noticias falsas o no matizadas, trabajo que hasta ahora venían haciendo algunos periodistas.

El problema es que esa evaluación de contenido, y que los órganos identifiquen una información como falsa y actúen en consecuencia (como en el hipotético caso de un Ministerio de la Verdad) podría suponer la posibilidad de ejercer un tipo de censura. Cabe señalar que para el secuestro de publicaciones sí se exige una resolución judicial. Por tanto, surge el debate de si tomar acciones de este tipo podría emplearse para limitar el derecho de libertad de expresión en alguna de sus formas.

Por qué auditar algoritmos puede ser el futuro

Pero hay otros caminos, quizás menos invasivos, para evitarnos un Ministerio de la Verdad. Algunos expertos como Joan Donovan, directora de investigación del Centro Shorenstein de Medios, Política y Política Pública de la Universidad de Harvard, recomiendan que se impulse una mayor transparencia en el funcionamiento interno de los algoritmos de "caja negra" que utilizan Twitter, Facebook, YouTube y otras plataformas importantes para clasificar su contenido, recomendar publicaciones y conducir a los usuarios a grupos privados, muchos de los cuales han sido responsable de amplificar las teorías de la conspiración y las opiniones extremistas.

"Debemos abrir el capó en las redes sociales para que los abogados de derechos civiles y las organizaciones de vigilancia real puedan investigar los abusos de los derechos humanos habilitados o amplificados por la tecnología", decía Donovan.

Un proyecto de ley presentado el año pasado por dos demócratas de la Cámara, los representantes Anna G. Eshoo de California y Tom Malinowski de Nueva Jersey, podría ayudar a contener parte del daño. La Ley de Protección a los Estadounidenses de Algoritmos Peligrosos enmendaría la Sección 230 de la Ley de Decencia en las Comunicaciones para eliminar la inmunidad legal de las grandes plataformas tecnológicas para el contenido violento o que incite a la violencia que amplificaron sus sistemas de clasificación y recomendación.

Pero es posible que ni siquiera necesite una legislación para que estas empresas se abran. El año pasado, bajo la amenaza de una ruptura forzada, TikTok se comprometió a permitir que los expertos examinaran su algoritmo para demostrar que no estaba manipulando maliciosamente a los usuarios estadounidenses. Dados sus problemas antimonopolio actuales, otras redes sociales podrían responder a un empujón similar en la dirección de la transparencia.

En el Reino Unido, el Comité de Democracia y Tecnologías Digitales de la Cámara de los Lores publicó un informe para que el gobierno del Reino Unido tomara medidas contra la "pandemia de desinformación". Entre otras recomendaciones se encuentran las solicitudes para responsabilizar a las grandes plataformas, específicamente Google y Facebook, de sus algoritmos de "caja negra", que controlan qué contenido se muestra a los usuarios. Creen que dichas compañías no pueden negar que sus decisiones en la configuración y entrenamiento de los algoritmos hayan resultado en daños y perjuicios en temas de importancia. Por eso, instan a que estas empresas deben tener la obligación de realizar auditorías de sus algoritmos, y destapar a las instituciones cómo son las autopistas de su información.

Imagen: Unsplash

Newsletter de Xataka

Suscríbete a "Xatakaletter", una forma distinta de informarte cada semana de la actualidad tecnológica hecha con pasión por el equipo de Xataka.
Comentarios cerrados
Inicio