Meta y la ilusión de la moderación: ¿retroceso o estrategia?

El pasado enero, me entrevistaron en Radio Francia Internacional para hablar sobre los cambios de Meta (Facebook) en su enfoque de verificación de hechos y discutir la moderación de plataformas y el diálogo en la esfera digital. Hay dos aspectos clave a considerar.

En primer lugar, la calidad de la verificación de hechos y sus consecuencias.

Esta decisión pone de manifiesto que moderar comentarios no es una tarea sencilla. ¿Quién decide qué se censura o permite? ¿Bajo qué criterios? ¿Dónde están los límites de la libertad de expresión?

Cuando Facebook asumió el papel de moderador, también aceptó una responsabilidad social mucho más compleja de lo que había previsto. La automatización de la moderación, basada en la eliminación algorítmica de publicaciones, trajo problemas adicionales. Lo que parecía una solución simple, como programar palabras clave, se convirtió en un desafío económico costoso, con anunciantes obligados a invertir tiempo y dinero en correcciones innecesarias. Es fundamental recordar que, para Meta, la audiencia es el producto y los anunciantes son los clientes.

En segundo lugar, el problema no es la moderación en sí misma, sino el fracaso de Meta en asumir su responsabilidad social.

Este cambio parece un intento de regresar a los primeros años de la plataforma, cuando se definía como un foro de opinión y dejaba la moderación en manos de la comunidad. Basta revisar el artículo fundamental The Politics of ‘Platforms’ (2010) de Tarleton Gillespie para comprender mejor el trasfondo de este debate.

En los últimos años, organizaciones y activistas han trabajado arduamente para exigir que las plataformas rindan cuentas. No podemos aceptar que Meta se desvincule de su responsabilidad solo porque declara estar dando un paso atrás.

La función Community Notes permite a los usuarios aclarar o corregir información en el contenido compartido. Aunque en principio esto puede parecer una iniciativa positiva, sigue existiendo un problema de fondo: ¿qué algoritmo decide qué notas serán más visibles y cuáles recibirán más apoyo?

Este modelo le ofrece a Meta un doble beneficio. Por un lado, traslada la responsabilidad de la moderación a los usuarios, evitando asumir directamente las consecuencias. Por otro, aprovecha el trabajo no remunerado de la comunidad para perfeccionar su sistema, ofreciendo a los participantes incentivos en forma de visibilidad y autoridad.

Meta no se está volviendo más neutral, sino que está haciendo su moderación más discreta y rentable, al tiempo que genera aún más datos.

En un momento en el que el debate público está centrado en la inteligencia artificial, este anuncio nos recuerda que los dilemas sociales en torno a las plataformas digitales, la economía de plataformas y su rol en la sociedad siguen sin resolverse.

Aquí puedes escuchar la entrevista

Author: Caracoliebre

Siempre a dos velocidades. Entre el salto hacia el futuro de las nuevas tecnologías y el avance cauto para observar, analizar y seguir adelante.

Leave a Reply

Your email address will not be published. Required fields are marked *