Facebook ordena a sus moderadores tolerar ciertos contenidos violentos

La filtración de sus normas internas destapa que permite muertes y maltrato no sexual a menores.

El mes pasado, un duro informe de todos los partidos del Parlamento británico alertó de la pasividad de Google, Twitter y Facebook ante la publicación de contenidos de odio, violencia, apología del terrorismo y abusos a menores que circulan impunemente por sus plataformas. “Han hecho poco menos que nada”, reprochaban los diputados.

Ahora una filtración de las normas internas de Facebook destapa que sus moderadores son instruidos para dejar pasar mensajes con muertes violentas, autolesiones, escenas de abortos y maltrato no sexual a menores.

El diario The Guardian accedió a la filtración de cien manuales con los que se instruye a moderadores que controlan los contenidos de Facebook. Su conclusión es que están “desbordados” y solo cuentan con unos segundos para decidir si un post es acto para aparecer en la red social o no. Algunos de los moderadores se quejan de que los criterios de la compañía son “inconsistentes”, “peculiares” y confusos.

La denuncia del diario pone de relieve una vez más el debate de fondo: Facebook es el mayor editor de información del mundo, pero su propietario, Mark Zuckerberg, se escuda en que es una mera plataforma para actuar de manera casi impune, sin observar las leyes contra el honor o la apología de la violencia y el terrorismo que sí obligan a la prensa tradicional.

Para entender el descontrol de lo que circula por Facebook basta el dato de que cuenta con 1.940 millones de usuarios en todo el mundo, pero solo dispone de 4.500 empleados para controlar el aluvión de información que circula por su red y evitar la publicación del material más escabroso. Cada día se publican 300 millones de fotos, un caudal que desborda a los 4.500 censores.

Los manuales de control que se filtraron señalan que algunas muertes violentas, abusos no sexuales a niños y autolesiones deben dejarse pasar. El argumento que da la compañía a sus empleados es que esos contenidos pueden servir de llamada de atención, poner la lupa sobre problemas de salud mental y ser una fuente informativa de valor.

Sobre la publicación de autolesiones, señala que puede ser un modo de que los amigos de ese usuario descubran que tiene un problema y puedan ayudarlo.

En los casos de apología del terrorismo, sí ordenan que se retiren los mensajes, fotos y videos que apoyan a líderes y organizaciones terroristas, pero se pueden dejar siempre que estén acompañados de algún comentario crítico. También se ordena que se borren amenazas contra personas concretas.

Ante el desnudo, Facebook se muestra más restrictivo que contra la violencia. Solo se permite si existe una justificación artística. En su día fue polémica su absurda decisión de retirar una de las fotografias más icónicas del siglo XX, la niña quemada con napalm en Vietnam, con el argumento de que aparece semidesnuda.

En respuesta a la polémica que levantó la filtración de sus laxas normas de publicación, Facebook anunció que contratarán 3.000 moderadores más. Los controladores trabajan desde sus domicilios particulares.

reglas de moderadores