El medio The Guardian exhibe cómo Facebook modera las publicaciones de sus más de 2 mil millones de usuarios. La red social ha sido duramente criticada por su contenido violento, sexual, racista y que incita al odio o hace apología del terrorismo. Y es conocida como “el mayor censor del mundo” por polémicas como la de “la niña de napalm”, pero en la plataforma social abundan los temas sensibles, incluyendo discursos de odio, porno por venganza, autolesiones, suicidio, canibalismo y amenazas de violencia que ponen en riesgo la vida y la salud mental de toda la sociedad.
De acuerdo con Rory Cellan-Jones, especialista en temas de tecnología de la BBC Mundo, los moderadores de la red social se encuentran sobrepasados y tienen sólo unos segundos para decidir si dejar o no un post de los usuarios.
“Ha sido obvio desde hace algún tiempo que lidiar con el contenido controversial es uno de los retos más grandes que enfrenta Facebook”, afirma Cellan-Jones.
Las revelaciones de los manuales de moderación de contenido no hacen otra cosa que encender las alarmas y avivar los debates para que la compañía de Mark Zuckerberg redoble los esfuerzos en aras de la seguridad de los usuarios, sobretodo de los menores de edad.
La niña del napalm
La polémica por la censura a la fotografía de la niña del napalm por estar desnuda, ganadora del Premio Pulitzer, hizo que Facebook cambiara sus criterios sobre desnudez y ahora permite “excepciones noticiosas”, pero el debate sigue pues esta nueva categoría no incluye imágenes de “desnudez infantil en el contexto del Holocausto”.
Pero sí permite el arte “manual” que muestre desnudos o actividad sexual, pero prohíbe sus representaciones digitales.
Criterios confusos
Mucho se ha insistido en que los padres deben estar al pendiente del contenido que ven sus hijos en las redes sociales y estas revelaciones ponen de manifiesto que los criterios usados por Facebook para decidir qué eliminar y qué no, ponen en entredicho la “seguridad” de quienes la usan. Aquí algunos de los lineamientos por los que se rige Facebook para “proteger” a su comunidad:
>> “No todo el contenido desagradable o perturbador viola los estándares de la comunidad (…)”
>> “Los videos de muertes violentas, deben ser marcados como ‘perturbadores’, pero no siempre tienen que ser borrados porque ‘ayudan a crear conciencia’ sobre temas como problemas mentales”
>> “Algunas fotos de abuso físico y ‘matoneo’ de menores, de carácter no sexual, no tienen que ser borradas (…), a menos que haya un elemento sádico o de celebración”
>> “Las fotos de maltrato de animales también pueden ser compartidas en Facebook ‘para generar conciencia’ y sólo las más extremas deben ser marcadas como ‘perturbadoras’
>> “La red social permite ‘exhibiciones moderadas de sexualidad, besos con la boca abierta, simulación de sexo con ropa y actividad sexual pixelada’ entre adultos”
>> Facebook también permite otras aseveraciones generales como “voy a comerme esa panocha”: y “hola señoritas, ¿quieren chuparme el pito?” (sic)
>> Asimismo, las referencias sexuales que tengan “contexto divertido” son bienvenidas
Facebook se ha convertido en una red social referencia como estrategia de social media marketing, canal de comunicación para millones de usuarios y modelo de negocio que ha marcado una pauta sumamente importante en el mercado tecnológico.
“Trabajamos duro para hacer que Facebook sea tan seguro como sea posible, mientras posibilitamos la libertad de expresión”, dijo, por su parte, en un comunicado, Monica Bickert, directora de políticas globales de Facebook a principios de mayo cuando, luego de las críticas de un comité parlamentario británico, Facebook anunció que había contratado a 3 mil personas para que revisaran sus contenidos.
La ONG británica Asociación Nacional para la Protección de la Crueldad con los Niños, dijo que el reporte sobre los criterios de Facebook publicado por The Guardian era “cuando menos alarmante. Necesitan hacer mucho más que contratar a 3 mil moderadores”.
El Grupo de Derechos Abiertos, que trabaja temas de derechos digitales, explicó que el reporte demuestra la gran influencia que Facebook puede tener sobre sus millones de usuarios.
“Las decisiones de Facebook sobre qué es y no es aceptable tienen grandísimas implicaciones para la libertad de expresión”, dijo la ONG en un comunicado.
La filtración
The Guardian afirma haber obtenido más de 100 manuales usados internamente por Facebook para entrenar a sus moderadores de contenido acerca de lo que se puede y no se puede publicar en la plataforma, detalla BBC Mundo.
Todo ello como parte de una investigación que lleva a cabo el diario británico sobre la red social, por medio de la cual accedió a diagramas de flujo, manuales de entrenamiento y hojas de cálculo usadas por la plataforma.