Filtros de discurso de odio de Facebook están poniendo en desventaja a minorías
Las muestras de racismo en Estados Unidos desde que Donald Trump ocupó la oficina oval han ido en aumento. Era predecible que la discriminación hacia las razas distintas a la blanca volvería tomaría fuerza. Facebook, la red social más importante de la actualidad se ha visto en aprietos para regular los contenidos que se difunden a través de su red, y cada vez se conocen más casos de denuncias que Facebook elimina al confundirlas con mensajes de odio o inapropiados.
Indigo StaffLas muestras de racismo en Estados Unidos desde que Donald Trump ocupó la oficina oval han ido en aumento. Era predecible que la discriminación hacia las razas distintas a la blanca volvería tomaría fuerza. Facebook, la red social más importante de la actualidad se ha visto en aprietos para regular los contenidos que se difunden a través de su red, y cada vez se conocen más casos de denuncias que Facebook elimina al confundirlas con mensajes de odio o inapropiados.
Francie Latour, una mujer negra quiso compartir su testimonio en Facebook sobre su desagradable encuentro con un racista que profirió insultos hacia sus hijos pequeños en voz baja. Luego de unos minutos de hacer su publicación, la red borró su denuncia por contener expresiones racistas.
El mensaje explicaba a detalle las frases que el hombre había dirigido a los niños, explica el Washington Post, sin embargo, los filtros de Facebook detectaron las expresiones violentas por lo que mandó a Latour un mensaje en el que le decía que su publicación “violaba los estándares de la compañía”.
Antes de que pasaran 24 horas, su publicación fue restaurada acompañada de un mensaje que refería que la eliminación había sido un error del equipo.
Recomendado: Censura en Facebook, ¿relacionada con el tono de piel?
Ya varias situaciones han puesto en entredicho la capacidad de Facebook de regular los contenidos que sus usuarios comparten en la red. Sus esfuerzos para mantener la red como un lugar seguro parecen no estar rindiendo frutos, ya que como ejemplifica este caso, en lugar de proteger a la comunidad en desventaja difundiendo su denuncia, la censura.
Mark Zuckerberg, fundador de Facebook ya había pronunciado su intención de mejorar los estándares de seguridad para no difundir mensajes perjudiciales y promover el uso de la red para construir comunidad. Pero el método de borrar los mensajes con palabras violentas está provocando que las víctimas no puedan expresar libremente lo que le ocurre.
Este método borra los mensajes por igual sin detenerse a identificar si se trata de un insulto o de una denuncia. Este conflicto podría incluso entrar en el debate de la libertad de expresión.
En su blog, hace unos días Facebook manifestó que sus reglas existen para que cada vez que la gente ingrese a la plataforma se sienta bienvenida y a salvo, sin embargo, aceptó la compañía: “es claro que no somos perfectos cuando se trata de hacer cumplir nuestra política. A menudo hay llamadas cercanas y con mucha frecuencia nos equivocamos”.
Recomendado: Así trabaja Facebook para eliminar contenidos violentos
Si para regular este tipo de publicaciones no se ocupan recursos humanos, es difícil que haya una distinción más precisa de cuándo se trata de un insulto y cuándo de una denuncia. Según Facebook contratará hasta tres mil moderadores más en este año para que sumen 7,500.
También ha ocurrido que al momento en que los usuarios buscan retomar algún mensaje para señalar que se trata de una publicación discriminatoria, Facebook no lo permite y una vez más funge como obstáculo.
Al no encontrar manera de contrarrestar esto, algunos usuarios han optado por usar distintas palabras para referirse a la gente blanca como ‘wypipo’ y evitar ser ‘arrestados’ en la cárcel de Facebook, que puede llegar a bloquear al usuario hasta un día.
A principios de año se redactó una carta dirigida a Zuckerberg, en la que se señalaba lo contraproducentes que estaba resultando los filtros de discurso para las minorías y pedía que se arreglaran las medidas basadas en la raza. Se pidió un sistema que permita apelaciones, más transparencia y una explicación a las publicaciones que se eliminen.
Recomendado: Facebook llega a los 2 mil millones de usuarios
Facebook, al convertirse en uno de los espacios comunes más importantes de la época tiene la responsabilidad de fungir como mediador y apoyar la búsqueda de justicia. La tarea no es sencilla pero como dice la famosa frase: “Con gran poder viene gran responsabilidad”.
La compañía ha hecho diferentes declaraciones sobre en qué se basa para eliminar las publicaciones, como que prohibe los ataques hacia las personas por raza, género, sexo, preferencias sexuales o discapacidades. Sin embargo nunca ha quedado claro cuáles son los estándares.