Facebook no pudo detener los anuncios que amenazaban a los trabajadores electorales

Facebook dice que no permite contenido que amenace con violencia grave. Pero cuando los investigadores enviaron anuncios que amenazaban con “linchar”, “asesinar” y “ejecutar” a los trabajadores electorales alrededor del día de las elecciones de este año, los sistemas de moderación en gran parte automatizados de la empresa aprobaron muchos de ellos.

De los 20 anuncios enviados por investigadores que contenían contenido violento, 15 fueron aprobados por Facebook, según una nueva prueba publicada por Global Witness, un grupo de vigilancia, y Cybersecurity for Democracy de la Universidad de Nueva York. Los investigadores eliminaron los anuncios aprobados antes de que se publicaran.

Diez de los anuncios de prueba se enviaron en español. Facebook aprobó seis de esos anuncios, en comparación con nueve de los 10 anuncios en inglés.

TikTok y YouTube rechazaron todos los anuncios y suspendieron las cuentas que intentaron enviarlos, dijeron los investigadores.

Las pruebas subrayaron los desafíos que enfrentan las redes sociales para moderar el contenido cada vez más partidista y violento en torno a las elecciones, especialmente porque los trabajadores electorales enfrentan amenazas adicionales de los que niegan las elecciones y los extremistas de extrema derecha. El Departamento de Justicia y otras agencias federales advirtieron antes de las elecciones intermedias de este año que habían aumentado las amenazas contra los trabajadores electorales.

En un comunicado, un portavoz de Meta, la empresa matriz de Facebook, dijo que luego deshabilitó varias cuentas que habían enviado los anuncios. La compañía también dijo que los anuncios continúan siendo revisados ​​​​después de su publicación.

“Esta es una pequeña muestra de anuncios que no son representativos de lo que la gente ve en nuestras plataformas”, dijo el portavoz en un comunicado. “El contenido que incita a la violencia contra los trabajadores electorales o cualquier otra persona no tiene cabida en nuestras aplicaciones, y los informes recientes han dejado en claro que la capacidad de Meta para abordar estos problemas supera efectivamente la de otras plataformas”.

La investigación se suma a las pruebas anteriores realizadas por los mismos grupos, incluida una este año en la que se presentaron 20 anuncios que contenían información política errónea. En esa prueba, Facebook aprobó solo dos de los 20 anuncios engañosos, mientras que TikTok aprobó alrededor del 90 por ciento de ellos. YouTube suspendió la cuenta que intentó enviar los anuncios.

Pero esta ronda usó un lenguaje más abierto que probó el sistema de moderación en gran parte automatizado de Facebook. Entre ellos se incluían amenazas directas de violencia, que procedían de declaraciones reales de los que niegan las elecciones y otros extremistas de extrema derecha en los Estados Unidos. Un anuncio, que fue aprobado por Facebook, decía: “Los vamos a matar a todos”. También se aprobó otro anuncio que amenazaba con abusar de los niños.

“Fue realmente impactante ver los resultados”, dijo Damon McCoy, profesor asociado de la Universidad de Nueva York. “Pensé que una búsqueda de palabras clave realmente simple habría marcado esto para revisión manual”.

En un comunicado, los investigadores también dijeron que querían que las redes sociales como Facebook aumentaran los esfuerzos de moderación de contenido y ofrecieran más transparencia en torno a las acciones de moderación que realizan.

“El hecho de que YouTube y TikTok lograron detectar las amenazas de muerte y suspender nuestra cuenta, mientras que Facebook permitió que se publicaran la mayoría de los anuncios muestra que lo que estamos pidiendo es técnicamente posible”, escribieron.