Las plataformas en línea luchan como moderadores de contenido en escasez en medio de coronavirus – National

Mientras que cientos de miles de empresas en todo el país han visto cómo el trabajo se detiene en medio de COVID-19, Chris Priebe está experimentando lo contrario.

El propietario de Two Hat, una empresa de moderación de contenido basada en inteligencia artificial con sede en Kelowna, BC, nunca ha estado más ocupado ayudando a los clientes, incluidas las marcas de juegos Nintendo Switch, Habbo, Rovio y Supercell, a examinar miles de millones de comentarios y conversaciones e identificar y eliminar rápidamente cualquier cosa. perjudicial para los usuarios.

“Procesamos 60 mil millones el mes pasado. Solía ​​ser de 30 mil millones. Así de malo es el coronavirus. Eso es al menos el doble del volumen normal ”, dijo Priebe en abril, antes de que los volúmenes de procesamiento mensuales llegaran a los 90 mil millones.

LEE MAS:
Facebook elimina eventos sobre protestas contra las medidas COVID-19 en algunos estados de EE. UU.

“(Las plataformas) enfrentan, en algunos casos, 15 veces el volumen. ¿Cómo pueden cuidar a su audiencia? Porque eso no significa que los ingresos hayan aumentado 15 veces o que puedan darse el lujo de contratar a tantas personas más “.

La historia continúa debajo del anuncio

Priebe no está solo en la lucha por mantener seguras las plataformas en línea, de redes sociales y de juegos en medio de COVID-19. Empresas como Facebook, Instagram, Twitter, YouTube y Google han advertido a los usuarios desde al menos abril que están experimentando una escasez de moderadores de contenido, lo que provoca un retraso en la eliminación de publicaciones dañinas.

Las apuestas son altas. Un número récord de personas en todo el mundo pasan más tiempo en casa en sus plataformas favoritas, desafían a los servidores y convierten los servicios de mensajería, las redes sociales y las secciones de comentarios en un salvaje oeste.

La situación ha aumentado las preocupaciones de los expertos en privacidad sobre la difusión de información errónea y la probabilidad de que los usuarios tropiecen con el discurso de odio, la pornografía, la violencia y otros contenidos dañinos.






Trump amenaza las plataformas de redes sociales después de que Twitter etiqueta los tweets con la etiqueta de verificación de hechos


Trump amenaza las plataformas de redes sociales después de que Twitter etiqueta los tweets con la etiqueta de verificación de hechos

“Unas pocas personas están bastante insatisfechas con el proceso de moderación de contenido tal como está … y luego agregan esta pandemia … Están viendo un gran aumento en el comportamiento de acoso y comportamiento problemático y luego el contenido se mantiene por más tiempo”, dijo Suzie Dunn , un profesor de la Universidad de Ottawa que se especializa en la intersección de tecnología, igualdad y derecho.

La historia continúa debajo del anuncio

“Es un verdadero desafío porque los moderadores de contenido son un poco como los trabajadores de primera línea. Son un servicio esencial que necesitamos tener en un momento como este, por lo que esperamos ver más moderadores de contenido trabajando “.

[ Sign up for our Health IQ newsletter for the latest coronavirus updates ]

Sin embargo, a diferencia de los trabajadores de otros sectores que han estado trabajando desde su casa desde que llegó la pandemia de COVID-19, tal cambio es difícil para muchos moderadores de contenido, ya que sus trabajos tratan con imágenes e idioma que no querrían que los niños u otros miembros de la familia capten vistazo de.

“Es posible que algunos de ellos no puedan trabajar en ciertas cosas en las que trabajarían en la oficina”, dijo a la prensa canadiense Kevin Chan, jefe de políticas públicas de Facebook Canadá.

LEE MAS:
Las madres pelean en persona por el argumento de Facebook sobre el coronavirus

“Están analizando cosas potencialmente privadas y sensibles que se les han informado y debemos asegurarnos … de que estas cosas puedan tratarse de la manera segura y privada que se merecen”.

Los empleados de Facebook a tiempo completo han dado un paso adelante y están asumiendo parte del trabajo de moderación, incluso de contratistas que no pueden tener contenido patentado y sensible en el hogar. Estos trabajadores están lidiando con contenido relacionado con “daños en el mundo real” como la seguridad infantil y el suicidio y las autolesiones.

“No hay duda de que esto planteará desafíos en la medida en que podamos ser tan receptivos”, dijo Chan.

La historia continúa debajo del anuncio

Para lidiar con la situación, Facebook ha implementado medidas destinadas a frenar el flujo de información errónea de COVID-19 y se centra en eliminar y eliminar el contenido relacionado con el terrorismo y cualquier cosa que incite a la violencia o se vincule con personas y organizaciones “peligrosas”.






Presentación de las redes sociales a los niños durante la crisis de COVID-19


Presentación de las redes sociales a los niños durante la crisis de COVID-19

En Twitter, el aprendizaje automático y la automatización se están utilizando para ayudar a la compañía a revisar los informes que tienen más probabilidades de causar daños primero y para ayudar a clasificar el contenido o “desafiar” las cuentas automáticamente.

“Si bien trabajamos para garantizar que nuestros sistemas sean consistentes, a veces pueden carecer del contexto que traen nuestros equipos, y esto puede provocar que cometamos errores”, dijo Twitter en un blog. “Como resultado, no suspenderemos permanentemente ninguna cuenta basada únicamente en nuestros sistemas de aplicación automatizados”.

Google también ha aumentado su dependencia de los sistemas basados ​​en máquinas para reducir la necesidad de que las personas trabajen desde la oficina y dijo que el aumento de la automatización tiene muchas desventajas, incluido un aumento potencial en el contenido clasificado para la eliminación y tiempos de respuesta más lentos para las apelaciones.

La historia continúa debajo del anuncio

“No siempre son tan precisos o granulares en su análisis de contenido como los revisores humanos”, agregó un blog de Google publicado en marzo.

LEE MAS:
Johnny Depp se une a Instagram y llama al coronavirus el “enemigo invisible”

Este es un sentimiento que Priebe ha encontrado muchas veces, pero tiene un contraargumento: “La IA no es perfecta pero … los humanos tampoco son perfectos”.

Da el ejemplo de un niño que juega un juego en casa durante la pandemia, cuando los pedófilos pueden estar más activos en línea e intentar contactar a los jóvenes.

“Tienes tres humanos diferentes que miran la misma conversación y no te van a dar la misma respuesta. Algunos lo llamarán aseo y otros no “, dijo Priebe.

Priebe cree que un sistema ideal combina humanos e inteligencia artificial porque este último es bueno para saber qué hacer con casos obvios, como cuando el contenido de un usuario se marca casi una docena de veces en un corto período de tiempo o cuando alguien recibe un mensaje que solo lee hola y pulsa el informe solo para ver qué hace el botón.






Coronavirus busca tendencia en Twitter ya que los expertos recomiendan apegarse a fuentes creíbles


Coronavirus busca tendencia en Twitter ya que los expertos recomiendan apegarse a fuentes creíbles

“No es necesario que un humano tenga que mirar su pantalla y mirar este contenido absolutamente sexual frente a sus hijos que se escondieron detrás de ellos porque la inteligencia artificial va a ganar cada vez con eso”, dijo.

La historia continúa debajo del anuncio

“Dejemos que los humanos hagan lo que los humanos hacen bien, que es lidiar con esa categoría media de cosas que son subjetivas, difíciles o difíciles de entender, sobre las cuales la IA no confía”.

Independientemente de cómo se haga la moderación, algunas cosas siempre pasarán desapercibidas, especialmente en una pandemia, dijo Dunn.

“Ningún sistema es perfecto”.

© 2020 The Canadian Press

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí