Facebook ha prometido contratar a miles de moderadores para vigilar materiales violentos e ilegales después de críticas generalizadas a la red social por la falta de censura en el contenido.
Mark Zuckerberg dijo que la red social agregará 3,000 moderadores, casi duplicando el número de personas empleadas para revisar material terrorista, videos de explotación infantil y discurso de odio.
Esto ocurre después de que Facebook y otras empresas de tecnología permitieron que material ilegal se propagara en línea, llegando potencialmente a audiencias de millones de personas.
La compañía también ha sido criticada por difundir videos espantosos, que a menudo toman horas para ser eliminados de su sitio web. La semana pasada un hombre en Tailandia transmitió en vivo el asesinato de su hija en Facebook, alcanzando 370,000 reproducciones antes de ser desconectado casi 24 horas después.
Facebook ha insistido en que está comprometido a abordar el contenido ilegal, pero la nueva inversión es una indicación de que podría estar haciendo más. La red social, que tiene casi 2 mil millones de usuarios, recibe millones de informes cada semana sobre mensajes ilegales o ofensivos.
Zuckerberg dijo que Facebook facilitará a los usuarios el reporte de videos y trabajará más estrechamente con la policía. Dijo que la compañía ha estado “reflexionando sobre cómo podríamos hacerlo mejor para nuestra comunidad”.
Si vamos a construir una comunidad segura, tenemos que responder rápidamente. Estamos trabajando para hacer que estos videos sean más fáciles de reportar para que podamos tomar la acción correcta antes – ya sea que responda rápidamente cuando alguien necesita ayuda o dar de baja alguna publicación.
Zuckerberg se refirió específicamente a incidentes en los que videos violentos se publicaron o se transmitieron en vivo: El incidente en Tailandia ocurrió unos días después de que un hombre en Cleveland publicó un video de sí mismo asesinando a un hombre de 74 años, y luego se jactó sobre el video en Facebook Live.
Sin embargo, Zuckerberg añadió que los moderadores también responderán a los mensajes que explotan a los niños o promueven el terrorismo. “Estos revisores también nos ayudarán a mejorar las cosas que no permitimos en Facebook como discurso de odio y explotación infantil”, dijo.