Facebook tiene entre sus condiciones de seguridad unos mandamientos explícitos sobre el contenido inapropiado. A pesar de que muchos usuarios no han leído ese apartado. En él se especifican qué contenidos no deben ser compartidos en su red social. Aunque asumen que no pueden garantizarlo, pretenden que Facebook sea lo más seguro posible.

Los contenidos que puedan incita al odio, resultar intimidatorio, pornográfico o violento, están considerados inapropiados. Sin embargo, durante el ultimo año hemos asistido a varios sucesos controvertidos: asesinatos, suicidios, malos tratos. Contenidos que se publicaron y en apenas unos minutos se compartieron de forma viral.

Facebook ha declarado la lucha a esas acciones. Hace unos meses, tras vivir un suicidio en directo a través de Facebook live, anunció que iba a realizar pruebas para desarrollar herramientas para prevenir casos similares. El pasado 3 de mayo a través de una publicación de Mark Zuckerberg en su perfil, también se anunció que se van a intensificar los recursos para plantar cara al contenido inapropiado.

«Si vamos a construir una comunidad segura, tenemos que responder rápidamente. Estamos trabajando para hacer que estos vídeos sean más fáciles de reportar para que podamos tomar la acción correcta antes»

Mark Zuckerberg

Más recursos humanos para Facebook live:

Facebook debe revisar todo el contenido que publican sus usuarios. Pero Facebook live es la herramienta potencialmente más controvertida. Permite publicar un vídeo en directo sin examinar el contenido previamente. La revisión se basa en los reportes que los propios usuarios envían a la red social. Al tratarse de una herramienta de publicación en directo, cuando el contenido es revisado puede que ya sea demasiado tarde.

Según Zuckerberg la contratación de 3.000 nuevos empleados agilizará la detección y eliminación de ese contenido. Con esta incorporación de personal, que se suma a los 4.500 puestos actuales, Facebook  pretende dar un impulso al proceso de revisión de las publicaciones inapropiadas. Serán moderadores que analizarán los reportes de los usuarios para que, en caso de que el contenido no cumpla los valores de la red social, sea retirado lo antes posible.

Facebook live es la herramienta más difícil de controlar. El servicio de control de Facebook analiza los reportes enviados por los usuarios para retirar los contenidos inapropiados. Los nuevos moderadores permitirán que ese proceso sea más rápido y el contenido se retire lo antes posible.

Más herramientas para reportar el contenido inapropiado

La otra promesa de Facebook es mejorar los procesos de notificación de los contenidos inapropiados. Han anunciado que se está trabajando para hacer que estos vídeos sean más sencillos de reportar. Así se agilizará el proceso para poder eliminar esos vídeos. También se conseguirá que no se viralicen y multipliquen su alcance orgánico de forma exponencial.

Parece que, como ya ocurrió con su herramienta contra los suicidios, van a desarrollar una herramienta de inteligencia artificial para el control del contenido inapropiado. Por ahora la red social no ha dado más datos sobre cómo serán esas nuevas herramientas de filtrado. Tampoco ha aclarado mucho sobre el papel del moderador y su alcance.

La polémica está servida. Habrá que esperar un tiempo para analizar si la solución funciona. Sin embargo son varias las dudas que quedan en el aire. ¿Puede la inteligencia artificial detectar contenidos violentos o pornográficos? ¿Es una función que sólo puede desempeñar el ser humano? ¿Debe considerarse potencialmente penalizable la publicación de estos contenidos o también su difusión?