Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información

Facebook elimina el 83% del 'contenido terrorista' en menos de una hora

  • Actualidad

Mark Zuckerberg CEO de Facebook

Facebook continúa con su lucha contra los mensajes extremistas. La red social ha asegurado que, gracias al uso de la Inteligencia Artificial, elimina el 99% del contenido relacionado con grupos afines al Estado Islámico y a Al Qaeda antes de que se lo soliciten.

Según palabras de Monika Bickert, directora de gestión de políticas globales, y de Brian Fishman, director de política antiterrorista en Facebook, que recoge Reuters, el 83% del “contenido terrorista” se elimina una hora después de que haya sido publicado.

El pasado mes de junio, Facebook aseguró que había incrementado el uso de la Inteligencia Artificial para eliminar el contenido rápidamente. “Todavía es pronto” para hacer una valoración, “pero los resultados son prometedores”, han asegurado Bickert y Fishman. “Esperamos que la Inteligencia Artificial se convierta en la herramienta más importante dentro del arsenal de protección y seguridad en Internet de Facebook”.

Quizá te interese...

Por una Transformación Digital segura (IT Webinar)  

Cómo debe ser el Centro de Datos de Nueva Generación

Cómo mejorar la analítica de tu banco digital y optimizar la experiencia de usuario

7 sugerencias para mejorar la carga de tu web o app

Cómo superar los desafíos de TI en las pequeñas empresas

La empresa digital: transformando las TI con nuevas infraestructuras

Ambos directivos han continuado asegurando que “hoy en día, el 99% del contenido que eliminamos relacionado con el Estado Islámico y Al Qaeda es contenido que detectamos antes de que alguien de nuestra comunidad nos lo haya señalado y, en algunos casos, antes de que se publique en la página”.

A pesar de los esfuerzos, Bickert y Fishman recuerdan que “utilizar la Inteligencia Artificial para combatir el terrorismo no es tan simple como activar un interruptor. Un sistema diseñado para encontrar contenido de un grupo terrorista puede no funcionar en todas las ocasiones debido al lenguaje y a las diferencias de estilo en su propaganda”.

Estas declaraciones llegan en medio de la polémica surgida tras los ataques terroristas que han sufrido diversas ciudades europeas y que han llevado a las autoridades tanto de la UE como de Estados Unidos a solicitar a las redes sociales mayor contundencia con este tipo de mensajes. No en vano, las redes sociales han sido utilizadas por yihadistas como herramientas de captación y difusión de sus mensajes.

La presión ejercida tanto por la Unión Europea como por Estados Unidos ha hecho que las redes sociales hayan incrementado la velocidad con la que eliminan contenido que incitan al odio. Facebook, Twitter, YouTube y Microsoft firmaron el año pasado un código de conducta para adoptar medidas en Europa en menos de 24 horas si se denunciaba o detectaba este tipo de contenido. Esto fue consecuencia del aumento de mensajes de contenido racista o xenófobo debido a la crisis de los refugiados o los ataques terroristas sufridos en Europa.

La semana que viene, las cuatro compañías se reunirán con la UE para discutir la manera eliminar el contenido extremista y el discurso del odio en las redes sociales.