in ,

Facebook déploie une nouvelle IA pour mettre les terroristes hors ligne

Facebook a commencé à déployer ses capacités d’intelligence artificielle pour aider à combattre l’utilisation de son service par les terroristes.

Les responsables de l’entreprise ont déclaré que Facebook utiliserait l’IA en collaboration avec des examinateurs humains pour trouver et supprimer immédiatement du « contenu terroriste », avant que les autres utilisateurs ne le voient. Une telle technologie est déjà utilisée pour bloquer la pornographie juvénile sur Facebook et d’autres services tels que YouTube, mais Facebook a été réticent à l’appliquer à d’autres utilisations potentiellement moins nettes.

Dans la plupart des cas, Facebook supprime uniquement le matériel répréhensible si les utilisateurs le signalent d’abord.

Facebook et d’autres entreprises sur internet font face à la pression croissante du gouvernement pour identifier et prévenir la propagation de la propagande terroriste et le recrutement de messages sur leurs services. Plus tôt ce mois-ci, la Premier ministre britannique, Theresa May, a appelé les gouvernements à conclure des accords internationaux pour empêcher la propagation de l’extrémisme en ligne. Certaines mesures proposées imposeraient aux entreprises légalement responsables d’afficher leurs matériels sur leurs sites.

Monika Bickert, directeur de la gestion de la politique mondiale, et Brian Fishman, responsable de la politique contre le terrorisme n’ont pas mentionné spécifiquement les appels de mai. Mais ils ont reconnu que « à la suite d’attaques terroristes récentes, les gens ont remis en question le rôle des entreprises technologiques dans la lutte contre le terrorisme en ligne ».

« Nous voulons répondre à ces questions en tête. Nous sommes d’accord avec ceux qui disent que les réseaux sociaux ne devraient pas être un endroit où les terroristes ont une voix « , ont-ils écrit.

Parmi les techniques d’AI utilisées dans cet effort, on trouve l’image correspondant, qui compare les photos et les vidéos que les personnes téléchargent sur Facebook vers des images ou des vidéos de terrorisme « connues ». Les correspondances signifient généralement que soit que Facebook ait déjà supprimé ce matériel, soit qu’il avait fini dans une base de données d’images telles que Facebook partage avec Microsoft, Twitter et YouTube.

Facebook développe également des « signaux basés sur le texte » des messages précédemment supprimés qui ont loué ou soutenu des organisations terroristes. Il alimentera ces signaux dans un système de machine learning, au fil du temps, apprendra à détecter des publications similaires.

Bickert et Fishman ont déclaré que lorsque Facebook recevrait des rapports sur des «posts de terrorisme» potentiels, il examine ces rapports de façon urgente. En outre, ils disent que, dans les cas exceptionnels où il révèle des preuves de dommages imminents, il informe rapidement les autorités.

Mais AI est juste une partie du processus. La technologie n’est pas encore au point de comprendre les nuances de la langue et du contexte, de sorte que les humains sont encore dans la boucle.

Facebook dit qu’il emploie plus de 150 personnes qui sont « exclusivement ou principalement axées sur la lutte contre le terrorisme en tant que principale responsabilité ». Cela comprend des experts universitaires sur le contre-terrorisme, les anciens procureurs, les anciens agents d’application de la loi et les analystes et ingénieurs.

What do you think?

23 points
Upvote Downvote

commentaires

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Chargement & hellip;

Boeing se tourne vers des avions sans pilote

25 mots de passe les plus utilisés au monde