Facebook et YouTube aiguisent leur lutte contre la propagande terroriste

Intelligence artificielle contre menace réelle 11
Accès libre
image dediée
Crédits : Andy445/iStock
Securité
Par
le lundi 19 juin 2017 à 17:34
Vincent Hermann

Ce n’est pas la première fois que les plateformes promettent des mesures visant la propagande terroriste. Après le plan cosigné Theresa May et Emmanuel Macron, Facebook et YouTube remettent une couche, gorgée notamment d’intelligence artificielle. 

Le plan présenté la semaine dernière par Theresa May et Emmanuel Macron vise à trouver des solutions plus nerveuses pour traquer les contenus terroristes en ligne. L’imagination est fertile puisque l’un et l’autre demandent aux services en ligne de trouver des solutions de retraits automatisés.

Un filtrage à la racine, avant même toute diffusion, impliquant donc une surveillance proactive de l’ensemble des flux transitant dans les mains de ces plateformes. Le plan prévoit aussi la création de listes blanches de comptes parodiques, non sans prévoir une solution – pour le moins imprécise – visant à permettre « l’accès au contenu chiffré » mais sans « portes dérobées » ou d’interdiction du chiffrement.   

S’agissant du filtrage proactif des contenus, avant mise en ligne, le ministère de l’Intérieur envisage même « de définir clairement ce qui constitue un contenu en ligne illicite, si nécessaire par une réglementation ». Cette réglementation dans une main, les plateformes auraient à surveiller tous les contenus téléchargés par leurs utilisateurs.

Seul détail, le droit européen interdit de contraindre ces intermédiaires techniques à « une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ». Cette interdiction, extraite de la directive sur l'e-commerce, ne concerne cependant que les États. Les plateformes, elles, sont donc libres de se lancer dans une telle traque préventive, au risque de démultiplier les cas de faux positifs : des mesures de restrictions frappant des contenus parfaitement légitimes.

En attendant, le plan Macron-May participe à la pression exercée sur ces intermédiaires, hébergeurs en tête. Hasard du calendrier ou non, Facebook et YouTube ont tour à tour dévoilé des solutions destinées à lutter contre la propagande terroriste dans leurs pages, tout en faisant le point sur les actions déjà menées. 

Facebook fait le point sur ses actions contre le terrorisme

Avec près de deux milliards d’utilisateurs, Facebook est un cas à part. Plus d’un quart de la population mondiale se sert du réseau social, ce qui convient tout à fait à l’entreprise. Elle ambitionne après tout de devenir la plateforme universelle de communication. Ce qui ne va pas sans quelques responsabilités.

Dans un vaste billet de blog, la société a donc fait le résumé des mesures entreprises contre le terrorisme. Elles sont regroupées en trois grandes sections, dont la première est dévolue à l’intelligence artificielle. Ici, tout est centré sur l’apprentissage profond : reconnaissance d’une image ou vidéo déjà publiée précédemment, éléments de langage, détection des pages, groupes ou encore des publications…

Ces actions sont complétées, toujours sur le terrain de l’automatisation, par des efforts collectifs sur l’ensemble des produits de l’entreprise. WhatsApp et Instagram font ainsi partie du lot. Facebook explique que la quantité de données visibles depuis ces deux services est limitée, mais sans aucune précision. On ne sait pas dans quelle mesure des informations personnelles sont impliquées, mais il est probable que l’adresses IP et certaines métadonnées soient relevées. Nous avons demandé des précisions à Facebook à ce sujet.

Par ailleurs, l’éditeur annonce être plus performant dans la détection des comptes récidivistes, recréées après suppression. Des tâches que l’entreprise décrit comme « jamais terminées ».

L’être humain à la rescousse, y compris chez les partenaires

Il est évident que des algorithmes, aussi performants soient-ils, ne peuvent se substituer entièrement à une expertise humaine, plus apte à comprendre bien des subtilités. Actuellement, Facebook dispose de 4 500 personnes réparties dans les équipes Community, dont 150 sur la seule thématique du terrorisme. Rappelons que le 3 mai dernier, Mark Zuckerberg annonçait l’arrivée de 3 000 personnes supplémentaires dans ces équipes, mais on ne sait pas quelle proportion sera affectée à la lutte contre le terrorisme.

Au sein de la petite équipe spécialisée, une trentaine de langues sont parlées. Facebook précise que les personnes qui la composent sont tous des spécialistes de ce domaine particulier, avec des experts, d’anciens procureurs, d’anciens agents des forces de l’ordre, des analystes ou encore des ingénieurs.

Cette cellule est épaulée par le reste des équipes Community, qui rapportent les comptes et contenus qui pourraient violer les conditions d’utilisation. Peut également intervenir un autre groupe, dédié celui-là aux réponses rapides quand des requetés juridiques sont émises par des autorités. Facebook parle d’un délai d’action de « quelques minutes ».

Quant à la coopération, elle recouvre plusieurs aspects. Avec l’industrie, en rappelant l’association proclamée en décembre dernier avec Microsoft, Twitter et YouTube. Les autres cavaliers ont ainsi créé une base de données commune dans laquelle ils déversent les « hash » des images et vidéos repérées. Lors des analyses automatiques, les moteurs des uns et des autres profitent donc des détections précédentes faites par les partenaires.

De multiples partenariats avec les gouvernements

Facebook ajoute que la coopération avec les gouvernements est essentielle, dans les deux sens. Il y a d’ailleurs ici deux volets : l’un qui consiste à répondre aux requêtes (via l’équipe déjà mentionnée), l’autre à acquérir des connaissances et compétences auprès des agences gouvernementales de plusieurs pays sur les mécanismes de propagande. L’Internet Forum européen, la Global Coalition Against Daesh, et le Home Office anglais sont cités en exemple de structures auxquelles participe Facebook.

Enfin, le réseau social aborde les contre-discours. Il s’agit de mettre en avant ceux qui savent désamorcer les discours de haine et de violence, Facebook s’associant avec des ONG et des groupes communautaires spécialisés. La société s’est impliquée également dans l’Online Civil Courage Initiative, qui regroupe une centaine de groupes luttant contre la haine et l’extrémisme, entre autres participations.

Il est évident que Facebook cherche à accomplir plusieurs objectifs à la fois. Répondre notamment à l’entente Macron-May sur les responsabilités des réseaux sociaux en signifiant qu’elle n’a pas attendu les nouveaux dirigeants pour se mettre à la tâche. Profiter de cette communication pour redorer une image souvent écornée sur les thématiques des discours de haine et de terrorisme. Le mois dernier, trois familles de victimes de la tuerie de San Bernardino (décembre 2015) déposaient plainte contre Facebook, Google et Twitter pour avoir permis la diffusion de messages extrémistes sur leurs plateformes.

YouTube et Twitter dans le même bateau

Cette pression s’abat sur d’autres acteurs opérant dans le même secteur d’activité. YouTube, assis sur des millions de vidéos hébergées dont la publication a été simplifiée à l’extrême, annonce du coup de nouvelles mesures pour lutter contre le terrorisme.

On retrouve globalement les mêmes lignes directrices que pour Facebook. Par exemple, le renforcement des algorithmes d’apprentissage profond pour mieux détecter les contenus liés au terrorisme et aux discours de haine. Google veut ainsi entrainer de nouveaux « content classifiers », permettant une identification plus rapide.

La plateforme d’hébergement possède également un groupe spécial d’utilisateurs nommés Trusted Flagger. Disposant de privilèges spéciaux sur YouTube, ces experts ont pour mission de contrôler tout ce qui a été repéré par les algorithmes. 63 organisations font déjà partie du programme, mais Google annonce l’arrivée d’une cinquantaine d’ONG supplémentaires. Kent Walker, responsable juridique de l’entreprise, précise d’ailleurs que ces efforts seront rémunérés.

YouTube change également de politique sur les actions à mener contre les vidéos repérées. Elles ne seront ainsi plus supprimées mais cachées derrière des messages d’avertissements. En outre, le flux financier des publicités sera coupé.

Enfin, Google utilise désormais son infrastructure de publicités ciblées de manière détournée pour mieux repérer les cibles potentielles des groupes extrémistes. Ces « recrues éventuelles » seront alors redirigées vers d’autres contenus, spécialement conçus pour « les faire changer d’avis » s’ils étaient sur le point de rejoindre un groupe terroriste. La firme cite par ailleurs une coopération avec d’autres entreprises comme Facebook et Twitter, pour la création d’outils et de techniques spécifiques. 


chargement
Chargement des commentaires...