Intelligence artificielle, « fake news » et recommandations pour limiter les risques

Accordons-nous sur un désaccord 6
Accès libre
image dediée
Crédits : cbies/iStock
Nouvelle Techno
Sébastien Gavois

Entre autres maux, l'intelligence artificielle pourrait être un catalyseur des « fake news » et des détournements de discours audio/vidéo selon un rapport. Dans sa conclusion, il dévoile plusieurs pistes de recherche et donne quatre recommandations générales. Troisième et dernière partie de notre dossier sur l'étude de ce rapport.

Après l'analyse des risques liés au monde numérique et physique, nous plongeons dans les dérives « politiques » pointées par l'étude des 26 chercheurs du Future of Humanity Institute.

Notre dossier sur le rapport du Future of Humanity Institute sur l'intelligence artificielle :

L'intelligence artificielle au service des attaques politiques

« La technologie de l'information affecte déjà les institutions politiques de multiples façons » explique le rapport en préambule. « Nous considérons plusieurs types de défenses. Mais, pour l'instant et comme dans le cas de la sécurité numérique et physique, le problème n'est pas résolu » ajoute-t-il.

Le risque serait important pour les 26 signataires : « Les avancées technologiques peuvent changer l'équilibre des pouvoirs entre les États, ainsi que la relation entre les dirigeants en place et les manifestants cherchant à les défier ». Néanmoins, « les effets des nouvelles technologies sur ces relations de pouvoir ne sont pas simples » concède le rapport. 

Si les réseaux sociaux permettent de prendre la température sur certains sentiments et d'apporter une réponse rapide, ils sont également utilisés pour échanger des informations entre des cellules terroristes, indique l'étude (ce n'est pas nouveau).

« En outre, la recherche suggère que les médias sociaux peuvent renforcer les régimes autoritaires en place, car les gouvernements en place peuvent manipuler l'information ». Si pour certains les réseaux sociaux permettent de s'ouvrir à de nouvelles idées, pour d'autres le risque est au contraire de s'enfermer dans ses certitudes : « Les algorithmes d'apprentissage automatique exécutés sur ces plateformes donnent la priorité aux contenus aimés par les utilisateurs », notamment afin de favoriser les interactions.

« Enfin, nous notons que l'ampleur et la nature de l'utilisation des technologies de communication de l'information pour modifier la dynamique politique varient selon les types de régimes politiques ».

L'intelligence artificielle devrait renforcer la propagande

Première (demie) anticipation : les plateformes de réseaux sociaux ont « de faibles barrières à l'entrée permettant aux systèmes exploitant une intelligence artificielle de se faire passer pour des personnes ayant des opinions politiques ». Les bots ne sont pas nouveaux, mais « ils sont contrôlés par des humains qui gèrent une grande quantité de bots, ou avec des formes d'automatisation très simple ». Même situation donc que pour les attaques par phishing.

Actuellement, ce genre de stratégies basées sur des robots relativement peu sophistiqués sont d'ores et déjà exploitées « et ont démontré leur capacité à influencer la couverture médiatique et les croyances politiques ». Deux exemples sont mis en avant : la guerre en Syrie et les élections américaines de 2016 : « les progrès dans le phishing automatisé ont démontré que le texte généré automatiquement peut être efficace pour tromper les humains ».

Néanmoins, le rapport rappelle qu'on « ne sait pas dans quelle mesure les bots politiques réussissent à façonner l'opinion publique, d'autant que les gens deviennent plus conscients de leur existence ». Les chercheurs ajoutent qu'il y a « des preuves confirmant que les bots contribuent de manière significative à la propagation de fausses nouvelles ». 

Détourner des images/vidéos, cibler chirurgicalement les messages

L'intelligence artificielle ne fait que renforcer les « fakes news, » mais cette forme de propagande n'a évidemment pas attendu pour se développer. Avec l'IA, « la production de séquences vidéo contrefaite de haute qualité » est néanmoins facilitée, permettant de faire dire n'importe quoi à n'importe qui ou presque.

« À l'heure actuelle, la technologie d'enregistrement et d'authentification a toujours un avantage sur la technologie de contrefaçon. Une vidéo d'un crime commis peut constituer une preuve très convaincante, même si elle est fournie par une source par ailleurs indigne de confiance »... mais cela risque de ne pas durer. 

La diffusion, la rédaction et la publication de « fakes news » pourraient à l'avenir être automatisées, comme c'est le cas pour des rapports financiers et sportifs aujourd'hui. De plus, « des systèmes d'IA sophistiqués pourraient permettre aux groupes de cibler précisément le bon message au bon moment, afin de maximiser le potentiel de persuasion ». Si cette technologie « est sinistre » lorsqu'elle est utilisée pour influencer des intentions de vote, elle est « pernicieuse » sur la question du recrutement de personne pour effectuer des actes terroristes.

Dans le cas des régimes autoritaires, l'intelligence artificielle permettra d'améliorer leur capacité à traiter et hiérarchiser les données dont ils disposent. La surveillance des individus sera ainsi plus fine, avec un coût en baisse. Sur les plateformes médiatiques, sans arriver à une censure pure et simple, l'opinion publique pourrait être « manipulée » en déclassant ou au contraire mettant en avant certains contenus.

« Par exemple, Eric Schmidt, président exécutif d'Alphabet, a récemment déclaré que Google déqualifierait le contenu produit par Russia Today et Sputnik. En 2014, Facebook a manipulé le fil d'actualité de plus d'un demi-million d'utilisateurs afin de modifier la teneur émotionnelle des messages, bien que modestement ». Si ce genre de modification sert officiellement à filtrer les contenus malveillants ou les fakes news, « elles pourraient également être utilisées par les plateformes médiatiques pour manipuler l'opinion publique ».

De plus, les menaces sur le numérique et le monde physique évoquées précédemment peuvent avoir des conséquences sur la sécurité politique : « le piratage de la campagne de Clinton à l'élection présidentielle de 2016 est un exemple récent de la façon dont les cyberattaques réussies peuvent provoquer des perturbations politiques ».

« Le potentiel perturbateur des attaques physiques, telles que les assassinats et les actes de terrorisme, est encore plus clair. De telles menaces à la sécurité numérique et physique pourraient ébranler les institutions politiques existantes ou leur permettre de justifier une évolution vers des politiques plus autoritaires », ajoute le rapport.

Certification et chiffrement en contremesures

Plusieurs solutions pour limiter les risques sont mises en avant : certifier l'authenticité d'images, des vidéos et des discours audio. Par exemple, pouvoir prouver qu'une vidéo a bien été diffusée en direct plutôt que réalisée hors ligne. Il en est de même pour les enregistrements audios : sont-ils authentiques, ou bien s'agit-il de faux générés par ordinateur ?

Le rapport ajoute que « la détection automatique des fakes news fait également l'objet d'une recherche continue ainsi que d'un concours, le Défi Fake News, qui devrait stimuler l'innovation dans ce domaine ». Une autre solution pour limiter des détournements de messages politiques (entre autres) par l'intelligence artificielle mise en avant est le chiffrement... ce qui n'a rien de nouveau.

Autre idée : « améliorer l'éducation et l'enseignement de la pensée critique » et mettre en place des outils pour suivre les campagnes politiques dans les médias sociaux ainsi que leurs propositions. Concernant les médias, il y a toujours eu des sources d'information avec « une impartialité variable », une meilleure réputation que d'autres, mais cela n'empêche pas la propagation de fausses nouvelles (ça se saurait). De plus, « la plupart des gens sont au courant de l'existence de stratagèmes de Ponzi, de emails frauduleux, des tactiques de vente trompeuses, etc. ».

Utiliser des « points critiques » pour essayer d'endiguer les fakes news

Aujourd'hui, si le spam est un problème assez contenu, c'est grâce aux et plateformes et serveurs de messagerie ayant déployés des filtres de manière globale. « Plus généralement, les entreprises technologiques, les réseaux sociaux et les médias sont des points de contrôle critiques pour endiguer la vague de campagnes de désinformation » affirme le rapport. Facebook s'y essaye depuis plusieurs mois, sans grand succès pour le moment.

Pour y arriver, ces entreprises devraient utiliser les données dont elles disposent pour développer et entrainer des systèmes d'intelligence artificielle, expliquent les chercheurs. Le rapport ajoute que c'est dans l'intérêt du public... et donc dans celui des sociétés à but lucratif comme les médias et les réseaux sociaux. Pas sûr que dans la pratique le raccourci soit si simple.

L'étude revient sur un phénomène récent : l'émergence de « deepfakes », des systèmes capables d'échanger le visage d'une personne sur des vidéos, notamment mis sur le devant de la scène avec des détournements de célébrités dans des contenus pornographiques. Suite à la médiatisation du phénomène, Reddit (où il a été popularisé) et des sites de vidéos pour adultes ont décidé de réprimer cette technique et essayer d'arrêter sa propagation, un bon point pour les chercheurs.

En effet, « bien que ces efforts n'aient pas été couronnés de succès, ils illustrent le rôle crucial des plateformes technologiques dans la gestion de l'accès à l'information et il est probable que la vague de répression ait ralenti la dissémination de l'outil et de ses produits »... sans pour autant le rayer de la carte.

Quatre recommandations 

Le but de ce rapport est : « attirer l'attention sur les domaines et les interventions potentielles qui, selon nous, devraient faire l'objet d'investigations plus approfondies », pas faire des propositions techniques ou politiques. Deux facteurs sortent du lot. Un manque de compréhension technique profonde de la part des décideurs d'un côté.

De l'autre, « les chercheurs hésitent à aborder ces sujets, craignant que l'association à une utilisation malveillante ternisse leur réputation et entraîne peut-être une réduction du financement ou une réglementation prématurée ». En effet, « en raison de la nature à double tranchant de l'IA, de nombreuses utilisations malveillantes décrites dans ce rapport ont des utilisations légitimes connexes ».

Un exemple parmi d'autres : « les outils de surveillance peuvent être utilisés pour attraper des terroristes ou opprimer les citoyens ordinaires ». Les deux premières des quatre recommandations suivantes visent à préempter cette dynamique :

  • Les politiques devraient collaborer étroitement avec les chercheurs
  • Les chercheurs devraient prendre au sérieux l'aspect double tranchant de leurs travaux
  • Les meilleures pratiques de sécurité devraient être identifiées et appliquées pour répondre à cette préoccupation
  • Il faut augmenter la diversité des parties prenantes dans les discussions

Le but est « d'aider à favoriser un dialogue interdisciplinaire entre les chercheurs en intelligence artificielle, les décideurs politiques et les autres parties prenantes concernées pour s'assurer que cette technologie soit utilisée au profit de la société » explique l'étude.

Reprendre les bonnes pratiques et les appliquer à l'intelligence artificielle

De manière générale, « la cybersécurité doit être une priorité majeure et permanente dans les efforts visant à prévenir et atténuer les dommages causés par les systèmes d'intelligence artificielle ». Au minimum, les meilleures pratiques en matière de cybersécurité doivent être transposées aux systèmes d'IA. 

Il est notamment question d'une équipe en charge de découvrir et corriger les failles de sécurité sur l'intelligence artificielle, en particulier dans les systèmes critiques. Les chercheurs se demandent également dans quelle mesure la vérification formelle peut être utilisée pour éprouver les systèmes d'intelligence artificielle. Comme dans les failles de sécurité, la divulgation responsable des vulnérabilités doit être de mise sur l'IA, via des procédures spécifiques.

Pêle-mêle, les chercheurs veulent des outils de sécurité « développés et distribués pour aider à normaliser les problèmes de sécurité courants dans les systèmes d'IA », du matériel avec des fonctions de sécurité intégrées (par exemple pour empêcher la copie, restreindre l'accès, faciliter les audits etc.), promouvoir une culture de responsabilité (éducation, éthique, normes, mesures de dénonciation), que les institutions et les entreprises prennent en compte la protection de la vie privée, etc.

Des désaccords et beaucoup de questions encore en suspens

« Il est probable qu'il sera beaucoup plus difficile de protéger les humains contre les attaques de manipulation que de sécuriser les systèmes numériques et physiques contre les cyberattaques » indique le rapport. Il ajoute que, « dans certains cas, les trois vecteurs d'attaque (numérique, physique et politique) peuvent être combinés ». Bref, l'intelligence artificielle, la sécurité numérique, physique et politique sont étroitement liées et le deviendront probablement davantage au fil du temps.

Si l'IA peut aussi bien être utilisée pour des attaques toujours plus perfectionnées, elle permet également de renforcer les défenses des systèmes... un jeu du chat et de la souris habituel entre les pirates et les responsables de la sécurité. Dans tous les cas, le risque est important pour les chercheurs puisque « les nations seront sous pression pour protéger leurs citoyens et leur propre stabilité politique face aux utilisations malveillantes de l'IA ».

Les 26 signataires finissent malgré tout par céder aux sirènes de la panique d'une IA forte, inexistante à l'heure actuelle, et dont on ne sait même pas quand elle pourrait arriver : « À plus long terme, beaucoup de publications mettent en garde sur des problèmes qui pourraient survenir accidentellement à la suite de systèmes d'intelligence artificielle hautement sophistiqués capables de fonctionner à des niveaux élevés dans un très large éventail d'environnements ».

L'étude reste dans tous les cas à relativiser. Tout d'abord, bon nombre de ses auteurs sont rattachés à des organismes ayant une vision assez inquiète du futur de l'intelligence artificielle, ce qui n'est pas le cas de tous les chercheurs.

De plus, il « reste de nombreux désaccords entre les coauteurs de ce rapport [...] Bon nombre de ces désaccords ne seront pas résolus tant que nous n'aurons pas plus de données sur les menaces potentielles. Néanmoins, cette incertitude et ce désaccord d'experts ne devraient pas nous empêcher de prendre des mesures de précaution dès aujourd'hui ».

Que l'on soit pessimiste ou optimiste, la solution passera notamment par le dialogue entre les différentes parties, l'information et l'éducation. Il faut également que les gouvernements et les responsables légifèrent sur le sujet, un processus qui prend du temps. Trop de temps.


chargement
Chargement des commentaires...