Comment l'intelligence artificielle peut influencer le monde numérique et physique

Sarah Connor ? 8
Accès libre
image dediée
Crédits : davincidig/iStock
Nouvelle Techno
Sébastien Gavois

Le développement de l'intelligence artificielle risque de changer la donne sur les attaques dans le monde numérique, mais aussi dans la vie réelle ; c'est du moins ce qu'affirme un rapport. Les chercheurs dévoilent leur vision (pessimiste) du futur et donnent quelques pistes de réflexion pour essayer de limiter les risques.

Dans l'étude des Future of Humanity Institute et Future of Live Institute, les chercheurs ne se contentent pas de s'aventurer à mettre en ligne quelques exemples de dérives de l'intelligence artificielle, ils reviennent également en détail sur la question de la sécurité informatique, et ses conséquences sur la vie réelle.

Trois grands domaines sont présentés : le monde numérique, la réalité physique et la politique. Dans chaque cas, le rapport propose un résumé du contexte, une prospection sur les changements à venir et la manière dont les risques pourraient être atténués. Nous allons cette fois-ci nous attarder sur les deux premiers, avant de revenir sur le troisième.

Notre dossier sur le rapport du Future of Humanity Institute sur l'intelligence artificielle :

L'intelligence artificielle au service des cyberattaques

Dans le premier cas, le développement de l'intelligence artificielle devrait « accroître le nombre, l'ampleur et la diversité des attaques pouvant être menées à un niveau donné de capacités » et de moyens. Selon l'étude, l'utilisation publique et connue d'une intelligence artificielle à des fins offensives est actuellement « limitée aux expériences menées par des chercheurs "white hat", visant à accroître la sécurité en trouvant des vulnérabilités et en suggérant des solutions ».

Néanmoins, « le rythme des progrès dans le domaine de l'intelligence artificielle laisse penser que les cyberattaques tireront bientôt parti des capacités d'apprentissage automatique, s'ils ne l'ont pas déjà fait » expliquent les chercheurs. Un point de vue confirmé par des experts cités par le rapport et peu surprenant.

Bien évidemment, le positionnement de l'intelligence artificielle est à double tranchant : elle permet d'un côté de réaliser des attaques toujours plus sophistiquées, mais de l'autre elle est également utilisée pour renforcer la sécurité. À titre d'exemple, c'est le cas de la détection des spams et des logiciels malveillants pour le grand public.

Pour Mike Rogers, le directeur de la NSA (National Security Agency), agence spécialisée aussi bien dans les attaques que les défenses en cybersécurité, « l'intelligence artificielle et l'apprentissage automatique sont fondamentaux pour l'avenir de la cybersécurité [...] la question n'est pas de savoir si, mais de savoir quand selon moi ». 

Vers des attaques de plus grande ampleur, des coûts en baisse

Les pirates n'ont évidemment pas attendu l'intelligence artificielle pour développer leur activité, mais « l'une des préoccupations majeures liées à la cybersécurité est que l'intelligence artificielle pourrait permettre à un pirate de mener des attaques à plus grande échelle et plus nombreuses, avec des compétences et des ressources identiques ».

Un exemple mis en avant concerne les travaux de ZeroFOX : « ils ont démontré qu'un système de harponnage entièrement automatisé pouvait créer des tweets adaptés en fonction des intérêts identifiés d'un utilisateur, atteignant un taux élevé de clics vers un lien potentiellement malveillant ».

Un exemple contemporain est l'ingérence russe dans l'élection de Donald Trump : l'automatisation et l'intelligence artificielle permettrait d'aller encore plus loin... « en supposant que ce n'était pas déjà le cas » note le rapport.

Encore un autre exemple avec une société ayant « créé un modèle d'apprentissage pour générer automatiquement des domaines de command et control (C&C) [NDLR : pour les botnets et malwares] qui ne peuvent être distingués des domaines légitimes par les observateurs humains et les machines ». La CIA utilise d'ailleurs ce genre de technique, comme l'a révélé WikiLeaks avec la publication des documents Vault8.

Sensibiliser, centraliser et dissuader

Les risques sont difficiles à éviter entièrement, précisent les chercheurs (une affirmation finalement toujours vraie dans le domaine de la sécurité informatique), mais « pas impossibles à atténuer ». Parmi les contremesures pouvant être déployées : la sensibilisation des consommateurs, des gouvernements et des chercheurs, notamment sur les risques de phishing et l'importance des mises à jour.

Autre possibilité mise en avant par les signataires de l'étude : « la centralisation » des informations. Elle permet de traiter un nombre toujours plus important de données, et donc d'entrainer plus finement des intelligences artificielles chargées d'assurer la sécurité des systèmes. C'est par exemple le cas de Gmail de Google pour la détection des spams : le géant du Net dispose d'une énorme base d'emails pour ajuster ses filtres.

Une autre piste de travail serait de « dissuader les pirates de commettre des attaques ou de les punir pour des attaques antérieures ». Problème, « une condition nécessaire (bien que non suffisante) » pour y arriver est la capacité d'identifier avec certitudes les auteurs, un problème « notoirement difficile ».

En effet, même avec des « informations de haute qualité » sur la provenance d'une cyberattaque, les victimes ne veulent parfois pas les révéler, car « cela pourrait compromettre une source ou un système ». D'autres sociétés pourraient ne pas vouloir sanctionner certaines actions, « afin d'éviter de créer un précédent et ainsi de conserver une marge de manœuvre pour s'engager à son tour dans des actions similaires ». Par exemple, cacher sous le tapis une vulnérabilité pour l'exploiter.

L'intelligence artificielle au service des attaques physiques

Passons du cyberespace à la vie réelle. Utiliser le développement de l'informatique et de l'intelligence artificielle pour toucher des systèmes physiques ou des personnes n'est pas nouveau, loin de là. L'exemple le plus emblématique et sans aucun doute celui des robots et des drones. Problème, « la réglementation et la recherche sur des systèmes de défense ont été lentes à rattraper la prolifération mondiale des robots militarisés », même si des travaux sont en cours.

« Il existe actuellement peu d'obstacles pour un attaquant moyennement talentueux profitant de la prolifération rapide du matériel, des logiciels et des compétences pour causer des dommages physiques importants »... et la situation ne va pas s'améliorer : « À court terme, on peut s'attendre à un écart croissant entre les capacités d'attaque et de défense, car les moyens de défense sont nécessairement coûteux, tandis que le matériel et les logiciels requis pour mener les attaques sont de plus en plus accessibles ». 

Un autre souci vient des attaques lancées par de petits groupes et des personnes ayant des connaissances au-delà de la moyenne. Elles sont alors bien plus difficiles à anticiper, car elles peuvent travailler isolées, puisant des technologies dans des projets librement accessibles et utilisant du matériel vendu dans le commerce. Un parallèle anxiogène est fait par le rapport avec des attaques terroristes isolées, comme des fusillades de masse.

Si dans le monde du numérique des « nœuds clés du réseau » peuvent jouer un rôle défensif pour l'intégralité des utilisateurs, les attaques physiques peuvent se produire n'importe où dans le monde. Or, cette fois-ci, « de nombreuses personnes se trouvent dans des régions insuffisamment équipées pour déployer des moyens de défense physiques à grande échelle ».

L'étude explique que, aux États-Unis, le nombre de drones a explosé ces dernières années avec plus de 670 000 enregistrements auprès de la FAA en 2016 et 2017. Ils ne sont généralement pas autonomes, car pilotés par des humains, mais sont de plus en plus capables de s'émanciper et de réaliser seuls des opérations au fil des années.

Des attaques physiques facilitées pour des petits groupes et des individus

Comme dans le cas du monde numérique, « un plus grand degré d'autonomie permet à une seule personne de faire plus de dégâts, ce qui rend possible des attaques à très grande échelle en utilisant des robots et permet à de plus petits groupes de mener de telles attaques ».

De plus, les criminels sont aidés par la disponibilité de logiciels de plus en plus matures pour effectuer leurs méfaits : détection de visages open source, planification de navigation autonome, etc. L'automatisation accrue entraîne un contrôle numérique toujours plus important des systèmes physiques et donc des risques et failles potentiels : « considérez, par exemple, le contrôle largement plus important qu'un attaquant pourrait exercer sur une voiture moderne piratée, comparée à une voiture typique d'il y a 20 ans ».

« Il existe également des preuves suggérant que les gens font indûment confiance aux robots mobiles autonomes », s'inquiètent les chercheurs. Dans la pratique pourtant, plusieurs études montrent au contraire que tout le monde n'accorde pour le moment pas forcément une grande confiance dans les systèmes autonomes (notamment les voitures et les avions).

Imposer des normes aux fabricants et des restrictions sur les ventes

Parmi les solutions envisagées pour contrebalancer l'arrivée de l'intelligence artificielle, l'étude veut mettre à contribution les fabricants. Contrairement aux solutions logiciels, il n'existerait pour le moment que peu d'entreprises dans certains domaines (DJI représenterait par exemple 70 % du maché des drones aux États-Unis), facilitant la mise en place de normes minimales pour renforcer la sécurité. La FTC étudierait ce genre de solution selon les chercheurs.

C'est ensuite au tour des revendeurs : « des restrictions sur les ventes de drones potentiellement mortels pourraient être considérées avec une analogie aux restrictions sur les ventes d'armes à feu et les ingrédients pour confectionner des drogues illégales »... avec toutes les limites que l'on rencontre déjà sur ces deux secteurs pourtant régulés.

Une autre piste serait de renforcer les limitations sur la partie logiciel. Par exemple, des logiciels de navigation empêchent actuellement des drones de voler dans des zones interdites (comme les aéroports). Mais cela pourrait aller jusqu'à empêcher toute collision et risque de blesser ou tuer une personne. Des solutions existent déjà, mais elles ne sont pas encore suffisamment au point. 

Les chercheurs pensent aussi à mettre en place des « défenses physiques » contre les attaques de drones avec par exemple de la détection par radar, lidar, signature acoustique, logiciel de reconnaissance d'image, etc. Des drones capables d'intercepter d'autres drones sont également à l'étude. 

Cela ne fait que commencer

Pour le rapport, l'avenir est sombre : « Nous prévoyons une utilisation malveillante accrue de l'IA. Comme les criminels, les terroristes et les régimes autoritaires utilisent l'électricité, les logiciels et les réseaux informatiques. À un moment donné du cycle d'adoption de la technologie, il devient plus facile d'utiliser ces technologies générales ».

La baisse des coûts est un facteur d'inquiétude pour les chercheurs. Pour des personnes malveillantes, il devient de plus en plus facile d'acheter des drones perfectionnés et de profiter des solutions l'IA pour mener à bien des missions.

Ils ajoutent néanmoins que le risque que des acteurs de plus petite envergure exploitent l'intelligence artificielle peut être réduit grâce à plusieurs facteurs : « rendre les systèmes plus sûrs, divulguer de manière responsable les développements susceptibles d'être mal utilisés et sensibiliser davantage les décideurs aux menaces ».


chargement
Chargement des commentaires...