Microsoft lance Azure OpenAI, de vastes ambitions pour l'intelligence artificielle

Microsoft lance Azure OpenAI, de vastes ambitions pour l’intelligence artificielle

ChatGPT pour « bientôt »

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

18/01/2023 9 minutes
8

Microsoft lance Azure OpenAI, de vastes ambitions pour l'intelligence artificielle

Microsoft vient d’annoncer la disponibilité générale d’Azure OpenAI. Les entreprises intéressées peuvent désormais se servir de l’infrastructure cloud pour déployer leurs modèles. Bien que le mouvement paraisse naturel, il vient témoigner de l’ampleur de la stratégie IA à Redmond.

Depuis hier et jusqu’à la fin de la semaine, Microsoft déploie sa nouvelle offre OpenAI dans Azure, son infrastructure cloud. C’est l’étape finale après plus d’un an de travaux. Microsoft a noué une relation des plus étroites avec OpenAI depuis son investissement d’un milliard de dollars dans l’entreprise spécialisée, à qui l’on doit le récent ChatGPT, qui n’en finit plus de faire parler de lui.

Si l’on peut la résumer comme un simple ajout dans la galaxie Azure, cette annonce représente probablement le coup d’envoi d’une stratégie plus profonde.

Les capacités d’Azure OpenAI

Le nouveau service se destine bien sûr aux entreprises ayant des besoins en intelligence artificielle, et plus particulièrement avec les modèles fournis par OpenAI, notamment les trois plus récents : GPT 3.5, Codex et Dall-E.

Cloud oblige, le service peut être incorporé dans des applications web ou locales pour faire appel à ces modèles, et peut suivre la montée en charge, donc les besoins des clients. Les domaines d’application sont nombreux, car les modèles peuvent être appliqués à un vaste ensemble de situations, par exemple pour améliorer la précision des recherches dans une boutique, établir des priorités dans les évènements comme les tickets de service client, ou encore pour de la comparaison de contenus.

Pour mieux faire monter la sauce, plusieurs témoignages sont présents dans le billet d’annonce. On apprend ainsi que des entreprises comme Moveworks, Al Jazeera et KPMG se servent déjà d’Azure OpenAI, qui était disponible en préversion depuis plusieurs mois.

On note l’absence de ChatGPT. La carence sera comblée « bientôt », comme confirmé par Microsoft, ainsi que par OpenAI de son côté dans un tweet. Après tout, ChatGPT est une version légèrement modifiée de GPT3.5 dont l’entrainement et l’inférence ont été réalisés… sur les serveurs Azure. Le monde est décidément petit.

 

Contrairement à la quasi-intégralité des autres services Azure, il ne suffira pas de payer pour accéder à OpenAI. Les développeurs devront décrire comment et pourquoi ils souhaitent utiliser ces modèles, au travers d’une requête. Microsoft est libre de refuser, particulièrement si elle juge que le scénario n’est pas supporté « à cause d’un risque plus important d’utilisation abusive, comme une application de création de contenu ouverte aux utilisateurs non authentifiés, qui pourraient générer du contenu sans contrainte sur n’importe quel sujet ».

En outre, des filtres sont présents pour attraper les contenus « abusifs, haineux et offensants » dans les projets acceptés. Cette surveillance sera constante, selon l’entreprise.

Azure OpenAI prix
Les prix sont indicatifs, car la région Europe n'est pas ouverte pour Azure OpenAI actuellement

De l'IA partout, tout le temps

Microsoft n’en est pas à son coup d’essai avec ces modèles, la firme les ayant pratiqués pour ses propres besoins. Azure OpenAI est ainsi à la barre pour GitHub Copilot, un service facturé 10 dollars par mois aux développeurs pour fournir des suggestions de code dans des situations variées.

Le produit a d’ailleurs fait parler de lui récemment, car une plainte a été déposée contre Microsoft, GitHub et OpenAI. Copilot s’alimente en effet dans les dépôts publics pour analyser le code et proposer des solutions dans des situations similaires, mais sans rien demander à personne ni surtout respecter la licence qui accompagne systématiquement ce code. La GPL, par exemple, oblige à citer ses sources et à mentionner la licence.

Ce n’est pas tout, puisque Power BI se sert lui aussi d’un modèle d’OpenAI, en l’occurrence GPT3, pour générer des expressions et formulaires. Plus récemment, l’annonce de la future application Designer a abordé l’intégration de Dall-E pour générer des images à partir de mots-clés, une opération désormais courante.

Et au vu des dernières déclarations de Microsoft, ce n’est que le début de l’IA dans les produits de l’entreprise. Elle compte en effet se servir de ChatGPT dans Bing et dans toute la suite Office. Le chef produit Panos Panay a même affirmé il y a quelques jours qu’un travail était en cours pour intégrer l’IA dans Windows, dans un message à peine voilé. Et s’il fallait encore une preuve que l’IA représente l’un des plus gros axes de développement de la firme, elle est en discussion pour un investissement de 10 milliards de dollars dans OpenAI. Elle obtiendrait 75 % des bénéfices d’OpenAI jusqu’à récupération de son investissement, la part chutant ensuite à 49 %.

Ce n’est pas assez ? Satya Nadella, à la tête de la société, est intervenu hier au World Economic Forum, comme le rapporte le Wall Street Journal. Ses propos étaient on ne peut plus clairs : « Chaque produit de Microsoft aura certaines de ces mêmes capacités d’intelligence artificielle pour transformer complètement le produit ». Cette intégration est vue comme une opportunité de croissance : « Nous avons besoin de quelque chose qui change réellement la courbe de productivité pour que nous puissions avoir une vraie croissance ».

Les points de contrôle s'accroissent avec l'utilisation

Il est certain que l’intelligence artificielle porte en elle certaines promesses dans ce domaine. Le Copilot de GitHub est un bon exemple, et on pouvait voir des développeurs en décrire l’efficacité dans les commentaires de nos actualités. Elle pose cependant certaines problématiques sur la table, d’autant plus à travers le prisme d’une vaste généralisation.

Le plus gros danger inhérent aux modèles est la répercussion des biais. Tous en ont, sous une forme ou une autre, car les personnes qui les développent en ont. On peut même parler d’amplification, surtout dans un cadre d’intégration dans tous les produits, Microsoft ayant tout intérêt à se montrer vigilante sur la question.

L’autre thématique récurrente est le lissage. Pour reprendre l’exemple de Copilot, il existe un risque que les fonctions d’IA proposent systématiquement une solution peu ou prou identique quand elles détectent des situations présentant des similitudes. On pourrait assister à une sorte de nivellement niant l’originalité d’autres solutions, quand une personne s’attaque à un problème avec une vision différente de la situation.

Ce problème peut sembler accessoire, mais il pourrait se révéler primordial dans le cadre d’une généralisation, et d’autant plus que l’IA pourra servir de support à du décisionnel. Le simple fait de pouvoir intégrer des pans entiers de code dans un projet n’a rien d’anodin, même si la fonction permet de gagner du temps, voire beaucoup de temps. Cette idée de présenter une solution semblant la plus adaptée face à des paramètres est séduisante, mais le contrôle humain devra rester absolu. Il suffit d’observer les débats autour de Parcoursup, qui n’est pourtant qu’un « simple » algorithme.

Enfin, et ce n’est pas nouveau, l’IA est consommatrice d’énergie. Cette thématique est d’autant plus sous les feux de la rampe que ladite énergie coûte bien plus cher. Sa généralisation entrainera mathématiquement une charge plus intense pour les centres de données, puisque l’on parle d’Azure OpenAI. Bien que Microsoft ne l’ait pas mentionné, l’intégration de ces capacités s’appuiera sur ses serveurs. Dans le cas contraire, les calculs seraient laissés à la charge de l’appareil, dont la puissance de calcul varie trop grandement pour s’assurer d’une expérience utilisateur satisfaisante.

Ces quelques éléments ne sont pas des sujets d’inquiétude, mais des points de contrôle. Comme dans beaucoup de cas, les capacités techniques permettent l’émergence et l’explosion d’une certaine technologie, dans laquelle tout le monde s’engouffre, parfois avec excès. On pourrait rappeler l’arrivée de la 3D dans les jeux, particulièrement sur console, où il a fallu des années pour que le concept soit correctement géré, tant pour la gestion de la caméra que les contrôles.

Microsoft prend d’ailleurs les devants et aborde son approche « responsable » et itérative de l’IA. Elle précise travailler de près avec OpenAI et ses clients sur les risques qui apparaissent ou pourraient apparaître. Elle rappelle également que ce travail est réalisé en alignement avec ses principes Responsible IA. Un discours courant, chaque grande entreprise impliquée dans l’IA publiant un équivalent, comme chez Facebook et Google.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Les capacités d’Azure OpenAI

De l'IA partout, tout le temps

Les points de contrôle s'accroissent avec l'utilisation

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (8)



il existe un risque que les fonctions d’IA proposent systématiquement une solution peu ou prou identique quand elles détectent des situations présentant des similitudes




Le risque ici c’est de ne pas tenir des spécificités du projet, et surtout, surtout, des optimisations à faire. Déjà qu’au global, les performances ne sont pas une priorité dans le dev, mais je crains que Copilot n’en rajoute une couche.
Et niveau complexité aussi : c’est déjà pas simple tous les jours de maintenir une appli dont on comprends le code, mais si on en pige pas les 34 parce que « c’est Copilot qui l’a mis en 2-2 et ça marche », ça ne risque pas d’aider …



Enfin, ce qui craint le + selon moi : le principe d’une IA c’est d’arriver à un niveau de complexité tel qu’on ne peut plus expliquer pour l’algo a fait tel ou tel choix. Construire l’informatique (ici code & OS) à partir de choix qui tiennent de l’aléatoire, ça me paraît d’une connerie sans nom. #vieuxcon?



On pourrait assister à une sorte de nivellement niant l’originalité d’autres solutions




Les algos d’optimisation ont souvent ce paramètre, qui consiste à introduire de l’entropie justement pour cette raison, pour élargir le champ des possibles. C’est par exemple une mutation dans un algo dit génétique. Un “x” peut se transformer en “y”, même si ce “y” n’était pas présent dans le set de départ, c’est à dire que d’une certaine façon l’algorithme est capable d’innover.



Et là, j’aimerais bien savoir ce qu’il en est des algos de type machine learning, que je connais bcp moins (s’il y a des experts dans la place ?)
Je crois qu’il y a en principe une dose d’aléatoire utilisée dans la sélection des modèles, qui fait en sorte que les mêmes entrées ne donneront pas nécessairement les mêmes sorties, mais ça me paraît assez fondamentalement différent de l’aléatoire des algos stochastiques car on reste contraint par les modèles initiaux, en quelque sorte l’algo ne s’éloignera jamais des sentiers battus. Ou peut-être y a-t-il d’autres façons d’introduire de l’originalité… Je serais curieux de savoir.


C’est possible dans certain type d’algo, et dans certain usage, mais bien souvent seulement durant l’apprentissage. Durant l’exploitation, on va avoir tendance à privilégier la fiabilité.



Dans les familles d’apprentissage automatique, il en existe une qui s’appelle l’apprentissage par renforcement. C’est le type d’algo qui apprend de lui même (apprentissage non supervisé) une “politique” (une stratégie en terme plus commun, qui peut être présenté dans sa forme la plus simple comme un tableau où pour chaque état possible on donne la meilleur action à réaliser) en réalisant des actions dans un environnement (par exemple jouer un coup dans un jeu de plateau) pour maximiser une récompense (la victoire dans un jeu de plateau). Ce genre d’algo sont confronté au problème du bandit manchot, c’est a dire choisir entre privilégier les coups qui maximisent les récompenses selon les connaissances actuels ou l’exploration, tester des coups sous optimaux pour tester de nouvelles approche. Une stratégie simple mais qui reste assez efficace est appelé “Epsilon-Greedy Algorithm” en gros, tu choisi que ε% du temps, ton agent fera un coup complétement aléatoire (après il existe plein de variation de cette approche).



Cette famille d’algo peuvent trouver des solution assez originales. On m’avais par exemple raconté qu’un mec en TP devait faire un programme qui devait garder à la verticale un bâton accrocher à un chariot dans un plan 2D. L’algo au lieu de le garder en équilibre avait trouver que faire tourner le bâton à la même fréquence que la mesure de l’angle était un très bonne solution (techniquement, c’est pas faux, le bâton été bien à la verticale à chaque mesure.). Mais openIA avait déjà fait un truc avec un jeu de cache-cache mais où les agents, à force de “jouer” ont trouvé des solutions… peu conventionnelle


tazvld

C’est possible dans certain type d’algo, et dans certain usage, mais bien souvent seulement durant l’apprentissage. Durant l’exploitation, on va avoir tendance à privilégier la fiabilité.



Dans les familles d’apprentissage automatique, il en existe une qui s’appelle l’apprentissage par renforcement. C’est le type d’algo qui apprend de lui même (apprentissage non supervisé) une “politique” (une stratégie en terme plus commun, qui peut être présenté dans sa forme la plus simple comme un tableau où pour chaque état possible on donne la meilleur action à réaliser) en réalisant des actions dans un environnement (par exemple jouer un coup dans un jeu de plateau) pour maximiser une récompense (la victoire dans un jeu de plateau). Ce genre d’algo sont confronté au problème du bandit manchot, c’est a dire choisir entre privilégier les coups qui maximisent les récompenses selon les connaissances actuels ou l’exploration, tester des coups sous optimaux pour tester de nouvelles approche. Une stratégie simple mais qui reste assez efficace est appelé “Epsilon-Greedy Algorithm” en gros, tu choisi que ε% du temps, ton agent fera un coup complétement aléatoire (après il existe plein de variation de cette approche).



Cette famille d’algo peuvent trouver des solution assez originales. On m’avais par exemple raconté qu’un mec en TP devait faire un programme qui devait garder à la verticale un bâton accrocher à un chariot dans un plan 2D. L’algo au lieu de le garder en équilibre avait trouver que faire tourner le bâton à la même fréquence que la mesure de l’angle était un très bonne solution (techniquement, c’est pas faux, le bâton été bien à la verticale à chaque mesure.). Mais openIA avait déjà fait un truc avec un jeu de cache-cache mais où les agents, à force de “jouer” ont trouvé des solutions… peu conventionnelle


Merci pour ces explications ! Marrante la vidéo des IA qui exploitent les bugs



Arkeen a dit:


Construire l’informatique (ici code & OS) à partir de choix qui tiennent de l’aléatoire, ça me paraît d’une connerie sans nom. #vieuxcon?




Compte tenu des choix qui sont fait dans les différents projets que je vois passer qui viennent systématiquement avec leur solution (bancale) et non leur besoin, en fait je ne pense pas que je verrai de différence :transpi:


Que s’apelerio Microsoft A PT
Je trouverai la sortie



jotak a dit:


Les algos d’optimisation ont souvent ce paramètre, qui consiste à introduire de l’entropie justement pour cette raison, pour élargir le champ des possibles. C’est par exemple une mutation dans un algo dit génétique. Un “x” peut se transformer en “y”, même si ce “y” n’était pas présent dans le set de départ, c’est à dire que d’une certaine façon l’algorithme est capable d’innover.



Et là, j’aimerais bien savoir ce qu’il en est des algos de type machine learning, que je connais bcp moins (s’il y a des experts dans la place ?) Je crois qu’il y a en principe une dose d’aléatoire utilisée dans la sélection des modèles, qui fait en sorte que les mêmes entrées ne donneront pas nécessairement les mêmes sorties, mais ça me paraît assez fondamentalement différent de l’aléatoire des algos stochastiques car on reste contraint par les modèles initiaux, en quelque sorte l’algo ne s’éloignera jamais des sentiers battus. Ou peut-être y a-t-il d’autres façons d’introduire de l’originalité… Je serais curieux de savoir.




Encore faut comprendre ce qui est optimisé. Là ce sont quand même des modèles très génériques, qui optimise la vraisemblance de la solution plutôt que la solution. C’est ce qui a de pire dans une logique fonctionnelle, mais ça vend bien!



Arkeen a dit:


Enfin, ce qui craint le + selon moi : le principe d’une IA c’est d’arriver à un niveau de complexité tel qu’on ne peut plus expliquer pour l’algo a fait tel ou tel choix. Construire l’informatique (ici code & OS) à partir de choix qui tiennent de l’aléatoire, ça me paraît d’une connerie sans nom. #vieuxcon?




La manière dont je le vois, c’est que déjà actuellement le fait d’avoir plus de complexité dans les programmes en général (et pas seulement le code, mais aussi toute la partie compilateurs, interpréteurs, …) provoque déjà actuellement un sentiment de “non-fiabilité” sur tout ce qui utilise l’informatique. Plus personne s’étonne de voir qu’un truc qui marche un jour marche plus demain et de nouveau le sur-lendemain. Plus personne n’est étonné quand on arrive à un guichet d’entendre “je peux pas faire ci ou ça, c’est la faute de “l’ordinateur” qui marche pas.



Là, on rajoute encore un tour de cliquet.



Les choses seront encore plus aléatoire, et ça va surtout favoriser encore plus l’élitisme technique en informatique entre ceux , de moins en moins nombreux qui arriveront encore à piger et réparer et les autres qui ne seront que des pousseurs de boutons sur une GUI qu’il faudra redémarrer souvent. (Et comme par hasard cette expertise ne sera qu’aux USA)



Et je ne parle même pas du terrain de jeu du hacking qui s’étend d’autant.



C’est à mon sens pourquoi il est crucial de garder & maitriser des solutions technologiques diverses et “locales” (oui c’est un rant souverainiste) pour qu’on puisse continuer à faire marcher des trucs.
quand je vois qu’ils veulent commencer à mettre de l’AI dans la gestion des réseaux (mobile & IP)…