Microsoft lance Azure OpenAI, de vastes ambitions pour l'intelligence artificielle

ChatGPT pour « bientôt »
Logiciel 7 min
Microsoft lance Azure OpenAI, de vastes ambitions pour l'intelligence artificielle

Microsoft vient d’annoncer la disponibilité générale d’Azure OpenAI. Les entreprises intéressées peuvent désormais se servir de l’infrastructure cloud pour déployer leurs modèles. Bien que le mouvement paraisse naturel, il vient témoigner de l’ampleur de la stratégie IA à Redmond.

Depuis hier et jusqu’à la fin de la semaine, Microsoft déploie sa nouvelle offre OpenAI dans Azure, son infrastructure cloud. C’est l’étape finale après plus d’un an de travaux. Microsoft a noué une relation des plus étroites avec OpenAI depuis son investissement d’un milliard de dollars dans l’entreprise spécialisée, à qui l’on doit le récent ChatGPT, qui n’en finit plus de faire parler de lui.

Si l’on peut la résumer comme un simple ajout dans la galaxie Azure, cette annonce représente probablement le coup d’envoi d’une stratégie plus profonde.

Les capacités d’Azure OpenAI

Le nouveau service se destine bien sûr aux entreprises ayant des besoins en intelligence artificielle, et plus particulièrement avec les modèles fournis par OpenAI, notamment les trois plus récents : GPT 3.5, Codex et Dall-E.

Cloud oblige, le service peut être incorporé dans des applications web ou locales pour faire appel à ces modèles, et peut suivre la montée en charge, donc les besoins des clients. Les domaines d’application sont nombreux, car les modèles peuvent être appliqués à un vaste ensemble de situations, par exemple pour améliorer la précision des recherches dans une boutique, établir des priorités dans les évènements comme les tickets de service client, ou encore pour de la comparaison de contenus.

Pour mieux faire monter la sauce, plusieurs témoignages sont présents dans le billet d’annonce. On apprend ainsi que des entreprises comme Moveworks, Al Jazeera et KPMG se servent déjà d’Azure OpenAI, qui était disponible en préversion depuis plusieurs mois.

On note l’absence de ChatGPT. La carence sera comblée « bientôt », comme confirmé par Microsoft, ainsi que par OpenAI de son côté dans un tweet. Après tout, ChatGPT est une version légèrement modifiée de GPT3.5 dont l’entrainement et l’inférence ont été réalisés… sur les serveurs Azure. Le monde est décidément petit.

 

Contrairement à la quasi-intégralité des autres services Azure, il ne suffira pas de payer pour accéder à OpenAI. Les développeurs devront décrire comment et pourquoi ils souhaitent utiliser ces modèles, au travers d’une requête. Microsoft est libre de refuser, particulièrement si elle juge que le scénario n’est pas supporté « à cause d’un risque plus important d’utilisation abusive, comme une application de création de contenu ouverte aux utilisateurs non authentifiés, qui pourraient générer du contenu sans contrainte sur n’importe quel sujet ».

En outre, des filtres sont présents pour attraper les contenus « abusifs, haineux et offensants » dans les projets acceptés. Cette surveillance sera constante, selon l’entreprise.

Azure OpenAI prix
Les prix sont indicatifs, car la région Europe n'est pas ouverte pour Azure OpenAI actuellement

De l'IA partout, tout le temps

Microsoft n’en est pas à son coup d’essai avec ces modèles, la firme les ayant pratiqués pour ses propres besoins. Azure OpenAI est ainsi à la barre pour GitHub Copilot, un service facturé 10 dollars par mois aux développeurs pour fournir des suggestions de code dans des situations variées.

Le produit a d’ailleurs fait parler de lui récemment, car une plainte a été déposée contre Microsoft, GitHub et OpenAI. Copilot s’alimente en effet dans les dépôts publics pour analyser le code et proposer des solutions dans des situations similaires, mais sans rien demander à personne ni surtout respecter la licence qui accompagne systématiquement ce code. La GPL, par exemple, oblige à citer ses sources et à mentionner la licence.

Ce n’est pas tout, puisque Power BI se sert lui aussi d’un modèle d’OpenAI, en l’occurrence GPT3, pour générer des expressions et formulaires. Plus récemment, l’annonce de la future application Designer a abordé l’intégration de Dall-E pour générer des images à partir de mots-clés, une opération désormais courante.

Et au vu des dernières déclarations de Microsoft, ce n’est que le début de l’IA dans les produits de l’entreprise. Elle compte en effet se servir de ChatGPT dans Bing et dans toute la suite Office. Le chef produit Panos Panay a même affirmé il y a quelques jours qu’un travail était en cours pour intégrer l’IA dans Windows, dans un message à peine voilé. Et s’il fallait encore une preuve que l’IA représente l’un des plus gros axes de développement de la firme, elle est en discussion pour un investissement de 10 milliards de dollars dans OpenAI. Elle obtiendrait 75 % des bénéfices d’OpenAI jusqu’à récupération de son investissement, la part chutant ensuite à 49 %.

Ce n’est pas assez ? Satya Nadella, à la tête de la société, est intervenu hier au World Economic Forum, comme le rapporte le Wall Street Journal. Ses propos étaient on ne peut plus clairs : « Chaque produit de Microsoft aura certaines de ces mêmes capacités d’intelligence artificielle pour transformer complètement le produit ». Cette intégration est vue comme une opportunité de croissance : « Nous avons besoin de quelque chose qui change réellement la courbe de productivité pour que nous puissions avoir une vraie croissance ».

Les points de contrôle s'accroissent avec l'utilisation

Il est certain que l’intelligence artificielle porte en elle certaines promesses dans ce domaine. Le Copilot de GitHub est un bon exemple, et on pouvait voir des développeurs en décrire l’efficacité dans les commentaires de nos actualités. Elle pose cependant certaines problématiques sur la table, d’autant plus à travers le prisme d’une vaste généralisation.

Le plus gros danger inhérent aux modèles est la répercussion des biais. Tous en ont, sous une forme ou une autre, car les personnes qui les développent en ont. On peut même parler d’amplification, surtout dans un cadre d’intégration dans tous les produits, Microsoft ayant tout intérêt à se montrer vigilante sur la question.

L’autre thématique récurrente est le lissage. Pour reprendre l’exemple de Copilot, il existe un risque que les fonctions d’IA proposent systématiquement une solution peu ou prou identique quand elles détectent des situations présentant des similitudes. On pourrait assister à une sorte de nivellement niant l’originalité d’autres solutions, quand une personne s’attaque à un problème avec une vision différente de la situation.

Ce problème peut sembler accessoire, mais il pourrait se révéler primordial dans le cadre d’une généralisation, et d’autant plus que l’IA pourra servir de support à du décisionnel. Le simple fait de pouvoir intégrer des pans entiers de code dans un projet n’a rien d’anodin, même si la fonction permet de gagner du temps, voire beaucoup de temps. Cette idée de présenter une solution semblant la plus adaptée face à des paramètres est séduisante, mais le contrôle humain devra rester absolu. Il suffit d’observer les débats autour de Parcoursup, qui n’est pourtant qu’un « simple » algorithme.

Enfin, et ce n’est pas nouveau, l’IA est consommatrice d’énergie. Cette thématique est d’autant plus sous les feux de la rampe que ladite énergie coûte bien plus cher. Sa généralisation entrainera mathématiquement une charge plus intense pour les centres de données, puisque l’on parle d’Azure OpenAI. Bien que Microsoft ne l’ait pas mentionné, l’intégration de ces capacités s’appuiera sur ses serveurs. Dans le cas contraire, les calculs seraient laissés à la charge de l’appareil, dont la puissance de calcul varie trop grandement pour s’assurer d’une expérience utilisateur satisfaisante.

Ces quelques éléments ne sont pas des sujets d’inquiétude, mais des points de contrôle. Comme dans beaucoup de cas, les capacités techniques permettent l’émergence et l’explosion d’une certaine technologie, dans laquelle tout le monde s’engouffre, parfois avec excès. On pourrait rappeler l’arrivée de la 3D dans les jeux, particulièrement sur console, où il a fallu des années pour que le concept soit correctement géré, tant pour la gestion de la caméra que les contrôles.

Microsoft prend d’ailleurs les devants et aborde son approche « responsable » et itérative de l’IA. Elle précise travailler de près avec OpenAI et ses clients sur les risques qui apparaissent ou pourraient apparaître. Elle rappelle également que ce travail est réalisé en alignement avec ses principes Responsible IA. Un discours courant, chaque grande entreprise impliquée dans l’IA publiant un équivalent, comme chez Facebook et Google.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !