Build 2023 : avalanche d'annonces autour de l'IA, des développeurs et des entreprises

Build 2023 : avalanche d’annonces autour de l’IA, des développeurs et des entreprises

Les aventuriers de l'Arm perdu

Avatar de l'auteur
Vincent Hermann

Publié dans

Logiciel

26/05/2023 11 minutes
5

Build 2023 : avalanche d'annonces autour de l'IA, des développeurs et des entreprises

Dans notre premier article, nous avons passé en revue les annonces essentiellement tournées vers les utilisateurs pour Windows et l’IA. Dans cette suite, nous abordons celles concernant les entreprises et les développeurs.

Notre dossier sur la conférence Build 2023 :

Dev Home, Dev Drive et Dev Box

On commence les nouveautés pour développeurs avec deux fonctions dédiées directement à leur environnement.

Dev Home est un projet open source (licence MIT) se présentant comme un centre de contrôle. Sa mission est de surveiller l’activité sur les projets (notamment issues et pull requests) et de l’afficher dans un tableau de bord. Son interface est personnalisable via des widgets, et il peut servir aussi à configurer l’environnement de développement, par exemple en récupérant des applications et paquets, en configurant des dépôts et autres, le tout via winget.

Dev Home

Dev Drive est, lui, dédié au stockage sécurisé pour les développeurs, par exemple des bibliothèques. Le stockage est basé sur le système de fichiers ReFS (Resilient File System). Microsoft promet des opérations d’entrées/sorties plus performantes de 30 %. « Le nouveau mode performances est plus sûr pour vos charges de travail que les exclusions de dossiers ou de processus, offrant une solution ultime pour équilibrer la sécurité et la performance », a ainsi vanté Panos Panay (chef de produit Windows).

Les Dev Box sont de leur côté des machines virtuelles pensées pour les développeurs. Lors de leur présentation l’année dernière, Microsoft les présentait comme des environnements de développement à distance. Disponibles jusque-là en préversion, leur finalisation est désormais proche.

Microsoft dit avoir reçu nombre de retours pertinents de clients comme General Motors, National Instruments et 1ES. Des améliorations ont été apportées et une option 2 To a été ajoutée pour le stockage, en plus des variantes 256 Go, 512 Go et 1 To. La facturation se fait également en fonction de la puissance fournie, avec quatre configurations proposées :

  • 4 cœurs vCPU, 16 Go de mémoire
  • 8 cœurs vCPU, 32 Go de mémoire
  • 16 cœurs vCPU, 64 Go de mémoire
  • 32 cœurs vCPU, 128 Go de mémoire

Parmi les nouveautés présentées, on trouve d’ailleurs la capacité de faire hiberner 8 ou 16 cœurs vCPU, pour éviter que la facturation ne porte que sur le nombre de cœurs. Signalons aussi l’arrivée d’une image Visual Studio Starter, des optimisations spécifiques pour Visual Studio dans ce cadre d’utilisation, ou encore l’arrivée prochaine des définitions Config-as-code.

GitHub Advanced Security for Azure DevOps

Ce service a été présenté pour la première en octobre dernier, avec une préversion privée le mois suivant. Cette dernière a été améliorée et est aujourd’hui disponible publiquement.

Comme son nom l’indique, il s’agit de porter les fonctions de GitHub Advanced Security à Azure DevOps. On retrouve donc les mêmes capacités d’analyse des secrets, des dépendances et de CodeQL, le tout intégré dans Azure Repos et Azure Pipelines.

Microsoft se plait à rappeler que la moitié des brèches dans la sécurité sont dues à des identifiants exposés. Les deux autres analyses permettent respectivement de vérifier les dépôts et de chercher les potentiels soucis de sécurité courants dans le code.

Le service sera facturé 49 dollars par utilisateur et par comitter. Il s’active depuis la console Azure.

Multiples améliorations pour le développement sur Windows on Arm

On peut voir depuis deux ans une accélération des efforts de Microsoft sur le développement pour sa plateforme pour puces Arm, notamment à travers le projet Volterra.

De nouvelles annonces ont eu lieu pendant la conférence Build, comme le support d’Arm dans Visual Studio à travers .NET Multi-platform App User Interface (MAUI) et la compilation native pour Arm dans LLVM.

Même chose pour Node.js dans sa version 20.0.0, qui prend également en charge l’Arm64 tier 2. Windows Installer XML (WiX) gagne lui aussi le support d’Arm64 pour ses outils principaux, extensions et Burn.

Dans une moindre mesure, Microsoft a donné quelques nouvelles sur le front des applications, comme la disponibilité d’une version native Arm pour Luminar Neo : Skylum, ou encore l’arrivée d’une autre pour Unity Player le mois prochain.

Azure AI Studio

Parmi les multiples annonces en lien avec l’IA, AI Studio est probablement l’une des plus importantes. Présent dans Azure OpenAI Service (qui aurait dépassé les 4 500 clients selon Microsoft), ce nouveau produit permet aux clients de combiner des modèles d’OpenAI comme ChatGPT ou GPT-4 avec leurs propres données, pour concevoir des applications en lien avec ces données privées.

Les entreprises peuvent ainsi concevoir leurs propres chatbots ou copilotes, adaptés à leurs besoins. Il peut s’agir de compléments venant enrichir leurs propres produits, ou simplement dédiés à des besoins internes. Il s’agit, pour résumer, de proposer les mêmes capacités ayant présidé à la création de Bing Chat.

Les étapes sont présentées simplement : on choisit d’abord un modèle d’IA générative, on lui ajoute une description sur la manière dont le rôle et le fonctionnement général du copilote, puis on connecte des sources de données. Du stockage dans le cloud peut être ajouté pour que le service puisse garder des traces des conversations actives pour augmenter la portée du contexte. Des plugins peuvent également être raccordés pour ouvrir le projet à d’autres sources d’informations.

Fabric, le service unifié d’analyse de données

Microsoft était manifestement consciente que ses outils d’analyse de données se multipliaient, faisant perdre à l’offre une partie de sa visibilité. Fabric est présenté comme la réponse, un produit parapluie abritant tout ce qui touche à Azure Data, Power BI et Synapse, et comme un portail d’entrée unique à l’analyse de données de bout en bout.

Avec Fabric, Microsoft veut proposer un hub ouvert et axé sur les lacs de données, devant aider les ingénieurs à connecter et organiser les sources, tout en stoppant leur prolifération. Toutes les personnes devant accéder aux informations extraites peuvent bénéficier d’un affichage personnalisé, en fonction des missions et des droits. Des fonctions de sécurité, de gouvernance et de conformité sont bien sûr présentes. Les perspectives ainsi dégagées sont exploitables dans les applications Microsoft 365.

  • Microsoft Fabric
  • Microsoft Fabric
  • Microsoft Fabric
  • Microsoft Fabric

L’éditeur met en avant les sept grandes capacités de son nouveau produit :

  • Data Factory : plus de 150 connecteurs pour les sources de données, cloud ou sur site, avec organisation des pipelines
  • Synapse Data Engineering : authoring pour Spark, démarrage instantané pour les livepools et collaboration
  • Synapse Data Science : flux de bout en bout pour les scientifiques de la donnée, afin de concevoir des modèles IA, collaborer, et entrainer, déployer et gérer des modèles de machine learning
  • Synapse Data : expérience unifiée de lac et d’entrepôt de données. Les performances sont décrites comme élevées et les formats de données ouverts
  • Synapse Real-Time Analytics : conçu pour recevoir les flux de données provenant des objets connectés, de la télémétrie, des journaux et autres, et analyser des volumes massifs de données semi-structurées avec une faible latence
  • Power BI in Microsoft Fabric : visualisation et analyse carburant à l’IA pour tout ce qui touche à Power BI
  • Data Activator : détection et surveillance temps réel pour les données, pouvant déclencher des notifications et actions quand certains comportements sont détectés

Le tout repose sur une solution de stockage nommée OneLake et dépeinte par Microsoft comme le « OneDrive pour les données ». OneLake est basé sur Azure Data Lake Storage Gen2 (ADLSg2). Il peut virtualiser le stockage des lacs de données via des « Shortcuts », compatible d’ailleurs avec AWS S3 et prochainement avec Google Storage.

Enfin, comme dans presque toutes les annonces désormais, Fabric carbure à l’IA, avec les mêmes technologies que pour les autres produits (Azure OpenAI et Copilot).

OneLake Fabric

Les Azure Deployment Environments disponibles gratuitement

Ce nouveau service, gratuit, veut offrir aux développeurs un accès plus rapide à leur infrastructure applicative dans le cloud via des modèles basés sur les projets.

Il s’agit là encore d’un produit qui avait été annoncé l’année dernière, plus précisément à la Build 2022. Entre temps, Microsoft dit avoir travaillé avec une trentaine d’entreprises pour collecter des retours.

« Les développeurs obtiennent un accès rapide et simple à leurs environnements via un déploiement automatisé et à la demande. Si les développeurs ont une idée sur la manière de rendre leurs environnements meilleurs, ils pourront éditer et soumettre leurs propres modèles via une pull request au dépôt des modèles infrastructure-as-code », indique Microsoft.

Le service propose également en préversion le support des fichiers Terraform. Il « supporte déjà les modèles Azure Resource Manager (ARM) ; ajouter Terraform signifie que les clients utilisant Terraform pourront importer directement leurs modèles existants dans Azure Deployment Environments », précise l’éditeur.

Azure : Power BI, Cosmos DB et SQL Database, Container Storage…

On enchaine avec une floppée d’annonces pour plusieurs services d’Azure, à commencer par Power BI, qui se dote notamment d’un Copilot. Disponible en préversion, il aura globalement la même mission que les autres copilotes, comme la découverture et le partage d’informations. Microsoft donne quelques exemples : création et adaptation de rapports en quelques secondes, génération et modification de calculs DAX, génération de résumés, prise en charge de questions sur les informations, etc.

Deux autres préversions sont disponibles. La première, Direct Lake, est un mode de stockage devant permettre aux clients un accès direct aux données massives (big data) dans le lac, sans avoir à les répliquer. L’autre, Desktop Developer Mode, permet l’intégration de Git pour les ensembles de données et les rapports de Power BI.

Azure Cosmos DB reçoit de son côté plusieurs nouveautés, notamment la capacité de rafale. Elle permet l’utilisation du débit inactif de la base de données ou du conteneur pour gérer les pics de trafic. Si l’option est activée sur le débit standard provisionné, Microsoft assure que les performances seront préservées pendant les « courtes périodes où les demandes dépassent la limite de débit », une possibilité présentée comme une « marge de manœuvre » dans le cas où les clients seraient sous-provisionnés, entrainant une baisse des requêtes à débit limité.

Des clés de partition hiérarchiques sont également possibles. Les clients peuvent ainsi utiliser jusqu’à trois clés de partition au lieu d’une, gommant la chute de performances qui peut survenir quand il ne faut choisir qu’une seule clé.

Azure Cosmos DB for NoSQL se dote pour sa part de vues matérialisées, en préversion. Le principe est simple : on peut créer et maintenir des vues secondaires des données dans des conteneurs, qui seront alors utilisés pour servir des requêtes qui, sinon, seraient trop coûteuses pour un conteneur existant.

Les Azure SQL Database Hyperscale elastic pools sont une autre nouveauté en préversion. Le service introduit un modèle partagé pour les bases Hyperscale. Chaque pool peut contenir un maximum de 25 bases, pour une capacité totale de partage de 100 To. On peut alors augmenter ou diminuer les ressources allouées au pool dans un délai prévisible, sans tenir compte de la quantité de stockage allouée. La mise à l’échelle se veut rapide, via l’ajout de répliques à l’échelle de lecture.

Microsoft Azure Container Storage recevra de son côté deux améliorations importantes. D’une part, l’instantané de volume, qui permettra de capturer l’état des volumes persistants à un instant T, autorisant la sauvegarde des données avant de les modifier. D’autre part, l’augmentation de l’objectif d’évolutivité des volumes persistants, qui devrait permettre de se concentrer sur les services de données sans se soucier des limites de l’infrastructure.

Parmi les autres nouveautés en approche pour Azure, citons l’arrivée de Managed Prometheus, de nouvelles machines virtuelles confidentielles en préversion basées sur des processeurs Intel Xeon de quatrième génération (avec TDX), les conteneurs confidentiels sur Azure Container Instances (ACI) basés sur les processeurs AMD EPYC, ou encore la possibilité d’exécuter des machines virtuelles confidentielles pour Azure Data Explorer et Azure Databricks.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Dev Home, Dev Drive et Dev Box

GitHub Advanced Security for Azure DevOps

Multiples améliorations pour le développement sur Windows on Arm

Azure AI Studio

Fabric, le service unifié d’analyse de données

Les Azure Deployment Environments disponibles gratuitement

Azure : Power BI, Cosmos DB et SQL Database, Container Storage…

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (5)



Le service sera facturé 49 dollars par utilisateur et par mois. Il s’active depuis la console Azure.




Par utilisateur ou par committer ? GHAS (et pas mal d’autres outils du genre) ont ce modèle où un siège est pris par committer sur le repository. Et parfois un utilisateur peut être vu en double, j’ai pu l’observer chez un client où la personne a changé de mail entre deux et comme le Git author email est pris en considération pour l’unicité on s’est étonné de voir deux slots pris pour un même username.


Comitter effectivement, je corrige :chinois:


Vincent_H

Comitter effectivement, je corrige :chinois:


C’est une notion importante car en fonction des outils utilisant ce modèle, si on creuse les règles de gestion ou qu’on utilise leur outil de calcul, on peut avoir de sacrés surprises :D



Genre sur un contexte j’étais entre 100 committers pour l’outil A et la méthode de calcul de l’outil B disait … 300.


J’ai pas compris pourquoi on a une image de l’écran portable overpriced et futur déchet électronique de Sony en intro …


C’est une erreur, corrigée merci :chinois: