Intelligence artificielle : Scaleway et OVHcloud font « all–in »

Avec l’impasse sur le rouge

Intelligence artificielle : Scaleway et OVHcloud font « all–in »

Intelligence artificielle : Scaleway et OVHcloud font « all–in »

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Cette semaine, deux hébergeurs français ont annoncé de forts investissements (et ambitions) dans l’intelligence artificielle. Iliad (Free et Scaleway) ouvrait le bal mardi, suivi par OVHcloud ce jeudi. Voici ce qu’il faut retenir des deux annonces… qui font la part belle à NVIDIA.

Un DGX SuperPOD (1 016 GPU H100) dans DC5 de Scaleway 

Le groupe iliad était le premier à dégainer avec « l’acquisition du DGX SuperPOD de NVIDIA équipé des systèmes NVIDIA DGX H100, mettant ainsi à disposition des acteurs européens de l’IA la plus grande puissance de calcul Cloud IA d’Europe via sa filiale Scaleway ». Le SuperPOD est installé dans le datacenter DC5 situé en région parisienne. 

« Nous disposons aujourd’hui de la plus grande puissance de calcul Cloud dédiée à l’IA déployée à ce jour en Europe. Et ce n’est que le début », a affirmé Xavier Niel. Pour la partie technique, « le DGX SuperPOD de NVIDIA dont dispose Scaleway comprend 127 systèmes DGX H100, soit un total de 1 016 NVIDIA H100 Tensor Core GPU interconnectés par la technologie NVIDIA NVLink et la plateforme NVIDIA Quantum-2 InfiniBand. Les systèmes NVIDIA DGX incluent également les logiciels NVIDIA AI Enterprise, qui permettent de développer une IA à la fois stable et sécurisée ». Un DGX H100 comprend pour rappel huit GPU.  

Pour des modèles plus petits, une offre composée de deux systèmes DGX H100 interconnectés est également proposée. Iliad précise que cet investissement n’est qu’une première étape ; la société « a pour ambition d’accroître à court terme la capacité de calcul disponible pour ses clients ». 

Un laboratoire de recherche d’excellence en IA et une conférence

Iliad en profite pour annoncer la « création d’un laboratoire de recherche d’excellence en intelligence artificielle à Paris, déjà doté à plus de 100 millions d’euros ». Xavier Niel sera aux commandes, et une équipe de chercheurs « internationalement reconnus pour leur expertise dans leur domaine » est déjà en place. 

Trois objectifs sont mis en avant pour ce laboratoire de recherche : 

  • « faire profiter tout l’écosystème IA (organismes publics et privés, entreprises et institutions non lucratives) d’avancées significatives dans le développement et l’optimisation de modèles d’IA ;
  • former une nouvelle génération de chercheurs, notamment à travers l’accueil d’étudiants en thèse CIFRE [Conventions industrielles de formation par la recherche, ndlr] ;
  • améliorer la compréhension des technologies d’IA par les institutions, les entreprises et le grand public à travers la transparence de sa recherche ».

Afin de réunir l’écosystème et présenter les chercheurs du laboratoire, Iliad annonce une « conférence européenne de référence sur l’Intelligence Artificielle dédiée aux acteurs-clés de l’industrie ». Cette première édition se déroulera le 17 novembre à Station F. Pour les inscriptions, c’est par là que ça se passe.

A100, H100, L40S, L4 : NVIDIA à tous les étages chez OVHcloud…

De son côté, OVHcloud annonce « de nouvelles offres basées sur les GPU suivants : NVIDIA H100, NVIDIA A100, NVIDIA L40S et NVIDIA L4 ». Les A100 sont déjà disponibles. « Les instances A100 Public Cloud peuvent être configurées comme A100-180 avec 1x A100, 15 vCore et 180 Go de RAM, A100-360 avec 2x A100, 30 vCore et 360 Go de RAM et A100-720 avec 4x A100, 60 vCore et 720 Go de RAM », explique OVHcloud. Le tarif début à 2,75 euros HT pour A100-180, on double pour A100-360 et on quadruple pour A100-720.

Pour les H100, deux versions seront proposées dans le cloud public, à partir du mois de novembre : des GPU en PCIe avec une puissance de calcul de 26 Pflop en FP64 (51 PFlop via les Tensor Core toujours en FT64) et des versions plus performantes au format SXM avec respectivement 34 et 67 Pflop.  Des préréservations sont possibles dès maintenant pour les versions PCIe, tandis qu’il faut demander un devis personnalisé pour les SXM.  

Enfin, il est aussi question de nouvelles instances avec des GPU L4 (24 Go de mémoire, architecture Ada Lovelace) et L40S (48 Go de mémoire, Ada Lovelace également). « Les instances GPU NVIDIA L4 et L40S seront disponibles dans le courant du mois d’octobre. De nouveaux serveurs Bare Metal disposant des NVIDIA L4 et L40S sont attendus pour un lancement cet automne », explique OVHcloud. 

DGX BasePOD (H100) sur demande

Sur demande des clients, un DGX BasePOD est aussi disponible. Ce système comprend des « machines avec des GPU méchés en infiniband ». Un client l’utilise déjà : LightOn. OVHcloud nous précise que son BasePOD utilise les derniers GPU disponibles, les H100. Le DGX BasePOD (chez OVHcloud) ne doit pas être confondu avec le DGX SuperPOD (chez Scaleway).

BasePOD SuperPOD

… les Instinct MI300 d’AMD « sont très prometteuses »

Les annonces d’OVHcloud sont donc 100 % avec des cartes NVIDIA . Nous avons posé la question à Yaniv Fdida (directeur produit chez OVHcloud) : « Intel et AMD avaient un peu de retard historiquement sur les GPU […] Sur les Instinct MI250 c’était pas encore ça, mais les MI300 sont très prometteuses et on travaille étroitement avec AMD ».

« On cherche toujours le meilleur rapport qualité/prix pour nos clients », ajoute notre interlocuteur en guise de conclusion.

Utiliser ses données pour générer un chatbot

L’autre annonce du jour concerne la mise en place d’une plateforme « qui va permettre aussi à tout l'écosystème de pouvoir interagir de manière intégrée – c'est le sujet d'acquisition de Forpass. Nous on croit beaucoup à la partie dataset, on veut adresser les verticales et donner les moyens aux clients finaux de pouvoir se déployer sur l’IA générative et d’améliorer leur métier grâce à l’IA », détaille Yaniv Fdida.

Ce nouveau service s'adresse davantage à la partie développement. OVHcloud donne un cas d’usage : « Je ne connais pas l’IA, mais par contre, je connais mon dataset privé ». Un développeur pourra ainsi se construire son propre chatbot, sans avoir à trop mettre les mains dans le cambouis.

« Il pourra choisir son modèle et injecter le dataset de manière sécurisée » dans le modèle d’intelligence artificielle le mieux adapté à sa situation, explique Yaniv Fdida. La plateforme lui proposera alors « une application qu’il n’aura plus qu’à copier/coller pour générer un chatbot, améliorer le suivi et le support, etc. ». Il y aura des modèles open source proposés par OVHcloud, mais aussi des « modèles experts » développé par des sociétés tierces, partenaires du roubaisien. 

L’entrainement des modèles et la génération de l’application se font en local sur les serveurs d’OVHcloud, nous précise le directeur produit. « La manière même dont on est construit chez OVHcloud respecte la donnée du client et la sécurise », affirme-t-il. 

Commentaires (4)


« Intel et AMD avaient un peu de retard historiquement sur les GPU […]



Ils veulent dire par rapport à CUDA ? Ou sur les GPUs en général ?



« On cherche toujours le meilleur rapport qualité/prix pour nos clients »



C’est là qu’il faut rire ?


Sur les traitements de l’IA, c’est de ça dont on parle dans cette actu :chinois:


Pour l’IA, il me semble qu’il est possible de faire fonctionner Tensorflow avec ROCm chez AMD mais je n’ai jamais testé.



Hors IA, ROCm reste malheureusement loin derrière CUDA niveau librairies.


Il y a un lien à faire avec la très bonne dernière vidèo à 14 min 36 de Mr Touati d’ACDEFI (cf : https://youtu.be/N-alY8dUIck?si=bJZJ78RuxB0VMU3q ) sur la phase de récession dans laquelle l’Europe et la France surtout, sur comment les entreprises doivent l’affronter. L’approche est très interessante.



L’IA , il s’agit clairement d’un marché de niche ou toutes les entreprises cherchent à avoir sa place dans un secteur violent et concurrentiel. Par contre le ROI à échéance reste encore à voir.


Fermer