Magazine High tech

Microsoft utilisera les GPU Oracle Cloud pour répondre aux besoins informatiques de Bing AI

Publié le 09 novembre 2023 par Zaebos @MetatroneFR

Un accord pluriannuel pour accompagner la croissance explosive des services d’IA

Grand si c’est vrai : Microsoft a lancé Bing Chat en février, permettant aux utilisateurs d’essayer les nouvelles fonctionnalités basées sur l’IA de son service de recherche par ailleurs terne. Depuis lors, les utilisateurs semblent affluer en masse vers Bing Chat. La société doit désormais louer de la puissance GPU externe pour maintenir les hallucinations de l’IA.

Microsoft et Oracle ont annoncé un accord pluriannuel sur une collaboration cloud pour l’inférence IA. Le titan technologique de Redmond louera essentiellement une certaine capacité de cloud computing au géant des bases de données, fournissant ainsi au moteur conversationnel IA de Bing une augmentation de puissance indispensable.

Selon Karan Batta, vice-président senior d’Oracle Cloud Infrastructure, l’IA générative est un bond technologique monumental, et Bing est à l’avant-garde du secteur de l’IA moderne. Le moteur de recherche conversationnel de Bing nécessite « de puissants clusters d’infrastructures informatiques » pour évaluer les résultats de recherche grâce à la technologie OpenAI, un processus traditionnellement connu sous le nom d’inférence.

Microsoft utilisera les GPU Oracle Cloud pour répondre aux besoins informatiques de Bing AI

Les modèles d’inférence nécessitent « des milliers d’instances de calcul et de stockage » et des dizaines de milliers de GPU, qui fonctionnent en parallèle comme un puissant superordinateur échangeant des térabits de données sur une infrastructure réseau ultra-rapide. Grâce à la plateforme cloud d’Oracle, Bing pourra étendre l’accès des utilisateurs à ses fonctionnalités d’IA et améliorer la vitesse de « beaucoup » de ses résultats de recherche.

Microsoft utilisera la technologie Oracle Interconnect for Microsoft Azure, qui permet aux services gérés exécutés sur des clusters Azure d’accéder aux ressources de l’infrastructure IA d’Oracle. Ces superclusters peuvent exploiter 32 768 GPU Nvidia A100 ou 16 384 GPU H100 et des pétaoctets de clusters de stockage hautes performances pour « traiter efficacement des applications massivement parallèles ». Le système communique via un réseau RDMA (Remote Direct Memory Access) à « latence ultra-faible ».

Divya Kumar de Microsoft a déclaré que Bing peut désormais accéder aux dernières avancées en matière d’algorithmes d’IA générative pour offrir une « expérience de recherche considérablement meilleure » aux utilisateurs du monde entier. Il est dommage que, selon les dernières données de Statcounter, Bing ne détient qu’une part de marché mondiale de 3,11 %, contre 91,55 % pour Google dans le secteur de la recherche. Bing fait légèrement mieux en matière de recherche Web sur ordinateur, avec une part de marché de 9,14 pour cent contre 83,53 pour cent pour Google. Cependant, cette part du gâteau ne fait guère de Bing une menace sérieuse pour le monopole de facto de Google dans l’écosystème de recherche en ligne.


Retour à La Une de Logo Paperblog