Autres articles
-
Marché de l’immobilier en berne : comment réagissent les professionnels du secteur ?
-
Les géants du cloud tiennent les entreprises en otage
-
Quels impacts ont les données du secteur informatique sur le climat ?
-
L'impact positif d'une bonne gestion financière sur la rétention des talents
-
Les conditions d’un nécessaire tournant vers un système financier rentable et durable
Ces environnements GPU sont en raison de leurs caractéristiques et de leur mode de fonctionnement indispensables pour traiter les opérations liées à l’utilisation de l’Intelligence artificielle. Il faut prendre en compte les notions de calcul complexes et parallélisés notamment liées à l’entrainement des modèles sur la base d’une grande qualité de données. Tous ces points impliquent de bénéficier d’environnements de calcul à très haute densité appelés HPC (High-performance computing) pour mener à bien ces opérations.
Toutefois, héberger des environnements HPC n’est pas héberger des environnements classiques peuplés essentiellement de CPU. De nombreuses différences structurelles existent : consommation moyenne des machines CPU de 6KW par Rack contre 60 kW par rack pour les environnements HPC, refroidissement par air pour les CPU contre un refroidissement liquide pour les GPU, poids au sol beaucoup plus important pour les environnements HPC (environ 3T/m² vs 1T/m² pour les environnement classiques) ... Tous ces éléments impactent très fortement les stratégies industrielles des concepteurs de Datacenters et les obligent à penser le cycle de vie de ces bâtiments essentiels de manière différente. Comme nous l’avons vu, le CPU et le GPU convergent peu actuellement quant aux supports nécessaires à leur hébergement dans des Datacenters. Ils s’appuient sur des trajectoires et des infrastructures différentes. En ce sens, penser des bâtiments qui pourront respecter ces spécificités est un impératif. Encore faut-il pouvoir se projeter et anticiper les besoins de demain. N’oublions pas que construire des datacenters prend du temps et mobilise des ressources financières conséquentes, le cycle de vie d’un datacenter est de 20ans alors que les équipements informatiques se renouvelles tous les 5 ans avec des virages de plus en plus rapides qui collent de moins en moins bien avec la temporalité des bâtiments de Datacenter.
Il est donc important de faire des choix industriels et de concevoir des sites et espaces qui correspondront à tel ou tel usage. L’approche réversible n’étant pas une solution viable. Si l’on peut raisonnablement penser que l’approche CPU historique va continuer d’occuper une place importante, il faut désormais également répondre aux usages actuels impulsés par l’IA. En ce sens, commencer à construire des espaces dédiés et continuer d’innover pour satisfaire aux besoins d’aujourd’hui et de demain est donc une nécessité. Les recherches et innovations telles que celle de Telehouse actuellement ont pour objectif de proposer une plateforme communique à tous les types d’équipements informatiques de manière à préparer la place que l’IA prendra irrémédiablement dans le paysage IT sans pour autant remplacer certains usages historiques tel que les réseaux où la bureautique conventionnelle.
Une chose est sûre, l’IA va profondément bouleverser les stratégies de croissance des concepteurs de Datacenters qui vont devoir faire preuve de clairvoyance pour faire les bons choix industriels afin de concevoir leurs futurs sites. L4enjeux de la sobriété et de l’efficacité face à un paysage IT qui se complexifie rend l’opportunité d’autant plus stimulante.
A propos de l'auteur : Sami Slim est directeur général de Telehouse France.