Opinion : Est-ce que quelqu’un va gagner de l’argent grâce à l’inférence de l’IA ?

Publié le 08 janvier 2024 par Zaebos @MetatroneFR

Le marché de l’inférence de pointe de l’IA pourrait ne pas être bien monétisé pour les fournisseurs de semi-conducteurs

Un sujet important dans le domaine des semi-conducteurs aujourd’hui est la reconnaissance du fait que la véritable opportunité de marché pour le silicium IA sera le marché de l’inférence IA. Nous pensons que cela a du sens, mais nous commençons à nous demander si quelqu’un va gagner de l’argent avec cela.

Le marché de l’inférence IA est important pour deux raisons. Premièrement, Nvidia semble maîtriser la formation en IA. Il est vrai qu’AMD et Intel proposent des offres dans ce domaine, mais classons-les comme « ambitieuses » pour l’instant. Pour l’instant, c’est le marché de Nvidia. Deuxièmement, le marché de l’inférence IA sera probablement beaucoup plus vaste que celui de la formation. Le PDG d’Intel, Pat Gelsinger, a une bonne analogie à ce sujet : les modèles météorologiques. Seules quelques entités doivent créer des modèles de prévision météorologique (NASA, NOAA, etc.), mais tout le monde veut vérifier la météo.

Note de l’éditeur:

L’auteur invité Jonathan Goldberg est le fondateur de D2D Advisory, un cabinet de conseil multifonctionnel. Jonathan a développé des stratégies de croissance et des alliances pour des entreprises des secteurs de la téléphonie mobile, des réseaux, des jeux et des logiciels.

Il en va de même pour l’IA, l’utilité des modèles dépendra de la capacité des utilisateurs finaux à les utiliser. En conséquence, l’importance du marché de l’inférence a été un thème constant dans tous les événements d’analystes et d’investisseurs auxquels nous avons assisté récemment, et même Nvidia a récemment modifié son positionnement pour parler beaucoup plus d’inférence.

Bien entendu, il existe deux éléments sur le marché de l’inférence : le cloud et la périphérie. L’inférence cloud a lieu dans le centre de données et l’inférence périphérique a lieu sur l’appareil. Nous avons récemment entendu des gens débattre de la définition de ces deux termes, les frontières peuvent devenir un peu floues. Mais nous pensons que la répartition est assez simple : si l’entreprise qui exploite le modèle paie les investissements, c’est l’inférence cloud, si l’utilisateur final paie les investissements (en achetant un téléphone ou un PC), c’est l’inférence Edge.

L’inférence cloud est probablement le concours le plus intéressant à regarder. Nvidia a présenté des arguments très solides expliquant pourquoi ils transféreront leur domination de la formation à l’inférence. En termes simples, il y a beaucoup de chevauchements et Nvidia dispose de Cuda et d’autres outils logiciels pour rendre la connexion entre les deux très simple. Nous pensons que cela plaira à de nombreux clients, nous sommes à l’ère du « Vous ne vous faites pas virer pour avoir acheté Nvidia », et la société a beaucoup à offrir ici.

D’un autre côté, leurs grands concurrents vont faire pression très fort pour conquérir leur part de ce marché. De plus, les hyperscalers qui consommeront probablement la majorité du silicium d’inférence ont la capacité de rompre avec Nvidia, que ce soit en concevant leur propre silicium ou en utilisant pleinement la concurrence. Nous espérons que cette question fera l’objet de beaucoup d’attention dans les années à venir.

Le marché de l’inférence de périphérie est une question beaucoup plus ouverte. Pour commencer, personne ne sait vraiment dans quelle mesure les modèles d’IA s’appuieront sur la périphérie. Les entreprises qui exploitent ces modèles (en particulier les hyperscalers) aimeraient vraiment que l’inférence de bord prédomine. Cela réduira considérablement le montant d’argent qu’ils doivent dépenser pour construire tous ces centres de données d’inférence cloud. Nous soupçonnons que les aspects économiques de l’IA pourraient ne pas être rentables si cela n’est pas possible.

La réalité est que nous ne savons pas ce que les consommateurs seraient prêts à payer, car nous ne savons pas vraiment ce que l’IA fera pour les consommateurs.

Cela étant dit, cette vision s’accompagne d’une mise en garde importante : les consommateurs seront-ils réellement prêts à payer pour l’IA ? Aujourd’hui, si nous demandions au consommateur moyen combien il paierait pour exécuter ChatGPT sur son propre ordinateur, nous pensons que la réponse serait de 0 $. Oui, ils sont prêts à payer 20 $ par mois pour utiliser ChatGPT, mais seraient-ils prêts à payer plus pour le faire fonctionner localement. L’avantage de cela n’est pas tout à fait clair, ils pourraient peut-être obtenir des réponses plus rapidement, mais ChatGPT est déjà assez rapide lorsqu’il est diffusé depuis le cloud. Et si les consommateurs ne sont pas prêts à payer plus pour des PC ou des téléphones dotés de « capacités d’IA », alors les fabricants de puces ne pourront pas facturer des primes pour le silicium doté de ces capacités. Nous avons mentionné que Qualcomm est confronté à ce problème dans les smartphones, mais il en va de même pour Intel et AMD pour les PC.

Nous avons interrogé tout le monde à ce sujet et nous n’avons pas encore obtenu de réponse claire. La réalité est que nous ne savons pas ce que les consommateurs seraient prêts à payer, car nous ne savons pas vraiment ce que l’IA fera pour les consommateurs. Lorsqu’ils sont pressés, les dirigeants de semi-conducteurs avec lesquels nous avons parlé ont tous tendance à utiliser par défaut une version de « Nous avons vu des démos incroyables, à venir » ou « Nous pensons que Microsoft travaille sur des choses incroyables ». Ce sont des réponses justes, nous ne sommes pas (encore) de véritables sceptiques en matière d’IA et nous imaginons que des projets incroyables sont en cours.

Cette dépendance à l’égard des logiciels soulève la question de savoir quelle est la valeur de l’IA pour les fabricants de semi-conducteurs. Si la valeur de ces PC IA dépend des éditeurs de logiciels (en particulier Microsoft), il est probable que Microsoft captera l’essentiel de la valeur des services d’IA grand public. Microsoft est en quelque sorte un expert dans ce domaine. Il existe une possibilité très réelle que le seul coup de pouce apporté par les semi-IA de l’IA soit qu’ils déclenchent une actualisation unique de l’appareil. Ce sera une bonne chose pendant un an ou deux, mais c’est beaucoup plus petit que l’énorme opportunité que certaines entreprises prétendent être l’IA.