Les grands rivaux technologiques de Nvidia mettent leurs propres puces IA sur la table

En septembre, Amazon a annoncé qu’il investirait jusqu’à 4 milliards de dollars dans Anthropic, une start-up de San Francisco travaillant sur l’intelligence artificielle.

Peu de temps après, un dirigeant d’Amazon a envoyé un message privé à un dirigeant d’une autre entreprise. Il a déclaré qu’Anthropic avait remporté l’accord parce qu’elle avait accepté de construire son IA à l’aide de puces informatiques spécialisées conçues par Amazon.

Amazon, écrit-il, souhaitait créer un concurrent viable au fabricant de puces Nvidia, partenaire clé et faiseur de rois dans le domaine très important de l’intelligence artificielle.

Le boom de l’IA générative au cours de l’année dernière a révélé à quel point les grandes entreprises technologiques étaient devenues dépendantes de Nvidia. Ils ne peuvent pas créer de chatbots et d’autres systèmes d’IA sans un type spécial de puce que Nvidia maîtrise au cours des dernières années. Ils ont dépensé des milliards de dollars pour les systèmes Nvidia, et le fabricant de puces n’a pas répondu à la demande.

Ainsi, Amazon et d’autres géants de l’industrie – dont Google, Meta et Microsoft – construisent leurs propres puces d’IA. Avec ces puces, les géants de la technologie pourraient contrôler leur propre destin. Ils pourraient maîtriser les coûts, éliminer les pénuries de puces et éventuellement vendre l’accès à leurs puces aux entreprises qui utilisent leurs services cloud.

Alors que Nvidia a vendu 2,5 millions de puces l’année dernière, Google a dépensé entre 2 et 3 milliards de dollars pour construire environ un million de ses propres puces d’IA, a déclaré Pierre Ferragu, analyste chez New Street Research. Amazon a dépensé 200 millions de dollars pour 100 000 puces l’année dernière, a-t-il estimé. Microsoft a déclaré avoir commencé à tester sa première puce IA.

Mais ce travail est un exercice d’équilibre entre concurrencer Nvidia et travailler en étroite collaboration avec le fabricant de puces et son PDG de plus en plus puissant, Jensen Huang.

L’entreprise de M. Huang représente plus de 70 % des ventes de puces IA, selon le cabinet de recherche Omdia. Il fournit un pourcentage encore plus important des systèmes utilisés dans la création d’IA générative. Les ventes de Nvidia ont grimpé de 206 % au cours de l’année écoulée et la société a ajouté environ un billion de dollars en valeur marchande.

Les revenus de Nvidia représentent un coût pour les géants de la technologie. Les commandes de Microsoft et Meta représentaient environ un quart des ventes de Nvidia au cours des deux derniers trimestres complets, a déclaré Gil Luria, analyste à la banque d’investissement DA Davidson.

Nvidia vend ses puces pour environ 15 000 dollars chacune, tandis que Google dépense en moyenne entre 2 000 et 3 000 dollars chacune, selon M. Ferragu.

“Quand ils ont rencontré un vendeur qui les tenait au-dessus d’un baril, ils ont réagi très fortement”, a déclaré M. Luria.

Les entreprises courtisent constamment M. Huang, se bousculant pour être en première ligne pour ses jetons. Il apparaît régulièrement sur les scènes d’événements avec leurs dirigeants, et les entreprises n’hésitent pas à dire qu’elles restent attachées à leur partenariat avec Nvidia. Ils prévoient tous de continuer à proposer leurs jetons aux côtés des leurs.

Alors que les grandes entreprises technologiques se lancent dans les activités de Nvidia, celle-ci se lance dans les leurs. L’année dernière, Nvidia a lancé son propre service cloud où les entreprises peuvent utiliser ses puces, et achemine ses puces vers une nouvelle vague de fournisseurs de cloud, tels que CoreWeave, qui concurrencent les trois grands : Amazon, Google et Microsoft.

“Les tensions ici sont mille fois supérieures aux tergiversations habituelles entre clients et fournisseurs”, a déclaré Charles Fitzgerald, consultant en technologie et investisseur.

Nvidia a refusé de commenter.

Le marché des puces IA devrait plus que doubler d’ici 2027, pour atteindre environ 140 milliards de dollars, selon le cabinet d’études Gartner. De vénérables fabricants de puces comme AMD et Intel construisent également des puces spécialisées en IA, tout comme des start-ups telles que Cerebras et SambaNova. Mais Amazon et d’autres géants de la technologie peuvent faire des choses que leurs petits concurrents ne peuvent pas faire.

“En théorie, si elles parviennent à atteindre un volume suffisamment élevé et à réduire leurs coûts, ces sociétés devraient être en mesure de fournir quelque chose d’encore meilleur que Nvidia”, a déclaré Naveen Rao, fondateur de l’une des premières sociétés de puces IA. ups et l’a ensuite vendu à Intel.

Nvidia construit ce qu’on appelle des unités de traitement graphique, ou GPU, qu’elle a initialement conçues pour faciliter le rendu des images pour les jeux vidéo. Mais il y a dix ans, des chercheurs universitaires ont réalisé que ces puces étaient également très efficaces pour construire les systèmes, appelés réseaux de neurones, qui pilotent désormais l’IA générative.

Au fur et à mesure que cette technologie prenait son essor, M. Huang a rapidement commencé à modifier les puces et les logiciels associés de Nvidia pour l’IA, et ils sont devenus la norme de facto. La plupart des systèmes logiciels utilisés pour entraîner les technologies d’IA ont été conçus pour fonctionner avec les puces de Nvidia.

“Nvidia possède d’excellentes puces et, plus important encore, ils disposent d’un écosystème incroyable”, a déclaré Dave Brown, qui dirige les efforts en matière de puces d’Amazon. Cela rend « très, très difficile » d’amener les clients à utiliser un nouveau type de puce IA, a-t-il déclaré.

Réécrire le code d’un logiciel pour utiliser une nouvelle puce est si difficile et si long que de nombreuses entreprises n’essaient même pas, a déclaré Mike Schroepfer, conseiller et ancien directeur de la technologie chez Meta. « Le problème du développement technologique est qu’une grande partie de celui-ci meurt avant même d’avoir commencé », a-t-il déclaré.

Rani Borkar, qui supervise l’infrastructure matérielle de Microsoft, a déclaré que Microsoft et ses pairs devaient permettre aux clients de passer de manière « transparente » entre les puces de différentes sociétés.

Amazon, a déclaré M. Brown, s’efforce de rendre le passage d’une puce à l’autre « aussi simple que possible ».

Certains géants de la technologie ont réussi à fabriquer leurs propres puces. Apple conçoit le silicium des iPhone et des Mac, et Amazon a déployé plus de deux millions de ses propres puces de serveur traditionnelles dans ses centres de données de cloud computing. Mais de telles réalisations nécessitent des années de développement matériel et logiciel.

Google a la plus grande longueur d’avance dans le développement de puces IA. En 2017, elle a présenté son unité de traitement tensoriel, ou TPU, du nom d’un type de calcul essentiel à la construction de l’intelligence artificielle. Google a utilisé des dizaines de milliers de TPU pour créer des produits d’IA, notamment son chatbot en ligne, Google Bard. Et d’autres sociétés ont utilisé la puce via le service cloud de Google pour créer des technologies similaires, notamment la start-up très médiatisée Cohere.

Amazon utilise désormais la deuxième génération de Trainium, sa puce permettant de créer des systèmes d’IA, et dispose d’une deuxième puce conçue uniquement pour proposer des modèles d’IA aux clients. En mai, Meta a annoncé son intention de travailler sur une puce d’IA adaptée à ses besoins, même si elle n’est pas encore utilisée. En novembre, Microsoft a annoncé sa première puce d’IA, Maia, qui se concentrera initialement sur l’exécution des propres produits d’IA de Microsoft.

“Si Microsoft construit ses propres puces, il construit exactement ce dont il a besoin au coût le plus bas possible”, a déclaré M. Luria.

Les concurrents de Nvidia ont utilisé leurs investissements dans des start-ups d’IA de premier plan pour alimenter l’utilisation de leurs puces. Microsoft a engagé 13 milliards de dollars dans OpenAI, le fabricant du chatbot ChatGPT, et sa puce Maia servira les technologies OpenAI aux clients de Microsoft. Comme Amazon, Google a investi des milliards dans Anthropic et utilise également les puces IA de Google.

Anthropic, qui a utilisé des puces de Nvidia et de Google, fait partie d’une poignée d’entreprises travaillant à la création d’IA en utilisant autant de puces spécialisées que possible. Amazon a déclaré que si des entreprises comme Anthropic utilisaient les puces d’Amazon à une échelle de plus en plus grande et aidaient même à concevoir de futures puces, cela pourrait réduire le coût et améliorer les performances de ces processeurs. Anthropic a refusé de commenter.

Mais aucune de ces sociétés ne dépassera Nvidia de si tôt. Ses puces sont peut-être chères, mais elles sont parmi les plus rapides du marché. Et l’entreprise continuera d’améliorer sa vitesse.

M. Rao a déclaré que sa société, Databricks, avait formé certains systèmes d’IA expérimentaux à l’aide des puces d’IA d’Amazon, mais avait construit ses systèmes les plus grands et les plus importants à l’aide de puces Nvidia, car elles offraient de meilleures performances et fonctionnaient bien avec une plus large gamme de logiciels.

“Nous avons de nombreuses années d’innovation intense devant nous”, a déclaré M. Brown d’Amazon. “Nvidia ne va pas rester immobile.”

https://www.ctptimes.com

Be the first to comment

Leave a Reply

Your email address will not be published.


*