Les revenus des centres de données de Nvidia ont atteint 39,1 milliards de dollars au premier trimestre de l'exercice 26, avec une augmentation des expéditions de Blackwell et l'arrivée des systèmes Rubin avant 2028.
AMD et Intel gagnent des parts de marché à la marge mais ne peuvent pas briser l'écosystème CUDA de Nvidia et ses avantages en matière de chaîne d'approvisionnement d'ici 2028.
Même avec un potentiel investissement gouvernemental dans Intel, le développement de l'infrastructure IA, mesuré en billions, soutient le pouvoir de tarification de Nvidia tout au long de la décennie.
10 actions que nous aimons mieux que Nvidia ›
Wall Street est de plus en plus méfiant face à la concurrence croissante sur le marché des puces d'intelligence artificielle (AI). Alors que Nvidia (NASDAQ: NVDA) continue de dominer avec plus de 80 % du marché de la formation et du déploiement de l'IA, les rivaux commencent à obtenir des gains de conception significatifs. Advanced Micro Devices (NASDAQ: AMD) a sécurisé l'adoption de ses puces MI300X chez Meta Platforms, Microsoft et OpenAI. Pendant ce temps, Intel (NASDAQ: INTC) est en pourparlers avec le gouvernement américain au sujet d'un soutien potentiel à l'investissement pour accélérer son expansion de fabrication et de fonderie.
Les baissiers soutiennent que la part de marché de Nvidia est insoutenablement élevée, surtout dans une industrie sujette à des perturbations, mais cette vue manque la perspective plus large. Le marché du matériel d'IA passe de centaines de milliards à des trillions, donc même une part plus petite d'un gâteau beaucoup plus grand peut générer d'énormes profits. Plus important encore, Nvidia conserve un avantage complet qui intègre le matériel, l'architecture de périphériques unifiés de calcul (CUDA), le soutien de l'écosystème et l'adoption par les développeurs, créant un fossé que les concurrents n'ont pas encore réussi à égaler.
Source de l'image : Getty Images. ## Le vent arrière de mille milliards de dollars que personne ne calcule correctement
Oubliez les inquiétudes concernant la saturation du marché. Les chiffres racontent une histoire différente. Les quatre grands hyperscalers sont seuls sur le point de dépenser 300 milliards de dollars en infrastructure IA d'ici 2025, selon Morgan Stanley. Le commutateur de réseau IA en backend, un indicateur direct de l'échelle des clusters de processeurs graphiques (GPU), dépassera 100 milliards de dollars entre 2025 et 2029, selon Dell'Oro Group. Omdia prévoit que le marché des accélérateurs de cloud et de centres de données atteindra 151 milliards de dollars d'ici 2029, avec une croissance simplement modérée, sans inversion, après 2026.
Les résultats du premier trimestre de l'exercice 2026 de Nvidia mettent cette opportunité en perspective. Le chiffre d'affaires total a atteint 44,1 milliards de dollars pour le trimestre, avec un chiffre d'affaires des centres de données générant à lui seul 39,1 milliards de dollars. Ce n'est pas une erreur -- 39,1 milliards de dollars en trois mois provenant des centres de données. À cette échelle, même si Nvidia perd 10 points de part de marché, l'opportunité en dollars absolus continue de croître. Lorsque votre marché adressable s'élargit de centaines de milliards chaque année, vous n'avez pas besoin d'une part de monopole pour compenser les revenus.
L'histoire continue## Le fossé que tout le monde sous-estime
Nvidia domine non pas parce qu'elle construit les puces les plus rapides, mais parce qu'elle possède l'ensemble de la pile. CUDA est devenu l'environnement par défaut pour l'entraînement de grands modèles, ancrant les développeurs, les cadres et les outils à l'écosystème de Nvidia. NVLink et NVSwitch donnent à ses GPU la capacité de communiquer à des débits que PCI Express ne peut égaler, permettant à l'entraînement de s'étendre sans effort sur des racks entiers.
En amont, les goulets d'étranglement sont encore plus décisifs. La capacité d'emballage avancé pour CoWoS chez Taiwan Semiconductor est limitée, même si la production devrait presque doubler en 2025 et s'étendre à nouveau en 2026. Les rapports de l'industrie indiquent qu'Nvidia a sécurisé la majorité de cette allocation, laissant à ses rivaux moins de marge pour expédier à grande échelle.
La mémoire à large bande passante est le deuxième point de blocage. SK Hynix reste le principal fournisseur de Nvidia, tandis que Micron et Samsung Electronics augmentent encore leur capacité. Un accès prioritaire aux nœuds de mémoire à large bande passante de nouvelle génération garantit que les accélérateurs de Nvidia atteignent un volume pendant que d'autres attendent leur tour.
Cette combinaison de verrouillage logiciel, d'évolutivité des interconnexions et d'allocation de ressources privilégiées n'est pas un avantage passager. C'est une barrière structurelle mesurée en années. Même si les concurrents conçoivent de fortes alternatives, ils ne peuvent atteindre un volume significatif sans accès à ces mêmes ressources. C'est pourquoi la valorisation premium de Nvidia ne concerne pas seulement la part de marché. Il s'agit de posséder les rails sur lesquels l'économie de l'IA fonctionne.
Pourquoi AMD et Intel ne peuvent pas briser le royaume
AMD est une véritable concurrence -- ne faisons pas semblant du contraire. Les instances ND MI300X d'Azure sont généralement disponibles, Meta utilise publiquement des puces de classe MI300 pour l'inférence de Llama, et OpenAI a signalé qu'elle utiliserait les dernières puces d'AMD aux côtés d'autres.
ROCm 7 et le Cloud Développeur AMD ont véritablement amélioré le support logiciel. Mais voici la réalité : le chiffre d'affaires total d'AMD dans le secteur des centres de données était de 3,2 milliards de dollars le trimestre dernier, principalement grâce aux unités centrales de traitement EPYC, et non aux GPU. Nvidia réalise cela en à peine une semaine.
AMD gagne en rapport qualité-prix pour des charges de travail spécifiques, en particulier l'inférence. Cela donne aux hyperscalers un pouvoir de négociation et limite le prix de Nvidia à la marge. Mais briser la gravité de CUDA nécessite plus qu'un matériel compétitif -- il faut une révolution logicielle qui ne se produira pas d'ici 2028.
La situation d'Intel est encore plus intéressante avec des rapports selon lesquels l'administration Trump envisage une participation du gouvernement. Si cela se produit, Intel obtient un capital moins cher, des usines stabilisées et un traitement préférentiel pour les contrats gouvernementaux.
Mais cela ne résout pas le verrouillage CUDA, l'échelle NVLink ou le rythme de la plateforme Nvidia. Gaudi 3 est expédié via l'AI Factory de Dell Technologies et le Cloud IBM, visant une meilleure performance prix que le H100 sur des charges de travail sélectionnées. Mais il est toujours derrière le H200 et Blackwell en termes de performance absolue et de support de l'écosystème.
Le chemin vers 2028
Le scénario de base jusqu'en 2028 est simple : la croissance de la demande et l'innovation de la plateforme maintiennent Nvidia en tête des charges de travail de formation tandis qu'AMD et Intel se développent en tant qu'alternatives optimisées en termes de coûts. Nvidia conserve une part de marché de 70 % à 80 % dans la formation et perd une partie de sa part dans l'inférence au profit d'alternatives moins chères, mais augmente son chiffre d'affaires absolu grâce à l'expansion du marché. Les pessimistes s'inquiètent des puces personnalisées, des contraintes de puissance ou des chocs d'approvisionnement, mais aucune de ces menaces ne se matérialise assez rapidement pour dérailler l'histoire avant 2028.
Devriez-vous investir 1 000 $ dans Nvidia en ce moment ?
Avant d'acheter des actions de Nvidia, considérez ceci :
L'équipe d'analystes de Motley Fool Stock Advisor vient d'identifier ce qu'ils croient être les 10 meilleures actions à acheter pour les investisseurs en ce moment... et Nvidia n'en faisait pas partie. Les 10 actions qui ont été retenues pourraient générer des rendements monstres dans les années à venir.
Considérez quand Netflix a fait cette liste le 17 décembre 2004... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 668 155 $!* Ou quand Nvidia a fait cette liste le 15 avril 2005... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 1 106 071 $!*
Maintenant, il convient de noter que le rendement moyen total de Stock Advisor est de 1 070 % — une surperformance écrasante par rapport à 184 % pour le S&P 500. Ne manquez pas la dernière liste des 10 meilleures, disponible lorsque vous rejoignez Stock Advisor.
Voir les 10 actions »
*Les retours du conseiller en actions au 18 août 2025
George Budwell a des positions dans Microsoft, Nvidia et Taiwan Semiconductor Manufacturing. The Motley Fool a des positions dans et recommande Advanced Micro Devices, Intel, International Business Machines, Meta Platforms, Microsoft, Nvidia et Taiwan Semiconductor Manufacturing. The Motley Fool recommande les options suivantes : appels longs de janvier 2026 à 395 $ sur Microsoft, appels courts d'août 2025 à 24 $ sur Intel, et appels courts de janvier 2026 à 405 $ sur Microsoft. The Motley Fool a une politique de divulgation.
Voici pourquoi Nvidia surpasse jusqu'en 2028, a été initialement publié par The Motley Fool
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Voici pourquoi Nvidia surpasse jusqu'en 2028
Points Clés
Wall Street est de plus en plus méfiant face à la concurrence croissante sur le marché des puces d'intelligence artificielle (AI). Alors que Nvidia (NASDAQ: NVDA) continue de dominer avec plus de 80 % du marché de la formation et du déploiement de l'IA, les rivaux commencent à obtenir des gains de conception significatifs. Advanced Micro Devices (NASDAQ: AMD) a sécurisé l'adoption de ses puces MI300X chez Meta Platforms, Microsoft et OpenAI. Pendant ce temps, Intel (NASDAQ: INTC) est en pourparlers avec le gouvernement américain au sujet d'un soutien potentiel à l'investissement pour accélérer son expansion de fabrication et de fonderie.
Les baissiers soutiennent que la part de marché de Nvidia est insoutenablement élevée, surtout dans une industrie sujette à des perturbations, mais cette vue manque la perspective plus large. Le marché du matériel d'IA passe de centaines de milliards à des trillions, donc même une part plus petite d'un gâteau beaucoup plus grand peut générer d'énormes profits. Plus important encore, Nvidia conserve un avantage complet qui intègre le matériel, l'architecture de périphériques unifiés de calcul (CUDA), le soutien de l'écosystème et l'adoption par les développeurs, créant un fossé que les concurrents n'ont pas encore réussi à égaler.
Source de l'image : Getty Images. ## Le vent arrière de mille milliards de dollars que personne ne calcule correctement
Oubliez les inquiétudes concernant la saturation du marché. Les chiffres racontent une histoire différente. Les quatre grands hyperscalers sont seuls sur le point de dépenser 300 milliards de dollars en infrastructure IA d'ici 2025, selon Morgan Stanley. Le commutateur de réseau IA en backend, un indicateur direct de l'échelle des clusters de processeurs graphiques (GPU), dépassera 100 milliards de dollars entre 2025 et 2029, selon Dell'Oro Group. Omdia prévoit que le marché des accélérateurs de cloud et de centres de données atteindra 151 milliards de dollars d'ici 2029, avec une croissance simplement modérée, sans inversion, après 2026.
Les résultats du premier trimestre de l'exercice 2026 de Nvidia mettent cette opportunité en perspective. Le chiffre d'affaires total a atteint 44,1 milliards de dollars pour le trimestre, avec un chiffre d'affaires des centres de données générant à lui seul 39,1 milliards de dollars. Ce n'est pas une erreur -- 39,1 milliards de dollars en trois mois provenant des centres de données. À cette échelle, même si Nvidia perd 10 points de part de marché, l'opportunité en dollars absolus continue de croître. Lorsque votre marché adressable s'élargit de centaines de milliards chaque année, vous n'avez pas besoin d'une part de monopole pour compenser les revenus.
L'histoire continue## Le fossé que tout le monde sous-estime
Nvidia domine non pas parce qu'elle construit les puces les plus rapides, mais parce qu'elle possède l'ensemble de la pile. CUDA est devenu l'environnement par défaut pour l'entraînement de grands modèles, ancrant les développeurs, les cadres et les outils à l'écosystème de Nvidia. NVLink et NVSwitch donnent à ses GPU la capacité de communiquer à des débits que PCI Express ne peut égaler, permettant à l'entraînement de s'étendre sans effort sur des racks entiers.
En amont, les goulets d'étranglement sont encore plus décisifs. La capacité d'emballage avancé pour CoWoS chez Taiwan Semiconductor est limitée, même si la production devrait presque doubler en 2025 et s'étendre à nouveau en 2026. Les rapports de l'industrie indiquent qu'Nvidia a sécurisé la majorité de cette allocation, laissant à ses rivaux moins de marge pour expédier à grande échelle.
La mémoire à large bande passante est le deuxième point de blocage. SK Hynix reste le principal fournisseur de Nvidia, tandis que Micron et Samsung Electronics augmentent encore leur capacité. Un accès prioritaire aux nœuds de mémoire à large bande passante de nouvelle génération garantit que les accélérateurs de Nvidia atteignent un volume pendant que d'autres attendent leur tour.
Cette combinaison de verrouillage logiciel, d'évolutivité des interconnexions et d'allocation de ressources privilégiées n'est pas un avantage passager. C'est une barrière structurelle mesurée en années. Même si les concurrents conçoivent de fortes alternatives, ils ne peuvent atteindre un volume significatif sans accès à ces mêmes ressources. C'est pourquoi la valorisation premium de Nvidia ne concerne pas seulement la part de marché. Il s'agit de posséder les rails sur lesquels l'économie de l'IA fonctionne.
Pourquoi AMD et Intel ne peuvent pas briser le royaume
AMD est une véritable concurrence -- ne faisons pas semblant du contraire. Les instances ND MI300X d'Azure sont généralement disponibles, Meta utilise publiquement des puces de classe MI300 pour l'inférence de Llama, et OpenAI a signalé qu'elle utiliserait les dernières puces d'AMD aux côtés d'autres.
ROCm 7 et le Cloud Développeur AMD ont véritablement amélioré le support logiciel. Mais voici la réalité : le chiffre d'affaires total d'AMD dans le secteur des centres de données était de 3,2 milliards de dollars le trimestre dernier, principalement grâce aux unités centrales de traitement EPYC, et non aux GPU. Nvidia réalise cela en à peine une semaine.
AMD gagne en rapport qualité-prix pour des charges de travail spécifiques, en particulier l'inférence. Cela donne aux hyperscalers un pouvoir de négociation et limite le prix de Nvidia à la marge. Mais briser la gravité de CUDA nécessite plus qu'un matériel compétitif -- il faut une révolution logicielle qui ne se produira pas d'ici 2028.
La situation d'Intel est encore plus intéressante avec des rapports selon lesquels l'administration Trump envisage une participation du gouvernement. Si cela se produit, Intel obtient un capital moins cher, des usines stabilisées et un traitement préférentiel pour les contrats gouvernementaux.
Mais cela ne résout pas le verrouillage CUDA, l'échelle NVLink ou le rythme de la plateforme Nvidia. Gaudi 3 est expédié via l'AI Factory de Dell Technologies et le Cloud IBM, visant une meilleure performance prix que le H100 sur des charges de travail sélectionnées. Mais il est toujours derrière le H200 et Blackwell en termes de performance absolue et de support de l'écosystème.
Le chemin vers 2028
Le scénario de base jusqu'en 2028 est simple : la croissance de la demande et l'innovation de la plateforme maintiennent Nvidia en tête des charges de travail de formation tandis qu'AMD et Intel se développent en tant qu'alternatives optimisées en termes de coûts. Nvidia conserve une part de marché de 70 % à 80 % dans la formation et perd une partie de sa part dans l'inférence au profit d'alternatives moins chères, mais augmente son chiffre d'affaires absolu grâce à l'expansion du marché. Les pessimistes s'inquiètent des puces personnalisées, des contraintes de puissance ou des chocs d'approvisionnement, mais aucune de ces menaces ne se matérialise assez rapidement pour dérailler l'histoire avant 2028.
Devriez-vous investir 1 000 $ dans Nvidia en ce moment ?
Avant d'acheter des actions de Nvidia, considérez ceci :
L'équipe d'analystes de Motley Fool Stock Advisor vient d'identifier ce qu'ils croient être les 10 meilleures actions à acheter pour les investisseurs en ce moment... et Nvidia n'en faisait pas partie. Les 10 actions qui ont été retenues pourraient générer des rendements monstres dans les années à venir.
Considérez quand Netflix a fait cette liste le 17 décembre 2004... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 668 155 $!* Ou quand Nvidia a fait cette liste le 15 avril 2005... si vous aviez investi 1 000 $ au moment de notre recommandation, vous auriez 1 106 071 $!*
Maintenant, il convient de noter que le rendement moyen total de Stock Advisor est de 1 070 % — une surperformance écrasante par rapport à 184 % pour le S&P 500. Ne manquez pas la dernière liste des 10 meilleures, disponible lorsque vous rejoignez Stock Advisor.
Voir les 10 actions »
*Les retours du conseiller en actions au 18 août 2025
George Budwell a des positions dans Microsoft, Nvidia et Taiwan Semiconductor Manufacturing. The Motley Fool a des positions dans et recommande Advanced Micro Devices, Intel, International Business Machines, Meta Platforms, Microsoft, Nvidia et Taiwan Semiconductor Manufacturing. The Motley Fool recommande les options suivantes : appels longs de janvier 2026 à 395 $ sur Microsoft, appels courts d'août 2025 à 24 $ sur Intel, et appels courts de janvier 2026 à 405 $ sur Microsoft. The Motley Fool a une politique de divulgation.
Voici pourquoi Nvidia surpasse jusqu'en 2028, a été initialement publié par The Motley Fool
Voir les commentaires