Sa gamme professionnelle de processeurs graphiques est utilisée dans lesstations de travail pour des applications dans des domaines tels que l'architecture, l'ingénierie et la construction, les médias et le divertissement, l'automobile, la recherche scientifique et la conception manufacturière[12].
Jensen Huang, ancien employé deLSI Logic etAMD (en tant quedesigner de microprocesseurs), actuellement PDG, américain d'origine taïwanaise, né à Tainan (sud de Taiwan) ;
Curtis Priem(en), ancien employé de Sun Microsystems, actuellement directeur technique.
La société est baptisée Nvidia, avec unlogo vert et blanc représentant un œil stylisé. L'entreprise conserve son statut destartup jusque vers les années 1997-1998, lorsqu'elle prend de l'importance pour devenir peu à peu un acteur majeur sur le marché des processeurs graphiques, notamment avec le lancement des puces graphiquesRiva pour PC.
La société est aussi surnommée, du fait de son logo, la « marque au caméléon »[22],[23],[24].
En 1994, Nvidia conclut son premier partenariat stratégique avecSGS-Thomson Microelectronics pour la fabrication d'une puce d'accélération pour interface graphique. Le groupe Diamond Multimedia Systems installe les puces sur les cartes[25][réf. non conforme].
À l'automne 1997, l'entreprise lance laRIVA 128(en)[28], une puce graphique gravée à 350 nm (nom de code : NV3). De nombreuxOEM, attirés par l'esprit tout en un qui avait rebuté avec la NV1, décident alors d'utiliser cette carte qui est vendue à un million d'unités en quatre mois[25][réf. non conforme]. Malgré tout, Nvidia reste derrière3dfx etATi.
En, la sortie de la RIVA 128 ZX, qui dispose du double de la mémoire de la RIVA 128 et d'un portAGP 2×[29] propulse la société sur le devant de la scène. De plus, elle signe un partenariat avec l'entreprise de fonderie taïwanaiseTSMC. En, Nvidia sort la Riva TNT qui, malgré les promesses, reste moins puissante que la Voodoo 2[Note 2] de 3dfx.
En 2000, Nvidia achète son concurrent3dfx, alors chef de file de l'industrie de ce secteur mais en faillite[28]. Début 2000, l’utilisation sur certaines cartes de mémoireDDR SDRAM (Double Data Rate SDRAM) à la place de mémoire SDRAM classique permet auxGeForce 256 de largement surclasser la concurrence du moment. Au printemps 2000, laGeForce 2 GTS apparaît, dotée de la puce NV15. À l'automne 2000, une déclinaison d'entrée de gamme et une autre de très haut de gamme de laGeForce 2 sortent, lesGeForce 2 MX (puce NV11), une version allégée de laGeForce 2 GTS, et lesGeForce 2 Ultra, cadencées à 250 MHz au lieu de 200 MHz. Nvidia sort aussi laGeForce 2 Pro, constituée d’uneGeForce 2 GTS normale équipée de meilleure mémoire.
Dans les années qui suivent, l'entreprise élargit son offre en proposant également deschipsets pour lescartes mères pourPC à base de microprocesseursAMD.
En 2004, leScalable Link Interface (SLI) est lancé. Il consiste à faire travailler en parallèle deux cartes graphiques pour doubler le débit d'affichage. La microarchitectureCurie(en) est lancée, nommé d’après la physicienneMarie Curie. Elle est utilisée dans les GPUGeForce 6 etGeForce 7, fabriqués en130 nm, 110 nm,90 nm et 80 nm.
En 2005, l’entreprise réalise unchiffre d'affaires de2,079 milliards de dollars et se classe parmi les cinq premiers fabricants de pucessans usine, devant son concurrent ATI. Au cours de l'Electronic Entertainment Expo (E3) en, Nvidia annonce qu'il équipera lesPlayStation 3 deSony en processeurs graphiques. Ils sont nommésRSX (« Reality Synthetizer ») et annoncés comme aussi performants que deuxGeForce 6800 en SLI, ce qui correspond à peu près à laGeForce 7800 GTX. Les caractéristiques techniques et les performances sont étonnamment proches de ce qui était annoncé à l'époque pour leprocesseur graphique (GPU) de la PS3, ce qui laisse fortement penser que tout était prêt du côté du GPU de cette console nouvelle génération (contrairement à d'autres composants comme leCell, le processeur conçu conjointement parIBM, Sony etToshiba). En, Nvidia annonce le rachat et la fusion deULi Electronics pour environ52 millions de dollars, afin de renforcer sa division chipsets.
En 2007, l'entreprise introduit l'environnement de développementCUDA.
En, Nvidia acquiertAGEIA, connue pour le développement de la carte et du logicielPhysX. Le, elle voit son chiffre d'affaires diminuer de presque 20 % lors de la publication des résultats financiers anticipés pour le troisième trimestre de l'année fiscale 2009. L'entreprise réalise un chiffre d'affaires de3,4 milliards de dollars et est toujours parmi les cinq premiers fabricants de pucessans usine.
En, Nvidia acquiert Icera, un leader dans lesmodems sans fil et la technologieRF, pour367 millions de dollars[31].
À partir de, elle commercialise sa nouvellearchitecture Kepler, dont l'objectif est de diviser par deux la consommation tout en conservant les mêmes performances par rapport à l'architecture Fermi, avec laGTX 660 Ti, 670, 680 (carte mono-GPU) et laGTX 690 (carte bi-GPU).
En 2014, l'entreprise commercialise une nouvelle architectureMaxwell, utilisée dans les cartesGTX 750 et750 Ti puis en 2015 Nvidia lance la sérieGTX 900. La même année ce sont deux Titan qui sortent, laGeForce GTX Titan Black et Z. Basées sur la même architecture que la précédente, la seule différence notable est la fréquence légèrement plus élevée. Les GPU Maxwell de Nvidia imposent la présence d'un microcode signé cryptographiquement pour déverrouiller l'ensemble des fonctions des cartes graphiques, rendant plus difficile l'écriture de pilotes libres[34],[35].
Le, elle sort la GeForce GTX Titan X Basée sur l’architecture Maxwell 2.0. En 2015, l'entreprise possède 82 % des parts du marché du secteur des cartes graphiques pour ordinateurs de bureau, ce qui place AMD en dessous de la barre des 20 % pour la première fois[36].
En 2016, elle lance sa nouvelle architecturePascal, qui est d'abord présentée en marge duComputex 2016, puis commercialisée dans la GTX 1080, Elle est aussi déclinée en plusieurs versions dont lesGTX 1060 et 1070, et quelques mois plus tard les1050 et 1050TI (TI signifiant une carte graphique plus performante que la version de base). La même année, Nvidia décide de supprimer la mention GTX de ces Titan jugeant qu'elles ne sont pas destinées aux jeux vidéo. C'est alors une GeForce Titan X qui sortira, basée sur la même architecture que les GTX sorties la même année (Pascal).
En 2017, elle commercialise des versions TI des GTX 1080 et 1070 et une Titan XP. En décembre de la même année, c'est au tour de la GeForce Titan V de faire son apparition sur le marché. C'est la première carte graphique à sortir avec la nouvelle architectureVolta destinée à l'Intelligence artificielle. La GeForce GT 1030 sort la même année. Cette carte graphique est surtout destinée aux configurations PC à petit budget. En 2017, Nvidia signe un partenariat avec l'équipementierBosch pour travailler ensemble sur ledeep learning et lavoiture autonome[37].
En 2018, l'entreprise sort une nouvelle architecture de processeurs graphiques, l'architectureTuring, qui apporte un nouvel élément dans les cartes graphiques, leray tracing. Elle commercialise donc une nouvelle gamme de cartes graphiques, lagamme RTX. Sortent la RTX 2080, 2080 Ti, 2070 et 2060. Elle conçoit aussi une Titan RTX.
En, la société annonce des résultats trimestriels bien en deçà des objectifs formulés préalablement, qui comptaient sur un chiffre d'affaires de 2,7 milliards de dollars au dernier trimestre de 2018[38]. En, elle annonce l'acquisition de l'entreprise israélienne Mellanox pour 6,8 milliards de dollars, supplantant une offre d'Intel[39]. En début d'année 2019 sortent les GTX 1650, 1660 et 1660 Ti[40],[41]. Plus tard, sortent des cartesRTX améliorées, avec les RTX 2080 Super, 2070 Super et la 2060 Super.
La série GeForce 30 est annoncée le sur le site web de Nvidia. Les trois cartes graphiques dévoilées (GeForce RTX 3070, GeForce RTX 3080 et GeForce RTX 3090) exploitent un GPU adoptant la nouvelle architectureAmpere. Il s'agit d'une évolution de l'architecture Turing des GeForce RTX 20 plutôt que d'une réelle révolution. La GeForce RTX 3070 est annoncée comme bien plus rapide que l'ancien fer de lance de la marque, laGeForce RTX 2080 Ti.
GALAX RTX 3090 Gamer OC.
En, Nvidia annonce vouloir racheter le britanniqueARM, leader des puces poursmartphones, au groupe japonaisSoftBank pour un montant de 40 milliards de dollars . Cette acquisition devait permettre à Nvidia de monter en puissance dans l’intelligence artificielle, lesobjets connectés et la5G, les autres points forts de la société ARM avec les puces pour smartphones[42],[43]. Mais en décembre 2021, lesautorités de la concurrence américaines s'opposent à cette acquisition[44], et le 8 février 2022, Nvidia annonce l'abandon du rachat à la suite du refus du régulateur[45].
Portée par l'accélération du secteur de l'intelligence artificielle, Nvidia devient en juin 2024 la première capitalisation boursière au monde, atteignant 3 335 milliards de dollars à labourse de New York[47].
En mars 2024, NVIDIA arrête la production des séries GeForce GTX[48].
Le 27 janvier 2025, après la sortie de R1, le premier « modèle de raisonnement(en) IA » deDeepSeek, une IAopen source réputée aussi fiable mais bien moins coûteuse que celles d'OpenAI, Meta et Google, Nvidia perd593 milliards de dollars de valorisation dans la journée[49], passant à 2 900 milliards de dollars. Cette perte est« la plus importante jamais enregistrée en une journée pour une société ».
Nvidia produit principalement desprocesseurs graphiques, utilisées majoritairement dans lesPC, mais de plus en plus, ses processeurs haute performance sont utilisés dans des machines de calcul professionnelles :
Tesla, des cartes sans sortie vidéo, uniquement dédiées au calcul, qui utilisentCUDA ;
lesTitan(en), des cartes graphiques dont les performances sont proches desGeForce GTX, mais qui sont destinées au montage vidéo et aux tâches qui demandent de grosses ressources vidéo ;
Nvidia a également conçu des processeurs graphiques pour consoles de jeux comme laXbox (processeur graphique de typeGeForce 3) ou laPlayStation 3 (RSX, « Reality Synthesiser » fondée sur l'architecture desGeForce 7).
Bien que spécialisé dans les puces graphiques, Nvidia a produit une seule et unique puce de typex86, son nom le M6117C[50].
Dans le domaine de la mobilité, NVIDIA développe des processeursARM. Elle a également produit les chipsetsnForce, mais à la suite d'un procès avecIntel, NVIDIA ne développe plus et ne commercialise plus dechipset pour PC[51],[52].
En 2016, la société annonce unsupercalculateur maison, Saturn V[53], qui s'impose d'emblée dans leTOP500 et s'arroge également la première position en matière d'efficacité énergétique[54]. Le supercalculateur est propulsé par 60 512 processeursXeon E5-2698v4 pilotant des cartes graphiquesNvidia 125 DGX-1s (gammeNvidia DGX(en)). Surnommé« AI supercomputer in a box », il est destiné à l'apprentissage profond (deep learning). Il utilise aussi des processeurs graphiquesTesla P100[55].
En septembre 2023,Getty Images lance avec NvidiaGenerative AI by Getty Images, une intelligence artificielle créant des images à l'aide de la bibliothèque de photos sous licence de Getty, à partir du modèleEdify de Nvidia (disponible sur la bibliothèque de modèles d'intelligence artificielle générative de Nvidia, Picasso)[56].
La technologie SLI (Scalable Link Interface) consiste à cumuler jusqu'à quatre cartes graphiquesGeForce[Note 3], via l'usage d'un pont qui connecte physiquement les cartes, pour augmenter les performances graphiques.
Annoncée à la fin 2004, cette technologie a été présentée comme un moyen d'améliorer à faible coût les performances d'une machine, mais en général, même si deux GeForces sont utilisées, le gain de puissance est rarement proportionnel, et il l'est de moins en moins au fur et à mesure que l'on ajoute des cartes.
En 2016, à l'occasion de la présentation de la nouvelle carte GTX 1080, Nvidia annonce un nouveau pont SLI, le SLI HB Bridge. Théoriquement censé doubler labande passante disponible, il limite cependant son usage à deux cartes plutôt que les quatre supportées auparavant.
Cette technologie est similaire auCrossFire d'AMD, bien qu'AMD délaisse l'emploi du pont à partir de 2013 avec sa série R9 290X.
NVLink est unprotocole de communicationsérie multi-voies filaire à courte portée développé par Nvidia. Contrairement àPCI Express, un périphérique peut être constitué de plusieurs NVLinks et les périphériques utilisent unréseau maillé pour communiquer au lieu d’un hub central.
Le protocole NVlink 1.0 est introduit pour la première fois en 2014, sur la puce P100, et utilise une interconnexion de signalisation à haut débit (NVHS) propriétaire[57][réf. non conforme],[58].
La technologieOptimus est un procédé qui consiste à désactiver la carte graphique pour économiser de l'énergie lorsque la fonction 3D n'est pas requise ; l'affichage est alors géré par l'IGP (l'unité graphique de base qui se trouve sur lacarte mère).
Cette technologie est souvent utilisée dans les GeForces mobiles et n'est pas été tout de suite supportée sur le système d'exploitationLinux[59].
AMD propose une solution similaire sur ses cartes.
La technologie 3D Vision permet de profiter de la3D stéréoscopique sur PC, actuellement en version 2[60].
Le principe consiste à utiliser des écrans spéciaux[Note 4] qui affichent tantôt une image pour l'œil gauche, tantôt une image pour l'œil droit. Des lunettes spéciales permettent alors de répartir les images entre les deux yeux pour recréer une illusion de 3D. Cette technologie s'oppose à la HD3D présentée parAMD.
La version professionnelle, « 3D Vision Pro », utilise la transmissionradio plutôt que parinfrarouge[61].
La technologieGPU Boost est un système qui augmente la vitesse duprocesseur tant que safréquence d'horloge, sa température et sa consommation restent dans certaines limites. Ce système, utilisé dans l'architecture Kepler a connu trois versions.
Laversion 1.0 débute avec laGeForce GTX 680 en 2012. Laversion 2.0 débute avec la GeForce Titan en 2013, sans apporter de nouveauté importante. Avec leGPU Boost 3.0, présenté en même temps que laGTX 1080 et l'architecture Pascal, l'augmentation de fréquence n'est plus linéaire comme pour les deux versions précédentes, mais définie automatiquement en fonction de la tension[62],[63],[64].
La technologiePhysX est unmoteur physique (logiciel) permettant de créer un rendu en temps réel qui gère les collisions et les processus physiques complexes dans un jeu, comme les créations de particules après impact ; limité aux jeux compatibles.
Battery Boost[65] est une technologie permettant d'augmenter l'autonomie d'un PC portable en jeu, en ajustant les fréquences de lamémoire et descœursCUDA du GPU, ainsi que celles du processeur.
GeForce Experience est unlogiciel facultatif, installé généralement en même temps que lespilotes (drivers) descartes graphiques. Il permet d'optimiser les jeux selon un ratio performance/qualité paramétrable, de configurer ShadowPlay ou destreamer sur son PC depuis une NVIDIA Shield ou une ShieldAndroid TV.
La fonctionnalité ShadowPlay permet d'enregistrer des séquences de jeu, voire les minutes précédant l'activation du logiciel (avec qualité et durée paramétrable), le microphone ou le son intrajeu.
En, ShadowPlay a été remplacée par NVIDIA Share lors de la mise à jour 3.0 du logiciel GeForce Experience.
La technologieray tracing est utilisée dans l'architectureTuring visant à retranscrire au mieux la propagation de la lumière dans les jeux vidéo, en calculant la direction des rayons lumineux pour déterminer leur façon de rebondir sur les éléments. Cela est rendu possible par des langages de programmation associés (OpenCL ouCUDA par exemple) et par des moteurs commeIray etOptiX de Nvidia[66]. Cette méthode apparait dans le monde du jeu vidéo le[67], lors de la conférence Nvidia. Ce procédé permet d’améliorer le réalisme, comme la réflexion des flammes ou le reflet des miroirs, au prix d'importantes ressources utilisées. Annoncée à l'occasion du lancement de la gamme de cartes graphiquesRTX, qui sont les premières à intégrer cette technologie[68].
La technologieDeep learning super sampling(en) (DLSS) permet d'améliorer les performances en jeu tout en préservant la qualité. Le DLSS fonctionne grâce à l'intelligence artificielle destensor cores des cartes graphiquesRTX. Le principe est de générer le rendu du jeu dans unerésolution inférieure, puis de le remettre à celle de l'écran en complétant lespixels manquants de l'image grâce à l'apprentissage profond d'une intelligence artificielle, dont les calculs sont opérés via unsuper-ordinateur de Nvidia.
Collaboration avec les fabricants de cartes graphiques
Étant unesociété sans usines, Nvidia ne fabrique pas elle-même sescartes graphiques, se contentant de produire sespuces graphiques (GPU). Elle fournit aux fabricants (par exempleMSI,Asustek,Gigabyte,EVGA ouXFX, entre autres) ses GPU, en mettant à leur disposition un modèle de référence avec un dissipateur de référence[Note 5], en leur donnant le choix de conserver ce design ou d'appliquer le leur propre.
Le 26 septembre 2023, les bureaux français de Nvidia ont fait l'objet d'une perquisition par l'Autorité de la concurrence. Cette opération, autorisée par un juge, s'inscrivait dans le cadre d'une enquête sur des pratiques anticoncurrentielles présumées dans le secteur des cartes graphiques[69],[70].
↑Par exemple, dans le passé, Nvidia a utilisé les capacités de production de sociétés commeIBM, Microelectronics ou l'européenSTMicroelectronics. Actuellement, Nvidia sous-traite sa production aux grandsfondeurs comme lestaïwanaisTSMC (Taiwan Semiconductor Manufacturing Company, Limited) ouUMC (United Microelectronics Corporation).
↑Il s'agit d'une période confuse dans le domaine de la 3D. Des problèmes apparaissent aussi chezATi, qui ne parvient pas à sortir ses cartes dans les délais et aux performances annoncées.
↑Ou désormais deux GeForces GTX 590 ou deux GTX 690
↑Qui disposent d'un rafraîchissement élevé (supérieur ou égal à 120 Hz).
↑Le modèle (dessin) de référence inclut le fonctionnement ducircuit imprimé (PCB,Printed circuit board), l'étage d'alimentation par exemple.