На цій сторінці показано неперевірені зміни
GeForce RTX 4090 Founders Edition | |
| Виробник | Nvidia |
|---|---|
| Представлено | 31 серпня1999; 26 років тому (1999-08-31) |
GeForce — цебрендграфічних процесорів (англ.graphics processing unit,GPU), розроблених компанієюNvidia. Першими продуктами GeForce булидискретні графічні процесори, розроблені для додаткових графічних плат, призначених для маргінального, на той час,ринку відеоігор. Пізніше, із розвитком індустрії відбулася і диверсифікація лінійки продукціїNvidia, що охопила всі рівні графічного ринку ПК, починаючи від низькопровільних інтегрованих вматеринські плати графічних процесорів, до звичайних повнопрофільних дискретнихвідеокарт. Нещодавно технології GeForce було введено в лінійку процесорівNvidia із вже вбудованим програмним забезпеченням, призначених дляпортативних консолей тамобільних телефонів.
На сьогоднішній день, графічні процесори GeForce іRadeon відNvidia іAMD відповідно, є єдиними конкурентами на ринку дискретних графічних процесорів високого класу. Графічні процесори GeForce домінують на ринкуGPU загального призначення (GPGPU) завдяки своїйфірмовій апаратній архітектурі CUDA.[1] Очікується, щоGPGPU розширить функціональність графічного процесора за межі традиційноїрастеризації3D-графіки, перетворюючи його на високопродуктивний обчислювальний пристрій, здатний довиконання довільного програмного коду так само, як це робитьцентральний процесор, але з іншими перевагами (високошвидкісніпаралельні обчислення) і недоліками (гірша продуктивність для складнихкоманд переходу).
Назва «GeForce» виникла після конкурсу, проведеногоNvidia на початку 1999 року під назвою «Name That Chip». Компанія закликала громадськість придумати ім'я наступнику лінійки графічних платRIVA TNT2[en]. Було отримано понад 12 тисяч заявок і 7 переможців отримали як винагороду відеокарту RIVA TNT2 Ultra.[2] Браян Берк, старший PR-менеджерNvidia, розповів виданню Maximum PC у 2002 році, що «GeForce» спочатку означало «Geometry Force», оскількиGeForce 256 був першим графічним процесором для персональних комп'ютерів, який обчислював геометріютрансформації освітлення, вивантажуючи цю функцію зЦП.
| 1999 | GeForce 256 |
|---|---|
| 2000 | GeForce 2 |
| 2001 | GeForce 3 |
| 2002 | GeForce 4 |
| 2003 | GeForce FX |
| 2004 | GeForce 6 |
| 2005 | GeForce 7 |
| 2006 | GeForce 8 |
| 2007 | |
| 2008 | GeForce 9 GeForce 200 |
| 2009 | GeForce 100 GeForce 300 |
| 2010 | GeForce 400 GeForce 500 |
| 2011 | |
| 2012 | GeForce 600 |
| 2013 | GeForce 700 |
| 2014 | GeForce 800M GeForce 900 |
| 2015 | |
| 2016 | GeForce 10 |
| 2017 | |
| 2018 | GeForce 20 |
| 2019 | GeForce 16 |
| 2020 | GeForce 30 |
| 2021 | |
| 2022 | GeForce 40 |
Наприкінці 1999 рокуNvidia випустили те, що вони самі назвали «першим у світі графічним процесором» у форміGeForce 256[en]. Це був розумний маркетинговий хід відNvidia та початок довгого шляху відеокарт лінійки GeForce. Вони покращили свої попередні карти RIVA за рахунок збільшенняконвеєрів пікселів, що забезпечило великий стрибок продуктивності у відеоіграх. Що ще важливіше,GeForce 256[en] також повністю підтримувала Direct3D 7, що означало, що з її допомогою можливо було запускати майже всі найвимогливіші ігри для ПК, доступні на той час. Незабаром після цього3dfx Interactive[en] збанкрутували, залишившиATI єдиним конкурентомNvidia.[3]
GeForce 2 GTS (NV15) було випущено у квітні 2000 року, його архітектура була дуже подібна до свого попередникаGeForce 256, але все ж несла в собі деякі покращення. Основною відмінністю цього покоління було удвічі збільшене прискорення текстурування та можливість підтримки кількох моніторів одночасно.[3] Першими моделями, які з'явилися після оригінальноїGeForce2 GTS, булиGeForce2 Ultra таGeForce2 MX, випущені 7 вересня 2000 року.[4] ЯкщоGeForce2 MX (NV11) була найдешевшим варіантом у лінійці і пропонувала продуктивність, подібну до минулого покоління, але з полімоніторною підтримкою, — то модельUltra (NV16) була архітектурно ідентичною до оригіналу, проте мала вищу тактову частоту ядра та пам'яті.[5] У деяких випадках модельUltra фактично перевершувала перші продуктиGeForce 3.GeForce2 Pro, представлена незабаром післяUltra, була дешевшою альтернативою дорогому топовомуUltra і швидша заGTS. На своїй веб-сторінці продуктів 2001 рокуNvidia взагалі розмістилиUltra як окрему від решти лінійкиGeForce 2 пропозицію. Графічні процесориGeForce 2 були доступні з пам'яттю як у 16, так і 32 МВ.[6]
GeForce 3 (NV20) було випущено у лютому 2001 року,[7] це покоління графічних карт представило перші графічні процесори Nvidia, сумісні зDirectX 8. До лінійкиGeForce 3 входили три моделі —GeForce3,GeForce3 Ti 200 таGeForce3 Ti 500. Це покоління удосконалило архітектуру GeForce, додавшипрограмовані фрагментарні та вершинні шейдери,мультісемплінгове згладжування та покращену загальну ефективність процесу візуалізації. ТакожNvidia закріпилася на ринку домашніх консолей як ключовий компонент оригінальноїXbox відMicrosoft у 2001 році. УXbox використовувалося апаратне забезпечення, майже ідентичне тому, що можна було знайти в сучасних ПК того часу, аграфічний процесор, розробленийNvidia, мав назвуNV2A, і по суті був адаптацієюGeForce3.Nvidia також створили звукове обладнанняXbox, відоме якMCPX.[6]
Четверте покоління було представлене у лютому 2002 року.[8] Існує два різних сімействаGeForce 4[en]: високопродуктивне сімействоGeForce4 Ti (NV25) та бюджетне сімействоGeForce4 MX (NV17). СімействоMX породило майже ідентичне сімействоGeForce4 Go (NV17M) для ринку ноутбуків. Між собою сімейства відрізнялисятактовою частотою ядра та пам'яті. Наприкінці 2002 року була зроблена спроба створити четверте сімейство, також для ринку ноутбуків, єдиним членом якого сталаGeForce4 4200 Go (NV28M), яка була похідним від лінійкиGeForce4 Ti.
GeForce FX (NV30), випущено у 2003 році. П'яте покоління характеризувалося величезною зміною в архітектурі порівняно зі своїми попередниками. У цій серіїNvidia додали підтримку моделей шейдерів Shader Model 2.0 та підтримкуDirectX 9.0 відMicrosoft. ПоколінняGeForce FX також оснащувалось пам'яттю типівDDR,DDR2,GDDR-2 чиGDDR-3. Однак початкові моделі, такі якGeForce FX 5800 Ultra, були відомі своїми проблемами з надмірним тепловиділенням, тож це покоління стало першим графічним процесором, оснащеним великим кулером. Настільки великим, що його часто називали «пилососом» через гучність вентилятора.[3] Продукти цієї серії мають номер моделі 5000, оскільки це п'яте покоління GeForce, хоча Nvidia позиціонували ці карти як GeForce FX замість GeForce 5, щоб продемонструвати «світанок кінематографічного рендерингу».
Випущене у квітні 2004 року шосте поколінняGeForce 6 (NV40) стало початком просуванняNvidia технологіїSLI[en], що дозволяє людям комбінувати більше однієї відеокарти для більших ігрових потужностей. Флагманом цього покоління сталаGeForce 6800 Ultra, графічна карта, яка мала 222 мільйони транзисторів, 16 піксельних процесорів та шість вершинних шейдерів.Nvidia забезпечили підтримку Shader Model 3.0 і сумісність як зMicrosoft DirectX 9.0c, так і зOpenGL 2.0. У цій серії також використовувалася технологіяNvidia PureVideo[en] та була можливість декодувати відеоH.264, VC-1, WMV іMPEG-2 із меншим використанням ЦП. В результаті всього цього серіяGeForce 6 набула широкого визнання.
Сьоме покоління GeForce (G70/NV47) було випущено в червні 2005 року і було останньою серією відеокарт Nvidia, яка могла підтримувати шинуAGP. Технічно дизайн представляв із себе удосконалену версіюGeForce 6, головними вдосконаленнями якої стали збільшення тактової частоти та шини до 512 біт.GeForce 7 також пропонувала нові режими згладжуваннясуперсемплінгу та мультисемплінгу прозорості (TSAA і TMAA). Пізніше ці нові режими згладжування також були включені у серіюGeForce 6.GeForce 7950GT має найвищу продуктивність GPU з інтерфейсом AGP у лінійці Nvidia. Ця ера поклала початок переходу наPCI-Express інтерфейс.
128-бітна, 8 ROP модифікація 7800 GTX, яка називається RSX «Reality Synthesizer», використовується як основний графічний процесор уSonyPlayStation 3.
Випущений 8 листопада 2006 року GeForce восьмого покоління (G80) був першим в історії графічним процесором, який повністю підтримувавDirect3D 10. В цих відеокартах було застосовано уніфіковану шейдерну архітектуру, що похитнула традиційне уявлення про спеціалізований графічний конвеєр. Нові уніфіковані процесори могли виконувати як геометричні, так і піксельні, й вершинні, і навіть фізичні розрахунки. Шейдерний домен графічного процесора також отримав окрему частоту, вищу, аніж має ядро загалом. Спочатку була представлена лише модель8800GTX, тоді як варіантGTS був випущений через кілька місяців після запуску лінійки. Зменшення матриці до 65 нм і переосмислення дизайну G80 під кодовою назвою G92 були реалізовані в картах8800GS,8800GT і8800GTS-512, вперше випущеними 29 жовтня 2007 року, майже через рік після оригінальної G80.
Перший продукт цієї лінійки був випущений 21 лютого 2008 року.[9] Всього на чотири місяці старші за моделі G92, уся лінійка 9-ї серії є просто модернізаціями існуючих продуктів останньої 8-ї серії. Ці карти продовжували використовуватиархітектуру Tesla, але також додали підтримку PCIe 2.0, покращили корекцію кольору та z-копресію. ТеперNvidia почали приділяти більше уваги підвищенню продуктивності з тактовою частотою до 675 МГц, але не забули і про зменшення споживання енергії.
До випуску не було відомо ніякої конкретної інформації, за винятком стверджень деяких офіційних осіб про випуск продуктів наступного покоління з обчислювальною потужністю близько 1 TFLOPS, також повідомлялося про зниження уваги Nvidia до Direct3D 10.1.[10] У березні 2009 року кілька джерел повідомили, щоNvidia тихо випустили нову серію продуктів GeForce, а саме серіюGeForce 100, основою якої стала модифікована 9 серія.[11] Продукти серіїGeForce 100[en] були продукцією преміум класу і недоступні для покупки рядовими користувачами.
Засновані на графічному процесоріGT200, що містив 1,4 мільярда транзисторів,GeForce 200 під кодовою назвою Tesla була випущена 16 червня 2008 року.[12] Наступне покоління серії GeForce змінює схему іменування продукції у новому напрямку, замінюючи номер серії (наприклад, 8800 для відеокарт 8-ї серії) на суфіксGTX абоGTS (який раніше йшов у кінці назв відеокарт, позначаючи їх «ранг» серед інших подібних моделей), а потім додає номери моделей, наприклад 260 і 280. Серія побудована на новому ядріGT200 на 65-нм кристалі.[13] Першими продуктами булиGeForce GTX 260 і її дорожчий варіантGeForce GTX 280.[14]GeForce 310 була випущена 27 листопада 2009 року і є по суті ребрендингомGeForce 210.[15] ВідеокартиGeForce 300 — це сумісні з DirectX 10.1 графічні процесори 200-ї серії, як і у випадку зGeForce 100, були продукцією преміум класу і недоступні для покупки рядовими користувачами.
7 квітня 2010 року Nvidia випустилаGeForce GTX 470 іGTX 480,[16] перші відеокарти на основі новоїархітектури Fermi під кодовою назвою GF100. Це були перші графічні процесори Nvidia, які використовували 1 ГБ або більше пам'ятіGDDR5.GTX 470 іGTX 480 піддалися серйозній критиці через високе енергоспоживання, високі температури та дуже гучний шум, ці вади не можливо було збалансувати пропонованою продуктивністю, хочаGTX 480 і була найшвидшою картою з підтримкою DirectX 11 на момент її появи.
У листопаді 2010 року Nvidia випустила новий флагманський графічний процесор на основі вдосконаленої архітектури GF100 (GF110) під назвоюGTX 580. Він відрізнявся вищою продуктивністю, меншим енергоспоживанням, нагріванням і шумом, ніж попереднійGTX 480. Цей графічний процесор отримав набагато кращі відгуки, ніжGTX 480. Пізніше Nvidia також випустилаGTX 590 — ця відеокарта містила одразу два GPU GF110.
У вересні 2010 року Nvidia оголосила, що наступникоммікроархітектури Fermi станемікроархітектура Kepler. Раніше Nvidia уклала контракт на поставку своїх топових ядер GK110 для використання всуперкомп'ютері «Titan»Національної лабораторії Оук-Ридж, що призвело до дефіциту ядер GK110. Після того, як на початку 2012 рокуAMD випустила власне щорічне оновлення серіїRadeon HD 7000, у березні 2012 року Nvidia почала випуск серіїGeForce 600. Ядро GK104, спочатку призначене для середнього сегмента лінійки, стало флагманомGTX 680. Серія запровадила значні покращення в продуктивності, нагріванні та енергоефективності порівняно зархітектурою Fermi та майже відповідала флагманській відеокартіAMDRadeon HD 7970. За нею швидко послідувалиGTX 690 з подвійним процесором GK104 іGTX 670, яка мала лише невеликі скорочення GK104 ядра і була дуже близькою за продуктивністю доGTX 680.
ЗGTX Titan Nvidia також випустила GPU Boost 2.0, що дозволяла необмежено збільшувати тактову частоту графічного процесора, доки не буде досягнуто встановленого користувачем температурного ліміту без перевищення заданої користувачем максимальної швидкості кулера. Останнім випуском серіїGeForce 600 сталаGTX 650 Ti BOOST на основі ядра GK106 у відповідь на випускRadeon HD 7790 відAMD. Наприкінці травня 2013 року Nvidia анонсувала серіюGeForce 700, в основі якої все ще булаархітектура Kepler, однак на вершині лінійки цієї серії вже йшли продукти на базі GK110. ВідеокартаGTX 780 по своїй суті була трохи урізанимTitan, яка досягала майже такої ж продуктивності за дві третини ціни. Вона мала той самий вдосконалений еталонний дизайн кулера, але не мала розігнаних ядер та була оснащена 3 ГБ пам'яті.
У той же час Nvidia анонсувалаShadowPlay[en], програму для захоплення екрана, яка використовує інтегрований кодер H.264, вбудований вархітектуру Kepler, про що Nvidia раніше не повідомляла.[17][18] Його можна було використовувати для запису геймплею з незначним зниженням продуктивності. Програма була доступна навіть на картах серіїGeForce 600 попереднього покоління. Проте бета-версія програмного забезпечення дляShadowPlay[en] зазнала численних затримок і не була випущена до кінця жовтня 2013 року. Через тиждень після випуску відеокартиGTX 780 Nvidia оголосила, щоGTX 770 буде ребрендингомGTX 680. За цим послідувалиGTX 760, яка також базувалася на ядрі GK104 і була подібна доGTX 660 Ti. Більше карт серіїGeForce 700 у 2013 році випускати не планувалося, хоча Nvidia анонсувала G-Sync — ще одну функціюархітектури Kepler, яку до того Nvidia залишала без згадки. Це програмне забезпечення дозволяло графічному процесору динамічно контролювати частоту оновлення G-Sync-сумісних моніторів і планувалося до випуску у 2014 році. У жовтніAMD випустили відеокартуR9 290X, яка коштувала на 100 доларів менше, ніжGTX 780. У відповідь Nvidia знизила ціну наGTX 780 на 150 доларів і випустилаGTX 780 Ti, яка мала GK110 ядро, що було навіть потужніше, ніжGTX Titan, а також удосконалення системи живлення, таким чином випередивши новий продуктAMD.
СеріяGeForce 800M складається з оновлених частин серії 700M на основіархітектури Kepler і деяких частин нижчого класу на основі новішоїархітектури Maxwell.
У 2014 році Nvidia, здавалося, пропустила покоління і перейшла відразу до серіїGeForce 900[en]. Це був вступ до нової мікроархітектуриMaxwell, яка замінилаKepler і пропонувала покращені графічні можливості, а також кращу енергоефективність. Початковим флагманом цієї серії булаGeForce GTX 980, а потім980 Ti таGeForce GTX TITAN X, як видання для екстремальних геймерів. Для цієї серії також був вдосконаленийNVENC[en] і з'явилася підтримка Direct3D 12.1, OpenGL 4.6,OpenCL 3.0 і Vulkan 1.3. Це була остання серія GeForce, яка підтримувала вихід аналогового відео через DVI-I.
У 2014 році Nvidia представила серіюGeForce 10 на основі мікроархітектуриPascal.[19]GTX 1080 Ti є, мабуть, найвідомішим графічним процесором із цієї серії та закріпився в історії як одна з найвизначніших відеокарт, випущених Nvidia. Ця графічна карта домінувала на ринку та пропонувала настільки чудову продуктивність і енергоефективність у порівнянні з ціною, що її часто згадували, порівнюючи з майбутніми графічними процесорами.
10 покоління також включало нові функції, такі як GPU Boost 3.0, система динамічного балансування навантаження, потрійна буферизація та підтримка DisplayPort 1.4 і HDMI 2.0b.[20][21]
У серпні 2018 року на конференції Siggraph Nvidia анонсувала наступника архітектуриPascal, нову мікроархітектуруTuring.[22] Це технологія, спрямована на прискоренняШІ та підтримкутрасування променів у реальному часі. СеріяGeForce 20[en] була випущена в 2018 році і примітно, що ці відеокарти були першим поколінням картRTX, де Nvidia почала просуватитрасування променів як головну відмінність своєї продукції. ВикористанняTensor Cores та інших удосконалень допомогло цим картам зробити величезний стрибок у графічній майстерності. Результатом є реалістичне освітлення та переконливі ефекти відображення в іграх.
Нові графічні процесори були представлені якQuadro RTX 8000,Quadro RTX 6000 іQuadro RTX 5000. Високоякісна відеокартаQuadro RTX 8000 містить 4608CUDA ядер і 576 Tensor ядер з 48 ГБ відеопам'яті.[23] Пізніше під час прес-конференціїGamescom генеральний директорNvidia Дженсен Хуанг представив нову серію GeForce RTX —RTX 2080 Ti,2080 і2070, які використовуватимуть архітектуруTuring.[24] Nvidia анонсувалаRTX 2060 6 січня 2019 року на CES 2019.[25] 2 липня 2019 року Nvidia анонсувала лінійку карт GeForce RTXSuper — оновленняGeForce 20[en], що включало поліпшені версіїRTX 2060,2070 і2080 з вищими характеристиками.[26]
У лютому 2019 року Nvidia анонсувала серіюGeForce 16[en], яка базується на тій самій архітектуріTuring, що використовується в серіїGeForce 20[en], але вимикаєTensor Cores (ШІ) іRT, щоб забезпечити більш доступні графічні карти для геймерів, водночас досягаючи вищої продуктивності порівняно з відповідними картами попереднього покоління. Подібно до оновлення RTXSuper, Nvidia 29 жовтня 2019 року анонсувала картиGTX 1650 Super і1660 Super, які замінили свої аналоги без суфіксуSuper.[27]
1 вересня 2020 року Nvidia офіційно оголосила, що наступником серії GeForce 20 станеGeForce 30, побудована на мікроархітектуріAmpere. 17 вересня 2020 року випустилиRTX 3080 ,RTX 3090 24 вересня іRTX 3070 29 жовтня.[28][29] Останнім випуском лінійки стала анонсована у березні 2022 року відеокартаRTX 3090 Ti, яка стала флагманом цієї серії.[30] У порівнянні зRTX 2080 Ti,3090 Ti має на 6400CUDA ядер більше і крім усіх поліпшень упакованих в нову відеокарту, вона стала першим графічним процесором Nvidia, який потребував 850 ват для стабільної роботи. Черезглобальну кризу напівпровідників[en], реакція на серіюGeForce 30 була як мінімум неоднозначною, бо високий попит і низька пропозиція означали різке підвищення цін на відеокарти як від компанії Nvidia, так і серіїRadeon RX 6000 відAMD.
20 вересня 2022 року Nvidia анонсувала свої відеокарти серіїGeForce 40.[31] Ці відеокарти вийшли у такому порядку:RTX 4090 — 12 жовтня 2022 року,RTX 4080 — 16 листопада 2022 року,RTX 4070 Ti — 3 січня 2023 року,RTX 4070 — 13 квітня 2023 року,RTX 4060 Ti — 24 травня 2023 року, аRTX 4060 — 29 червня 2023 року. Вони були створені на архітектуріAda Lovelace[en], а їхніми актуальними ідентифікаторами є «AD102», «AD103», «AD104», «AD106» та «AD107». Виробництво здійснюється за технологічним процесом TSMC N4, який був спеціально розроблений для Nvidia. На момент випускуRTX 4090 була найпотужнішою відеокартою на масовому ринку. Вона містила приблизно 16 384CUDA-ядер, мала тактову частоту в межах 2,2—2,5 ГГц, 24 ГБ пам'ятіGDDR6X, 384-бітну шину пам'яті, 128 ядертрасування променів 3-го покоління, 512тензорних ядер 4-го покоління, підтримку технологіїDLSS 3.0 та енергоспоживання на рівні 450 Вт.[32] З жовтня по грудень 2024 року випуск моделейRTX 4090,4080,4070 та їхніх похідних був офіційно припинений, завершивши дворічний цикл виробництва, щоб звільнити виробничі потужності для нової серії RTX 50.
Окремо для ринку Китаю була випущена спеціальна версіяRTX 4090 під назвоюRTX 4090D (Dragon). Вона оснащена урізаним чипом AD102, що містить 14 592 CUDA-ядра замість 16 384 у стандартній версії RTX 4090. Основною причиною цього стали обмеження, запровадженіМіністерством торгівлі США у 2023 році щодо експорту відеокартиNvidia RTX 4090 до певних країн. Ці заходи були спрямовані переважно на Китай у спробі уповільнити розвиток його ШІ-технологій.
СеріяRTX 40 ознаменувалася поверненням Nvidia до випуску відеокарт із позначкою «Super», яка востаннє використовувалася в серії RTX 20. Крім того, це стало першою лінійкою Nvidia, що поєднала в собі як бренд «Super», так і «Ti». Запуск нових моделей розпочався з виходуRTX 4070 Super 17 січня 2024 року, за яким послідував релізRTX 4070 Ti Super 24 січня 2024 року, а завершив серію випускRTX 4080 Super 31 січня 2024 року.
Серія GeForce RTX 50, заснована на мікроархітектуріBlackwell[en], була офіційно анонсована на виставціCES 2025, а її продажі стартували у січні. Генеральний директор Nvidia,Дженсен Хуанг, представив ціни на моделіRTX 5070,RTX 5070 Ti,RTX 5080 таRTX 5090.