Nvidia-GeForce-40-Serie
Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie (ab 2022) Aus Wikipedia, der freien Enzyklopädie
Die GeForce-40-Serie ist eine Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie. Alle Grafikprozessoren basieren auf der Lovelace-Architektur, benannt nach der britischen Mathematikerin Ada Lovelace, und unterstützen das Shadermodell 6.6 nach DirectX 12 Ultimate. Die ersten Grafikkarten wurden von Nvidia im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt.[1]

Die ersten Modelle der Nachfolger-Reihe Nvidia-GeForce-50-Serie wurden am 6. Januar 2025 vorgestellt.[2]
Beschreibung
Zusammenfassung
Kontext
Die ersten Grafikkarten der GeForce-40-Serie wurden im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt, wobei es sich um die GeForce RTX 4090, sowie zwei Modelle der GeForce RTX 4080 handelte.[1] Nachdem die Vorgänger bei Samsung produziert wurden, kehrte Nvidia nun wieder zu TSMC zurück. Die Grafikprozessoren werden bei TSMC im 4N-Fertigungsprozess hergestellt, wobei es sich um einen für Nvidia angepassten 5-nm-Prozess handelt.
Als erste Grafikkarte der GeForce-40-Serie kam die GeForce RTX 4090 am 12. Oktober 2022 auf den Markt. Diese nutzt den AD102-300-A1-Grafikprozessor, welcher auf der Karte teildeaktiviert ist. So sind nur 128 der 144 Shader-Cluster aktiv und der L2-Cache ist von 96 auf 72 MiB reduziert worden. In dieser Spezifikation erreicht die GeForce RTX 4090 in 4K-Anwendungen eine 60 % bis 70 % höhere Leistung gegenüber der GeForce RTX 3090 Ti.[3][4]
Am 28. Dezember 2023 stellte Nvidia die GeForce RTX 4090D exklusiv für den chinesischen Markt vor, wobei es sich um eine leistungsreduzierte Version der normalen GeForce RTX 4090 handelt. Hintergrund dieser Präsentation sind verschärfte US-Sanktionen für Hochtechnologie und Halbleiter gegenüber China, bei welcher die maximal zulässige Rechenleistung im sogenannten TPP-Rating auf 4800 Punkte beschränkt wird.[5]

Bei der Vorstellung der GeForce RTX 4080 präsentierte Nvidia diese in zwei Modellen: ein 16-GiB-Modell auf Basis des AD103-300-A1, sowie ein 12-GiB-Modell, welches den AD104-400-A1-Grafikprozessor nutzt. Dieser Umstand sorgte für massive Kritik, da beide Modelle erheblich unterschiedliche Leistungswerte aufwiesen, weshalb die Verwendung desselben Verkaufsnamens als irreführend angesehen wurde. Auch der deutlich gestiegene Listenpreis von 1199 US$ (16-GiB-Modell) bzw. 899 US$ (12-GiB-Modell) gegenüber 699 US$ bei der GeForce RTX 3080 sorgte für Kritik. Als Folge der Kritik zog Nvidia das 12-GiB-Modell noch vor dem geplanten Verkaufsstart wieder zurück.[6][7]
Bei der GeForce RTX 4060 und 4060 Ti ist zu beachten, dass diese nur über 8 Lanes verfügt, im Gegensatz zu allen vorherigen 60er-Modellen.[8]
Ada-Lovelace-Architektur
Zusammenfassung
Kontext


Die Ada-Lovelace-Architektur ist die direkte Weiterentwicklung der Ampere-Architektur, deren eigentlicher Aufbau nicht verändert wurde.[9][10] Nach wie vor sind die Grafikprozessoren in Graphics-Processing-Cluster (GPC) gegliedert, die teilweise auch als Raster-Engines bezeichnet werden. Jeder GPC besteht aus 6 Texture-Processing-Cluster (TPC), welche allerdings teilweise deaktiviert sein können. Ein TPC besteht dabei aus zwei Shader-Clustern, welche von Nvidia als Streaming-Multiprozessoren (SM) bezeichnet werden. Dabei sind jedem SM folgende Einheiten zugeordnet:
- 64 FP32-Einheiten für 32-Bit-Gleitkomma-Zahlen
- 64 Dual-Use FP32/INT32-Einheiten für 32-Bit-Gleitkomma-Zahlen oder für 32-Bit-Ganzzahlen
- 2 FP64-Einheiten für 64-Bit-Gleitkomma-Zahlen
- 4 Textureinheiten
- 16 Load/Store-Einheiten
- 16 Special-Function-Units
- 4 Tensoreinheiten (4. Generation)
- 1 Raytracing-Einheit (3. Generation)
Während der L2-Cache bei Ada-Lovelace erheblich vergrößert wurde (von 6 MB beim GA102 auf 96 MB beim AD102), blieb der L1-Cache pro SM unverändert bei 128 KB.
Bei der Präsentation der neuen Ada-Lovelace-Architektur legte Nvidias Marketing den Fokus auf DLSS 3. Die dritte Hauptversion des KI-gestützten Upsamplings führt eine sogenannte Frame Generation ein.[10] Das zusätzliche Feature erzeugt zwischen jedem nativen Frame noch einen zusätzlichen KI-gestützt erzeugten Frame.
Datenübersicht
Grafikprozessoren
Grafik- chip |
Fertigung | Einheiten | L2- Cache |
API-Support | Video- pro- zessor |
Bus- Schnitt- stelle | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess |
Transis- toren |
Die- Fläche (mm²) |
ROPs | Unified-Shader | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
DirectX | OpenGL | OpenCL | CUDA | Vulkan | ||||||
GPC | SM | ALUs | ||||||||||||||||
AD102[11] | TSMC N4 |
76,3 Mrd. | 609 | 192 | 12 | 144 | 18432 | 576 | 576 | 144 | 96 MiB | 12.2 | 4.6 | 3.0 | 8.9 | 1.3 | VP12 | PCIe 4.0 ×16 |
AD103[12] | 45,9 Mrd. | 379 | 112 | 7 | 80 | 10240 | 320 | 320 | 80 | 64 MiB | ||||||||
AD104[13] | 35,8 Mrd. | 294,5 | 80 | 5 | 60 | 7680 | 240 | 240 | 60 | 48 MiB | ||||||||
AD106[14] | 22,9 Mrd. | 190,0 | 48 | 3 | 36 | 4608 | 144 | 144 | 36 | 32 MiB | PCIe 4.0 ×8 | |||||||
AD107[15] | 18,9 Mrd. | 146,0 | 32 | 2 | 24 | 3072 | 96 | 96 | 24 |
Desktop-Modelldaten
Marke | Modell | Offizieller Launch |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 1] | Leistungsaufnahme | |||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt[Anm. 2] | Speicher- größe |
Speicher- takt[Anm. 2] |
Speicher- interface |
Rechenleistung (TFlops) |
Füllrate | Speicher- bandbreite (GB/s) |
MGCP [Anm. 3] |
Messwerte[Anm. 4] | ||||||||||||
ROPs | SM | ALUs | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
Basis (MHz) |
Boost (MHz) |
Pixel (GP/s) |
Texel (GT/s) |
Idle | 3D- Last | |||||||||||
32 bit | 64 bit | |||||||||||||||||||||
GeForce RTX |
4060[16] | 29. Juni 2023 | AD107 | 32 | 24 | 3072 | 96 | 96 | 24 | 1830 | 2460 | GiB GDDR6 | 82145 MHz | 128 Bit | 15,11 | 0,24 | 79 | 236 | 272 | 115 W | 16 W[17] | 124 W[17] |
4060 Ti[16] | 24. Mai 2023 | AD106 | 48 | 34 | 4352 | 128 | 128 | 34 | 2310 | 2535 | 2250 MHz | 22,06 | 0,34 | 122 | 325 | 288 | 160 W | 12 W[17] | 151 W[17] | |||
18. Juli 2023 | 16 GiB GDDR6 | 165 W | 14 W[17] | 160 W[17] | ||||||||||||||||||
4070[18] | 20. Aug. 2024 | AD104 | 64 | 46 | 5888 | 184 | 184 | 46 | 1920 | 2475 | 12 GiB GDDR6 | 2500 MHz | 192 Bit | 29,15 | 0,44 | 158 | 455 | 480 | 200 W | k. A. | k. A. | |
13. Apr. 2023 | 12 GiB GDDR6X | 1313 MHz | 504 | 10 W[17] | 193 W[17] | |||||||||||||||||
4070 Super[18] | 17. Jan. 2024 | 64 | 56 | 7168 | 224 | 224 | 56 | 1980 | 2475 | 35,48 | 0,55 | 198 | 554 | 220 W | 12 W[17] | 221 W[17] | ||||||
4070 Ti[18] | 5. Jan. 2023 | 80 | 60 | 7680 | 240 | 240 | 60 | 2310 | 2610 | 40,09 | 0,63 | 209 | 626 | 285 W | 16 W[17] | 267 W[17] | ||||||
4070 Ti Super[18] | 24. Jan. 2024 | AD103 | 96 | 66 | 8448 | 264 | 264 | 66 | 2340 | 2610 | 16 GiB GDDR6X | 256 Bit | 44,10 | 0,69 | 238 | 689 | 672 | 14 W[17] | 277 W[17] | |||
4080[19] | 16. Nov. 2022 | 112 | 76 | 9728 | 304 | 304 | 76 | 2205 | 2505 | 1400 MHz | 48,74 | 0,76 | 281 | 762 | 717 | 320 W | 17 W[17] | 297 W[17] | ||||
4080 Super[19] | 31. Jan. 2024 | 112 | 80 | 10240 | 320 | 320 | 80 | 2295 | 2550 | 1438 MHz | 52,22 | 0,82 | 286 | 816 | 736 | 15 W[17] | 302 W[17] | |||||
4090D[20] | 28. Dez. 2023 | AD102 | 176 | 114 | 14592 | 456 | 456 | 114 | 2280 | 2520 | 24 GiB GDDR6X | 1313 MHz | 384 Bit | 73,54 | 1,15 | 444 | 1149 | 1008 | 425 W | k. A. | 400 W[17] | |
4090[21] | 12. Okt. 2022 | 176 | 128 | 16384 | 512 | 512 | 128 | 2235 | 2520 | 82,58 | 1,29 | 484 | 1290 | 450 W | 21 W[17] | 418 W[17] |
Notebook-Modelldaten
Marke | Modell | Offizieller Launch |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 1] | MGCP [Anm. 3] | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt[Anm. 2] | Speicher- größe |
Speicher- takt[Anm. 2] |
Speicher- interface |
Rechenleistung (TFlops) |
Füllrate | Speicher- bandbreite (GB/s) | ||||||||||||
ROPs | SM | ALUs | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
Basis (MHz) |
Boost (MHz) |
Pixel (GP/s) |
Texel (GT/s) | |||||||||||
32 bit | 64 bit | |||||||||||||||||||
GeForce RTX |
4050[22] | 22. Feb. 2023 | AD107 | 24 | 20 | 2560 | 80 | 80 | 20 | 1455 | 1755 | GiB GDDR6 | 62000 MHz | Bit | 968,9 | 0,14 | 56 | 140 | 192 | 115 W |
4060[22] | 32 | 24 | 3072 | 96 | 96 | 24 | 1545 | 1890 | GiB GDDR6 | 8128 Bit | 11,6 | 0,18 | 61 | 181 | 256 | |||||
4070[22] | AD106 | 64 | 36 | 4608 | 144 | 144 | 36 | 1395 | 1695 | 15,6 | 0,24 | 81 | 244 | |||||||
4080[22] | 7. Feb. 2023 | AD104 | 80 | 58 | 7424 | 232 | 232 | 58 | 1290 | 1665 | 12 GiB GDDR6 | 2250 MHz | 192 Bit | 24,7 | 0,37 | 133 | 386 | 432 | 150 W | |
4090[22] | AD103 | 112 | 76 | 9728 | 304 | 304 | 76 | 1335 | 1695 | 16 GiB GDDR6 | 256 Bit | 32,9 | 0,51 | 190 | 513 | 576 |
Marke | Modell | Offizieller Launch |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 1] | MGCP [Anm. 3] | |||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt[Anm. 2] | Speicher- größe |
Speicher- takt[Anm. 2] |
Speicher- interface |
Rechenleistung (TFlops) |
Füllrate | Speicher- bandbreite (GB/s) | ||||||||||||
ROPs | SM | ALUs | Textur- einheiten |
Tensor- Kerne |
RT- Kerne |
Basis (MHz) |
Boost (MHz) |
Pixel (GP/s) |
Texel (GT/s) | |||||||||||
32 bit | 64 bit | |||||||||||||||||||
GeForce RTX |
4050 Max-Q[23] | 22. Feb. 2023 | AD107 | 48 | 20 | 2560 | 80 | 80 | 20 | 1140 | 1605 | GiB GDDR6 | 62000 MHz | Bit | 968,2 | 0,13 | 77 | 128 | 192 | 35 W |
4060 Max-Q[24] | 24 | 3072 | 96 | 96 | 24 | 1140 | 1470 | GiB GDDR6 | 8128 Bit | 9,0 | 0,14 | 71 | 141 | 256 | ||||||
4070 Max-Q[25] | AD106 | 36 | 4608 | 144 | 144 | 36 | 735 | 1230 | 11,3 | 0,18 | 59 | 177 | ||||||||
4080 Max-Q[26] | 7. Feb. 2023 | AD104 | 80 | 58 | 7424 | 232 | 232 | 58 | 795 | 1350 | 12 GiB GDDR6 | 2250 MHz | 192 Bit | 20,0 | 0,31 | 108 | 313 | 432 | 60 W | |
4090 Max-Q[27] | AD103 | 112 | 76 | 9728 | 304 | 304 | 76 | 930 | 1455 | 16 GiB GDDR6 | 256 Bit | 28,3 | 0,44 | 163 | 442 | 576 | 80 W |
Anmerkungen
- Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
- Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
- Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Rezeption
Zusammenfassung
Kontext
RTX 4090
Der große Leistungssprung der RTX 4090 wurde in der Fachpresse positiv bewertet,[28][29][30][31][32][33] da dieser bei vorherigen Generationen mit 30 % bis 40 % deutlich geringer ausfiel. Kritisch wurden das hoch angesetzte Power Target von 450 W[34] sowie der neue 12VHPWR-Stecker[35] bewertet. Sie wurde von der Fachpresse häufig als erste Grafikkarte bezeichnet, die aktuelle Spiele in 8K-Auflösung[36][37][38] bzw. in 4K-Auflösung mit aktiviertem Raytracing[39][40][41] flüssig darstellen kann.
Die PC-Welt bezeichnete die RTX 4090 als „Machbarkeitsstudie“, mit „welcher Nvidia demonstrieren will, was vom technologischen Standpunkt aus derzeit möglich ist.“[41] Sie habe „es nicht als Ziel, die breite Masse ansprechen, sondern ein kleines ausgewähltes Publikum, welches maximale Rechenleistung benötigt“, weshalb die unverbindliche Preisempfehlung in Europa von etwa 2000 € zur Veröffentlichung „tatsächlich nicht zu hoch gegriffen“ sei.[41]
Laut USA Today erreicht die RTX 4090 „[...] so hohe Bildwiederholraten, dass es eine Verschwendung wäre, etwas anderes als einen 4K-Monitor [mit ihr] zu verwenden, insbesondere einen mit einer Bildwiederholrate unter 144 Hz.“[42] Sie eigne sich dank ihrer Leistung und ihres großen Grafikspeichers außerdem für kreative Anwender im Bereich 3D-Rendering sowie 4K- und 8K Videobearbeitung.[42]
RTX 4080
Die RTX 4080 wurde für ihre hohe Rasterungs- und Raytracing-Leistung, den großen Grafikspeicher, die niedrigen Betriebstemperaturen, die Energieeffizienz und den AV1-Support gelobt.[43][44][45]
Weblinks
Commons: Nvidia-GeForce-40-Serie – Sammlung von Bildern, Videos und Audiodateien
Einzelnachweise
Wikiwand - on
Seamless Wikipedia browsing. On steroids.