Nvidia-GeForce-40-Serie

Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie (ab 2022) Aus Wikipedia, der freien Enzyklopädie

Nvidia-GeForce-40-Serie

Die GeForce-40-Serie ist eine Serie von Grafikkarten des Unternehmens Nvidia und Nachfolger der GeForce-30-Serie. Alle Grafikprozessoren basieren auf der Lovelace-Architektur, benannt nach der britischen Mathematikerin Ada Lovelace, und unterstützen das Shadermodell 6.6 nach DirectX 12 Ultimate. Die ersten Grafikkarten wurden von Nvidia im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt.[1]

Thumb
Das Flaggschiffmodell der Serie, die Nvidia GeForce RTX 4090, in der Founders Edition

Die ersten Modelle der Nachfolger-Reihe Nvidia-GeForce-50-Serie wurden am 6. Januar 2025 vorgestellt.[2]

Beschreibung

Zusammenfassung
Kontext

Die ersten Grafikkarten der GeForce-40-Serie wurden im Rahmen der GTC 2022 am 20. September 2022 offiziell vorgestellt, wobei es sich um die GeForce RTX 4090, sowie zwei Modelle der GeForce RTX 4080 handelte.[1] Nachdem die Vorgänger bei Samsung produziert wurden, kehrte Nvidia nun wieder zu TSMC zurück. Die Grafikprozessoren werden bei TSMC im 4N-Fertigungsprozess hergestellt, wobei es sich um einen für Nvidia angepassten 5-nm-Prozess handelt.

Als erste Grafikkarte der GeForce-40-Serie kam die GeForce RTX 4090 am 12. Oktober 2022 auf den Markt. Diese nutzt den AD102-300-A1-Grafikprozessor, welcher auf der Karte teildeaktiviert ist. So sind nur 128 der 144 Shader-Cluster aktiv und der L2-Cache ist von 96 auf 72 MiB reduziert worden. In dieser Spezifikation erreicht die GeForce RTX 4090 in 4K-Anwendungen eine 60 % bis 70 % höhere Leistung gegenüber der GeForce RTX 3090 Ti.[3][4]

Am 28. Dezember 2023 stellte Nvidia die GeForce RTX 4090D exklusiv für den chinesischen Markt vor, wobei es sich um eine leistungsreduzierte Version der normalen GeForce RTX 4090 handelt. Hintergrund dieser Präsentation sind verschärfte US-Sanktionen für Hochtechnologie und Halbleiter gegenüber China, bei welcher die maximal zulässige Rechenleistung im sogenannten TPP-Rating auf 4800 Punkte beschränkt wird.[5]

Thumb
12VHPWR-Stecker der RTX 4090

Bei der Vorstellung der GeForce RTX 4080 präsentierte Nvidia diese in zwei Modellen: ein 16-GiB-Modell auf Basis des AD103-300-A1, sowie ein 12-GiB-Modell, welches den AD104-400-A1-Grafikprozessor nutzt. Dieser Umstand sorgte für massive Kritik, da beide Modelle erheblich unterschiedliche Leistungswerte aufwiesen, weshalb die Verwendung desselben Verkaufsnamens als irreführend angesehen wurde. Auch der deutlich gestiegene Listenpreis von 1199 US$ (16-GiB-Modell) bzw. 899 US$ (12-GiB-Modell) gegenüber 699 US$ bei der GeForce RTX 3080 sorgte für Kritik. Als Folge der Kritik zog Nvidia das 12-GiB-Modell noch vor dem geplanten Verkaufsstart wieder zurück.[6][7]

Bei der GeForce RTX 4060 und 4060 Ti ist zu beachten, dass diese nur über 8 Lanes verfügt, im Gegensatz zu allen vorherigen 60er-Modellen.[8]

Ada-Lovelace-Architektur

Zusammenfassung
Kontext
Thumb
Aufbau und Verteilung der Bauteile auf einer RTX 4090
Thumb
Nahansicht des Grafikprozessors einer RTX 4090

Die Ada-Lovelace-Architektur ist die direkte Weiterentwicklung der Ampere-Architektur, deren eigentlicher Aufbau nicht verändert wurde.[9][10] Nach wie vor sind die Grafikprozessoren in Graphics-Processing-Cluster (GPC) gegliedert, die teilweise auch als Raster-Engines bezeichnet werden. Jeder GPC besteht aus 6 Texture-Processing-Cluster (TPC), welche allerdings teilweise deaktiviert sein können. Ein TPC besteht dabei aus zwei Shader-Clustern, welche von Nvidia als Streaming-Multiprozessoren (SM) bezeichnet werden. Dabei sind jedem SM folgende Einheiten zugeordnet:

  • 64 FP32-Einheiten für 32-Bit-Gleitkomma-Zahlen
  • 64 Dual-Use FP32/INT32-Einheiten für 32-Bit-Gleitkomma-Zahlen oder für 32-Bit-Ganzzahlen
  • 2 FP64-Einheiten für 64-Bit-Gleitkomma-Zahlen
  • 4 Textureinheiten
  • 16 Load/Store-Einheiten
  • 16 Special-Function-Units
  • 4 Tensoreinheiten (4. Generation)
  • 1 Raytracing-Einheit (3. Generation)

Während der L2-Cache bei Ada-Lovelace erheblich vergrößert wurde (von 6 MB beim GA102 auf 96 MB beim AD102), blieb der L1-Cache pro SM unverändert bei 128 KB.

Bei der Präsentation der neuen Ada-Lovelace-Architektur legte Nvidias Marketing den Fokus auf DLSS 3. Die dritte Hauptversion des KI-gestützten Upsamplings führt eine sogenannte Frame Generation ein.[10] Das zusätzliche Feature erzeugt zwischen jedem nativen Frame noch einen zusätzlichen KI-gestützt erzeugten Frame.

Datenübersicht

Grafikprozessoren

Weitere Informationen Grafik- chip, Fertigung ...
Grafik-
chip
Fertigung Einheiten L2-
Cache
API-Support Video-
pro-
zessor
Bus-
Schnitt-
stelle
Pro-
zess
Transis-
toren
Die-
Fläche
(mm²)
ROPs Unified-Shader Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
DirectX OpenGL OpenCL CUDA Vulkan
GPC SM ALUs
AD102[11] TSMC
N4
76,3 Mrd. 609 192 12 144 18432 576 576 144 96 MiB 12.2 4.6 3.0 8.9 1.3 VP12 PCIe 4.0
×16
AD103[12] 45,9 Mrd. 379 112 07 080 10240 320 320 080 64 MiB
AD104[13] 35,8 Mrd. 294,5 080 05 060 07680 240 240 060 48 MiB
AD106[14] 22,9 Mrd. 190,0 048 03 036 04608 144 144 036 32 MiB PCIe 4.0
×8
AD107[15] 18,9 Mrd. 146,0 032 02 024 03072 096 096 024
Schließen

Desktop-Modelldaten

Weitere Informationen Marke | Modell, Offizieller Launch ...
Marke | Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] Leistungsaufnahme
Typ Aktive Einheiten Chiptakt[Anm. 2] Speicher-
größe
Speicher-
takt[Anm. 2]
Speicher-
interface
Rechenleistung
(TFlops)
Füllrate Speicher-
bandbreite

(GB/s)
MGCP
[Anm. 3]
Messwerte[Anm. 4]
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis
(MHz)
Boost
(MHz)
Pixel
(GP/s)
Texel
(GT/s)
Idle 3D-
Last
32bit 64bit
GeForce
RTX
4060[16] 29. Juni 2023 AD107 032 024 03072 096 096 024 1830 2460 08 GiB GDDR60 2145 MHz 128 Bit 15,11 0,24 079 0236 0272 115 W 16 W[17] 124 W[17]
4060 Ti[16] 24. Mai 2023 AD106 048 034 04352 128 128 034 2310 2535 2250 MHz 22,06 0,34 122 0325 0288 160 W 12 W[17] 151 W[17]
18. Juli 2023 16 GiB GDDR60 165 W 14 W[17] 160 W[17]
4070[18] 20. Aug. 2024 AD104 064 046 05888 184 184 046 1920 2475 12 GiB GDDR6X 2500 MHz 192 Bit 29,15 0,44 158 0455 0480 200 W k. A. k. A.
13. Apr. 2023 12 GiB GDDR6X 1313 MHz 0504 10 W[17] 193 W[17]
4070 Super[18] 17. Jan. 2024 064 056 07168 224 224 056 1980 2475 35,48 0,55 198 0554 220 W 12 W[17] 221 W[17]
4070 Ti[18] 05. Jan. 2023 080 060 07680 240 240 060 2310 2610 40,09 0,63 209 0626 285 W 16 W[17] 267 W[17]
4070 Ti Super[18] 24. Jan. 2024 AD103 096 066 08448 264 264 066 2340 2610 16 GiB GDDR6X 256 Bit 44,10 0,69 238 0689 0672 14 W[17] 277 W[17]
4080[19] 16. Nov. 2022 112 076 09728 304 304 076 2205 2505 1400 MHz 48,74 0,76 281 0762 0717 320 W 17 W[17] 297 W[17]
4080 Super[19] 31. Jan. 2024 112 080 10240 320 320 080 2295 2550 1438 MHz 52,22 0,82 286 0816 0736 15 W[17] 302 W[17]
4090D[20] 28. Dez. 2023 AD102 176 114 14592 456 456 114 2280 2520 24 GiB GDDR6X 1313 MHz 384 Bit 73,54 1,15 444 1149 1008 425 W k. A. 400 W[17]
4090[21] 12. Okt. 2022 176 128 16384 512 512 128 2235 2520 82,58 1,29 484 1290 450 W 21 W[17] 418 W[17]
Schließen

Notebook-Modelldaten

Weitere Informationen Marke | Modell, Offizieller Launch ...
Marke | Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] MGCP
[Anm. 3]
Typ Aktive Einheiten Chiptakt[Anm. 2] Speicher-
größe
Speicher-
takt[Anm. 2]
Speicher-
interface
Rechenleistung
(TFlops)
Füllrate Speicher-
bandbreite

(GB/s)
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis
(MHz)
Boost
(MHz)
Pixel
(GP/s)
Texel
(GT/s)
32bit 64bit
GeForce
RTX
4050[22] 22. Feb. 2023 AD107 024 20 2560 080 080 20 1455 1755 06 GiB GDDR6 2000 MHz 096 Bit 8,9 0,14 56 140 192 115 W
4060[22] 032 24 3072 096 096 24 1545 1890 08 GiB GDDR6 128 Bit 11,6 0,18 61 181 256
4070[22] AD106 064 36 4608 144 144 36 1395 1695 15,6 0,24 81 244
4080[22] 7. Feb. 2023 AD104 080 58 7424 232 232 58 1290 1665 12 GiB GDDR6 2250 MHz 192 Bit 24,7 0,37 133 386 432 150 W
4090[22] AD103 112 76 9728 304 304 76 1335 1695 16 GiB GDDR6 256 Bit 32,9 0,51 190 513 576
Schließen
Weitere Informationen Marke | Modell, Offizieller Launch ...
Marke | Modell Offizieller
Launch
Grafikprozessor (GPU) Grafikspeicher Leistungsdaten[Anm. 1] MGCP
[Anm. 3]
Typ Aktive Einheiten Chiptakt[Anm. 2] Speicher-
größe
Speicher-
takt[Anm. 2]
Speicher-
interface
Rechenleistung
(TFlops)
Füllrate Speicher-
bandbreite

(GB/s)
ROPs SM ALUs Textur-
einheiten
Tensor-
Kerne
RT-
Kerne
Basis
(MHz)
Boost
(MHz)
Pixel
(GP/s)
Texel
(GT/s)
32bit 64bit
GeForce
RTX
4050 Max-Q[23] 22. Feb. 2023 AD107 048 20 2560 080 080 20 1140 1605 06 GiB GDDR6 2000 MHz 096 Bit 8,2 0,13 77 128 192 35 W
4060 Max-Q[24] 24 3072 096 096 24 1140 1470 08 GiB GDDR6 128 Bit 9,0 0,14 71 141 256
4070 Max-Q[25] AD106 36 4608 144 144 36 735 1230 11,3 0,18 59 177
4080 Max-Q[26] 7. Feb. 2023 AD104 080 58 7424 232 232 58 795 1350 12 GiB GDDR6 2250 MHz 192 Bit 20,0 0,31 108 313 432 60 W
4090 Max-Q[27] AD103 112 76 9728 304 304 76 930 1455 16 GiB GDDR6 256 Bit 28,3 0,44 163 442 576 80 W
Schließen

Anmerkungen

  1. Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
  2. Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der effektive Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.
  3. Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
  4. Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.

Rezeption

Zusammenfassung
Kontext

RTX 4090

Der große Leistungssprung der RTX 4090 wurde in der Fachpresse positiv bewertet,[28][29][30][31][32][33] da dieser bei vorherigen Generationen mit 30 % bis 40 % deutlich geringer ausfiel. Kritisch wurden das hoch angesetzte Power Target von 450 W[34] sowie der neue 12VHPWR-Stecker[35] bewertet. Sie wurde von der Fachpresse häufig als erste Grafikkarte bezeichnet, die aktuelle Spiele in 8K-Auflösung[36][37][38] bzw. in 4K-Auflösung mit aktiviertem Raytracing[39][40][41] flüssig darstellen kann.

Die PC-Welt bezeichnete die RTX 4090 als „Machbarkeitsstudie“, mit „welcher Nvidia demonstrieren will, was vom technologischen Standpunkt aus derzeit möglich ist.“[41] Sie habe „es nicht als Ziel, die breite Masse ansprechen, sondern ein kleines ausgewähltes Publikum, welches maximale Rechenleistung benötigt“, weshalb die unverbindliche Preisempfehlung in Europa von etwa 2000 € zur Veröffentlichung „tatsächlich nicht zu hoch gegriffen“ sei.[41]

Laut USA Today erreicht die RTX 4090 „[...] so hohe Bildwiederholraten, dass es eine Verschwendung wäre, etwas anderes als einen 4K-Monitor [mit ihr] zu verwenden, insbesondere einen mit einer Bildwiederholrate unter 144 Hz.“[42] Sie eigne sich dank ihrer Leistung und ihres großen Grafikspeichers außerdem für kreative Anwender im Bereich 3D-Rendering sowie 4K- und 8K Videobearbeitung.[42]

RTX 4080

Die RTX 4080 wurde für ihre hohe Rasterungs- und Raytracing-Leistung, den großen Grafikspeicher, die niedrigen Betriebstemperaturen, die Energieeffizienz und den AV1-Support gelobt.[43][44][45]

Commons: Nvidia-GeForce-40-Serie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

Wikiwand - on

Seamless Wikipedia browsing. On steroids.