Remove ads
Serie von Grafikkarten von Nvidia Aus Wikipedia, der freien Enzyklopädie
Die GeForce-10-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-900-Serie. Alle Grafikprozessoren dieser Serie basieren auf der Pascal-Architektur und unterstützen das Shadermodell 5.0 (SM 5.0) nach DirectX 12.1. Ab der Pascal-Architektur und ab dem Windows 10 May 2020 Update kann HAGS (Hardware Accelerated GPU Scheduling) aktiviert werden, sofern ein WDDM-2.7 (oder höher) -fähiger Grafiktreiber (ab Version 450) installiert ist. Die GeForce-10-Serie wurde im gehobenen Mid-range- bis High-End-Bereich von der GeForce-20-Serie abgelöst, die erstmals im Endverbraucherbereich Hardware-beschleunigtes Echtzeit-Raytracing unterstützt, sowie im Entry-level- bis unteren Mid-range-Bereich von der GeForce-16-Serie.
Am 2. August 2016 stellte Nvidia mit der Titan X den Nachfolger der GeForce GTX Titan X vor. Da sich beide Karten von der Namensgebung her sehr ähnlich sind (sie unterscheiden sich nur durch das Weglassen des „GeForce GTX“-Präfixes, das kurioserweise auf der Karte selbst weiterhin vorhanden ist),[1] sorgte dies für entsprechende Verwirrungen. Während die Titan X der vorherigen Generation noch die GM200-GPU verwendete, nutzt die neue Version den GP102-400-A1-Grafikprozessor.
Die GP102-GPU stellt den Grafikprozessor der Pascal-Generation für den Enthusiasten-Sektor dar. Er ist 471 mm² groß, besteht aus rund 12 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Aus technischer Sicht handelt es sich beim GP102 mit 96 Raster-, 3840 Shader- und 240 Textureinheiten um eine 50 % vergrößerte Variante des GP104. In früheren Generationen verwendete Nvidia einen Grafikprozessor für den High-End-/Enthusiasten-Sektor und den Profi-Markt, weshalb GPUs wie der GK110 zahlreiche HPC-Funktionen aufweist, die für 3D-Anwendungen überflüssig sind. Bereits in der letzten Generation legte Nvidia mit dem GM200 einen reinen Gamerchip für den Enthusiasten-Markt auf, bedingt durch die produktionstechnischen Limitierungen der älteren 28-nm-Fertigungstechnik. Bei der Pascal-Generation fiel mit der neuen 16-nm-Fertigung diese Limitierungen wieder weg, allerdings blieb Nvidia dennoch dabei, zwei unterschiedliche Grafikprozessoren für den Profi- und den Enthusiasten-Markt zu entwickeln (den GP100 und den GP102). Obwohl beide Prozessoren dieselbe Anzahl an Shader-, Textur- und Rastereinheiten aufweisen, unterschieden sie sich massiv. So verwendet der GP100 einen anderen Clusteraufbau, der sich von allen anderen GPUs der Pascal-Generation unterscheidet, verfügt über zahlreiche HPC-Funktionen und hat ein HBM2-Speicherinterface.
Bei der Titan X sind auf dem GP102-400-A1 zwei Cluster deaktiviert, womit noch 3584 Shader- und 224 Textureinheiten zur Verfügung stehen (der Vollausbau ist zunächst nur auf der Quadro P6000 vorhanden). Des Weiteren besitzt die Titan X einen 12 GB großen GDDR5X-Videospeicher, der über ein 384-Bit-Speicherinterface angeschlossen ist. Damit erreicht die Titan X gegenüber der GeForce GTX 1080 eine rund 25 Prozent höhere Performance unter Full-HD, die unter 4K auf etwa 31 % ansteigt. Entsprechend früheren Titan-Modellen nahm die Titan X somit erneut die Position als schnellste Single-GPU-Grafikkarte am Markt ein, begünstigt durch das Fehlen von AMD-Konkurrenzprodukten.[1] Für Kritik sorgte der Umstand, dass Nvidia die Titan X nicht über Boardpartner vertrieb, sondern nur über den eigenen Onlineshop für einen Listenpreis von 1299 €. Nachdem die Titan X durch die GeForce GTX 1080 Ti obsolet geworden war, ersetzte Nvidia diese durch die Titan Xp. Diese verwendet die GP102-450-A1 im Vollausbau und mit leicht erhöhten Taktraten.[2]
Am 9. März 2017 stellte Nvidia die GeForce GTX 1080 Ti vor. Diese verwendet den GP102-350-K1-A1-Grafikprozessor, der mit zwei deaktivierten Shader-Clustern (SMX) daher kommt. Somit verfügt die GTX 1080 Ti über 3584 Shader- und 224 Textureinheiten, genau wie die Titan X zuvor. Im Gegensatz zu dieser wurde auch der Videospeicher beschnitten: Die GeForce GTX 1080 Ti besitzt noch 11 GB GDDR5X-VRAM an einem 352-Bit-Speicherinterface. In Kombination mit leicht höheren Taktraten erreicht die GeForce GTX 1080 Ti trotz des kleineren Videospeichers eine etwas bessere Performance gegenüber der Titan X.[3][4] Nvidia setzte den Listenpreis für die GeForce GTX 1080 Ti auf 699 US-Dollar fest und verzichtete auf einen Preisaufschlag für die Founders-Edition. Sie ist damit die günstigste Grafikkarte mit dem GP102-Grafikprozessor und zugleich die einzige, bei der Nvidia Eigendesigns der Boardpartner erlaubte.
Nvidia stellte die erste Grafikkarte der GeForce-10-Serie, die GeForce GTX 1080, am 6. Mai 2016 vor und kündigte den Verkaufsstart für den 27. Mai an. Die GeForce GTX 1070 folgte am 10. Juni 2016. Beide Karten verwenden den GP104-Grafikprozessor. Eine Besonderheit der Karten lag darin, dass Nvidia diese in einer sogenannten Founders-Edition anbot. Allerdings handelte es sich dabei nur um das Referenzdesign, das Nvidia nun unter anderem Namen mit verlängerter Supportdauer und erhöhtem Listenpreis anbot und über den eigenen Online-Shop vertrieb.[5] Gerade letzter Umstand – der gegenüber Designs der Boardpartner erhöhte Listenpreis (379 zu 449 US-Dollar bei der GeForce GTX 1070) – sorgte für erhebliche Verwirrung und Kritik in der Fachpresse. Die Kritik an der Founders-Edition wurde auch durch die – gegenüber den Designs der Boardpartner – erhöhte Geräuschentwicklung verursacht: Auf der GeForce GTX 1080 erreicht diese, trotz Vapor-Chamber-Kühlung, unter Volllast bis zu 4,2 Sone.[6]
Die GP104-GPU stellt den Grafikprozessor der Pascal-Generation für den Highend-Sektor dar. Er ist 314 mm² groß, besteht aus 7,2 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Er verfügt über 2560 Shader- und 160 Textureinheiten, die in 20 Clustern organisiert sind. Des Weiteren verfügt der GP104 über 4 Raster-Engines, 64 Rastereinheiten auf 8 Partitionen sowie einen 2048-kB-L2-Cache. Gegenüber dem direkten Vorgänger, dem GM204, unterstützt der GP104 nun auch HDMI 2.0b (inklusive HDCP 2.2), sowie DisplayPort 1.4 (obwohl dieser zum Releasezeitpunkt noch nicht final zertifiziert war).[7]
Die GeForce GTX 1080 wurde von Nvidia am 27. Mai 2016 veröffentlicht, wobei der GP104-400-A1 im Vollausbau verwendet wird und über einen 8-GB-GDDR5X-Videospeicher verfügt. Unter Ultra-HD weist die Karte gegenüber ihrem Vorgänger, der GeForce GTX 980, eine 64 % bis 73 %, der GeForce GTX 980 Ti eine 30 % bis 37 % und der AMD Radeon R9 Fury X eine 26 % bis 33 % höhere Performance auf.[8] Damit etablierte sich die GeForce GTX 1080 kurzzeitig als schnellste Single-GPU-Karte am Markt, bis Nvidia die Titan X vorstellte. Die hohe Performance in Kombination mit der erneut verbesserten Energieeffizienz führte zu entsprechend positiven Bewertungen in der Fachpresse. Dem stand allerdings erneut ein gestiegener Listenpreis von 599 bzw. 699 US-Dollar bei der Founders-Edition gegenüber (bei der GeForce GTX 980 lag der Listenpreis noch bei 549 US-Dollar), begünstigt durch die fehlenden Konkurrenzangebote von AMD. Erst mit der Markteinführung der GeForce GTX 1080 Ti senkte Nvidia den Listenpreis offiziell auf 499 US-Dollar ab. Am 28. Februar 2017 führte Nvidia die GP104-410-A1-GPU auf der GeForce GTX 1080 ein, womit der GDDR5X-Videospeicher bis 11 Gbps unterstützt wird.[9]
Die GeForce GTX 1070 folgte der GTX 1080 am 10. Juni 2016 auf den Markt. Der verwendete GP104-200-A1-Grafikprozessor ist allerdings teilweise stark beschnitten: so sind 5 der 20 Shadercluster deaktiviert, d. h. eine komplette GPC-Einheit steht nicht zur Verfügung. Im Gegensatz zum direkten Vorgänger, der GeForce GTX 970, verzichtete Nvidia auf eine Beschneidung des Videospeichers, allerdings kommt statt des GDDR5X der konventionelle GDDR5-Speicher zum Einsatz. In dieser Konfiguration erreichte die GeForce GTX 1070 82 bis 86 % der Performance der GTX 1080. Gegenüber den Topmodellen der Vorgängergeneration, der GeForce GTX 980 Ti und der Radeon R9 Fury X, erreicht sie unter Ultra-HD einen Performancegewinn von 3 bis 9 %.[10] Wie auch bei der GeForce GTX 1080 erhöhte Nvidia bei der GTX 1070 ebenfalls den Listenpreis um 50 US-Dollar gegenüber dem direkten Vorgänger (von 329 auf 379 US-Dollar), für die ebenfalls kein Gegenstück von AMD aufgelegt wurde.
Die GeForce GTX 1070 Ti, veröffentlicht am 26. Oktober 2017, versucht den Spagat, das leistungsstärkere Schwestermodell GTX 1080 nicht zu kannibalisieren und sich gleichzeitig AMDs Radeon RX Vega 56 entgegenzustellen. Aus Rücksicht auf die GTX 1080 hatte Nvidia den Produktionspartnern Restriktionen hinsichtlich werkseitiger Übertaktung oder Erhöhung des Powerlimits auferlegt. Das hatte zur Folge, dass allen vertriebenen Ti-Karten im BIOS ein Basistakt von 1.607 MHz zu Eigen ist, die Modelle der Nvidia-Partner jedoch mittels Tuning-Tools und effizienterem Kühldesign die Leistung von Nvidias Referenzkarte übertreffen können.[11]
Die GP106-GPU stellt den Grafikprozessor der Pascal-Generation für den Mittelklasse-Sektor dar. Er ist 200 mm² groß, besteht aus 4,4 Mrd. Transistoren und wird ebenfalls bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Technisch gesehen handelt es sich beim GP106 um eine glatte Halbierung des GP104: Er verfügt über 1280 Shader- und 80 Textureinheiten die in 10 Clustern organisiert sind. Des Weiteren verfügt der GP106 über 2 Raster-Engines, 48 Rastereinheiten auf 6 Partitionen, sowie einen 2048 kB großen L2-Cache. Im Gegensatz zu den Grafikprozessoren früherer Generationen aus dem Performancesektor unterstützt der GP106 kein SLI mehr.[12]
Am 19. Juli 2016 stellte Nvidia die GeForce GTX 1060 vor, die den GP106-400-A1 im Vollausbau nutzt und über 6 GB VRAM besitzt. Im Gegensatz zu den anderen zuvor vorgestellten Grafikkarten der Serie stand mit der Radeon RX 480 ein direkter Konkurrent von AMD entgegen. Gegenüber diesem konnte die GeForce GTX 1060 unter Full-HD eine rund 6 % höhere Performance aufweisen, im Vergleich zum direkten Vorgänger, der GeForce GTX 960 (4 GB), eine rund 75 % höhere Leistung.[13] Da der Performanceunterschied in etwa der Preisdifferenz entsprach (269 zu 279 €), wurden beide Karten entsprechend positiv in der Fachpresse für ihr Preis-Leistungs-Verhältnis bewertet.[14] Ein im Vorfeld angenommener Nachteil der GeForce GTX 1060 gegenüber der Radeon RX 480 war der kleinere Videospeicher (6 zu 8 GB). In den Praxistests konnte – bedingt durch das bessere Speichermanagement und der verbesserten Farbkompression – aber kein Nachteil festgestellt werden. Dementgegen konnte die Radeon RX 480 eine höhere Performance unter DirectX 12 und Vulkan aufweisen, wodurch diese eine potentiell höhere Zukunftssicherheit hat.[15] In die Kritik geriet Nvidia, als diese Anfang August eine 3-GB-Variante der GeForce GTX 1060 auf den Markt brachte. Bei dieser konnte teilweise eine deutliche Speicherlimitierung festgestellt werden.[16] Ebenfalls negativ auf die Performance wirkte sich der Umstand aus, dass der GP106-300-A1 hier nicht im Vollausbau genutzt wird, sondern ein Shadercluster deaktiviert ist, was für den Kunden nicht unmittelbar erkennbar ist; beide Modelle lassen sich ausschließlich an der Speichergröße unterscheiden. Analog zur GeForce GTX 1080 führte Nvidia am 28. Februar 2017 die GP106-410-A1-GPU auf der GeForce GTX 1060 ein, womit der GDDR5-Videospeicher bis 9 Gbps unterstützt wird.[9] Nur für den asiatischen Markt stellte Nvidia Ende Dezember 2017 noch eine 5-GB-Variante der GeForce GTX 1060 vor. Diese nutzt den GP106-350-K3-A1 im Vollausbau, allerdings mit einem auf 160 Bit reduziertem Speicherinterface.[17]
Am 25. Oktober 2016 stellte Nvidia die Grafikkarten GeForce GTX 1050 und GeForce GTX 1050 Ti vor, die den GP107-Grafikprozessor verwenden und sich in der Ausstattung von den zuvor veröffentlichten Pascal-Grafikkarten der Nvidia-GeForce-10-Serie für den Performance- und High-End-Markt deutlich absetzen. Nvidia zielt damit auf die Preissegmente unter 200 Euro, entsprechend wird die GeForce GTX 1050 für 125 Euro auf den Markt kommen. Ein Referenzmodell wie die Founders-Edition der GeForce GTX 1080 und GeForce GTX 1070 wird es für die GeForce GTX 1050 nicht geben. Mit der GeForce GTX 1050 und der leistungsfähigeren Variante GTX 1050 Ti positioniert sich Nvidia leistungstechnisch zwischen AMDs Radeon RX 470 und Radeon RX 460. Gegenüber den Spitzenmodellen der GeForce-10-Serie muss die GTX 1050 mit dem GP107 deutliche Leistungseinschnitte bei Spieleanwendungen hinnehmen: Auf der kleineren Die-Grundfläche von 132 mm² (vgl. GP104/GTX 1080: 314 mm²) weist der GP107 signifikant weniger Raster-, Shader- und Textureinheiten auf. Die Speichergröße wurde bei der GTX 1050 auf 2 GB GDDR5 reduziert, während die GTX 1050 Ti mit 4 GB GDDR5 sogar üppiger ausgestattet ist als die 3-GB-Variante der GeForce GTX 1060. Die Leistung erzielte selbst im übertakteten Zustand nur bei reduzierten Detailstufen in den Spielen befriedigende Ergebnisse. Leistungstests beschränkten sich auf die verbreitete Full-HD-Auflösung mit 1920 × 1080 Pixeln.[18] Die geringere Grafikleistung bewirkt dafür einen geringeren Stromverbrauch sowie einen niedrigeren Geräuschpegel als bei Nvidias Spitzenmodellen.
Am 17. Mai 2017 wurde das Einsteigermodell[19] GeForce GT 1030 vorgestellt. Dieses nutzt den GP108-Grafikprozessor, der im 14-nm-LPP-Verfahren bei Samsung gefertigt wird.[20] Von der GT 1030 gibt es kein Referenzdesign, es werden lediglich Custom-Modelle verschiedenster Hersteller verkauft. Nvidia positioniert diese Grafikkarte im Preissegment unter 80 Euro. Mit nur 384 Shadern und einem 2 GB großen GDDR5-Speicher ist die Grafikleistung stark eingeschränkt. Von Nvidias Partnern werden auch GT-1030-Karten mit DDR4-Speicher vertrieben, die zwar deutlich langsamer, dafür jedoch auch stromsparender sind.[21] Die GT 1030 unterstützt weder SLI oder G-Sync noch verfügt sie über spezielle VR-Techniken wie Simultane Multi-Projektion. Durch die geringe TDP von nur 30 W wird kein Zusatzstromstecker vom Netzteil benötigt. Die meisten Ausführungen können somit kompakt gebaut sowie rein passiv gekühlt werden und sind dann fast unhörbar. Geeignet ist die GT 1030 vor allem für Büro- und Multimediaanwendungen und grafisch weniger anspruchsvolle Spiele wie Dota 2 oder Overwatch. Bei Spielen mit hohen Grafikanforderungen wie Battlefield 1 müssen unter Full HD (1920 × 1080 Pixel) die Details stark reduziert werden, um eine flüssige Bildwiederholrate zu erreichen.[22]
Grafik- chip |
Fertigung | Einheiten | L2- Cache |
API-Support | Video- pro- zessor |
Bus- Schnitt- stelle | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess |
Transi- storen |
Die- Fläche |
ROP- Parti- tionen |
ROPs | Unified-Shader | Textureinheiten | DirectX | OpenGL | OpenCL | CUDA | Vulkan | ||||||
Stream- prozessoren |
Shader- Cluster |
TAUs | TMUs | ||||||||||||||
GP100 | 16 nm | 15,3 Mrd. | 610 mm² | 6 | 96 | 3840 | 60 | 240 | 240 | 4096 KB | 12.1 | 4.5 | 1.2 | 6.1 | 1.0 | VP4 | PCIe 3.0 |
GP102 | 12,0 Mrd. | 471 mm² | 12 | 96 | 3840 | 30 | 240 | 240 | 3072 KB | VP8 | |||||||
GP104 | 7,2 Mrd. | 314 mm² | 8 | 64 | 2560 | 20 | 160 | 160 | 2048 KB | ||||||||
GP106 | 4,4 Mrd. | 200 mm² | 6 | 48 | 1280 | 10 | 80 | 80 | 1536 KB | ||||||||
GP107 | 14 nm | 3,3 Mrd. | 132 mm² | 4 | 32 | 768 | 6 | 48 | 48 | 1024 KB | |||||||
GP108 | 1,8 Mrd. | 70 mm² | 2 | 16 | 384 | 3 | 24 | 24 | 512 KB |
Modell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | Leistungsaufnahme | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt (MHz)[Anm. 3] |
Speicher- größe |
Speicher- takt (MHz) [Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite |
MGCP [Anm. 4] |
Messwerte [Anm. 5] | |||||||||
ROPs | Shader- Cluster |
ALUs | Textur- einheiten |
Basis | Boost | SP (MAD) |
DP (FMA) |
Pixel (GP/s) |
Texel (GT/s) |
Idle | 3D- Last | ||||||||
GeForce GT 1010[23] | 13. Jan 2021 | GP108 | 16 | 2 | 256 | 16 | 1228 | 1468 | 2 GB GDDR5 | 1253 | 64 Bit | 752 | 31 | 23,5 | 23,5 | 40 GB/s | [24]30 W | k.A. | k.A. |
GeForce GT 1030[25] | 12. Mrz. 2018 | GP108-310-A1 | 16 | 3 | 384 | 24 | 1151 | 1379 | 2 GB DDR4 | 1050 | 64 Bit | 1059 | 33 | 22,1 | 33,1 | 16,8 GB/s | 20 W | k. A. | k. A. |
17. Mai 2017 | GP108-300-A1 | 1227 | 1468 | 2 GB GDDR5 | 1500 (3000) | 1127 | 35 | 23,5 | 35,2 | 48 GB/s | 30 W | k. A. | k. A. | ||||||
GeForce GTX 1050 (2 GB)[26] | 25. Okt. 2016 | GP107-300-A1 | 32 | 5 | 640 | 40 | 1354 | 1455 | 2 GB GDDR5 | 1750 (3500) | 128 Bit | 1862 | 58 | 46,6 | 58,2 | 112 GB/s | 75 W | [27] | 5 W[27] | 55 W
GeForce GTX 1050 (3 GB)[26] | 21. Mai 2018 | GP107-301-K1-A1 | 24 | 6 | 768 | 48 | 1392 | 1518 | 3 GB GDDR5 | 1750 (3500) | 96 Bit | 2332 | 73 | 36,4 | 72,9 | 84 GB/s | 75 W | k. A. | k. A. |
GeForce GTX 1050 Ti[26] | 25. Okt. 2016 | GP107-400-A1 | 32 | 6 | 768 | 48 | 1290 | 1382 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 2123 | 66 | 44,2 | 66,3 | 112 GB/s | 75 W | [27] | 5 W[27] | 58 W
GeForce GTX 1060 (3 GB)[28] | 18. Aug. 2016 | GP106-300-A1 | 48 | 9 | 1152 | 72 | 1506 | 1708 | 3 GB GDDR5 | 2000 (4000) | 192 Bit | 3935 | 123 | 82,0 | 123,0 | 192 GB/s | 120 W | [27] | 7 W115 W[27] |
GeForce GTX 1060 (5 GB)[17] | 26. Dez. 2017 | GP106-350-K3-A1 | 40 | 10 | 1280 | 80 | 1506 | 1708 | 5 GB GDDR5 | 2000 (4000) | 160 Bit | 4372 | 137 | 68,3 | 136,6 | 160 GB/s | 120 W | k. A. | k. A. |
GeForce GTX 1060 (6 GB)[28][9] | 19. Jul. 2016 | GP106-400-A1 | 48 | 10 | 1280 | 80 | 1506 | 1708 | 6 GB GDDR5 | 2000 (4000) | 192 Bit | 4372 | 137 | 82,0 | 136,6 | 192 GB/s | 120 W | [27] | 6 W118 W[27] |
28. Feb. 2017 | GP106-410-A1 | 2250 (4500) | 216 GB/s | k. A. | k. A. | ||||||||||||||
GeForce GTX 1070[29] | 10. Jun. 2016 | GP104-200-A1 | 64 | 15 | 1920 | 120 | 1506 | 1683 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 6463 | 202 | 107,7 | 202,0 | 256 GB/s | 150 W | [27] | 7 W147 W[27] |
GeForce GTX 1070 Ti[30] | 26. Okt. 2017 | GP104-300-A1 | 64 | 19 | 2432 | 152 | 1607 | 1683 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 8186 | 256 | 107,7 | 255,8 | 256 GB/s | 180 W | [27] | 9 W176 W[27] |
GeForce GTX 1080[31][9] | 27. Mai 2016 | GP104-400-A1 | 64 | 20 | 2560 | 160 | 1607 | 1733 | 8 GB GDDR5X | 2500 (5000) | 256 Bit | 8873 | 277 | 110,9 | 277,3 | 320 GB/s | 180 W | [27] | 7 W173 W[27] |
28. Feb. 2017 | GP104-410-A1 | 2750 (5500) | 352 GB/s | k. A. | k. A. | ||||||||||||||
GeForce GTX 1080 Ti[32] | 9. Mrz. 2017 | GP102-350-K1-A1 | 88 | 28 | 3584 | 224 | 1480 | 1582 | 11 GB GDDR5X | 2750 (5500) | 352 Bit | 11340 | 354 | 139,2 | 354,4 | 484 GB/s | 250 W | 11 W[27] | 230 W[27] |
Titan X[33] | 2. Aug. 2016 | GP102-400-A1 | 96 | 28 | 3584 | 224 | 1417 | 1531 | 12 GB GDDR5X | 2500 (5000) | 384 Bit | 10974 | 343 | 147,0 | 342,9 | 480 GB/s | 250 W | 11 W[27] | 220 W[27] |
Titan Xp[34] | 6. Apr. 2017 | GP102-450-A1 | 96 | 30 | 3840 | 240 | 1404 | 1582 | 12 GB GDDR5X | 2850 (5700) | 384 Bit | 12150 | 380 | 151,9 | 379,7 | 547 GB/s | 250 W | 12 W[27] | 245 W[27] |
Modell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | MGCP [Anm. 4] | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt (MHz)[Anm. 3] |
Speicher- größe |
Speicher- takt (MHz) [Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite | |||||||||
ROPs | Shader- Cluster |
ALUs | Textur- einheiten |
Basis | Boost | SP (MAD) |
DP (FMA) |
Pixel (GP/s) |
Texel (GT/s) | ||||||||
GeForce GTX 1050 | 3. Jan. 2017 | GP107: N17P-G0-A1 | 32 | 5 | 640 | 40 | 1354 | 1493 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 1911 | 54 | 47,7 | 59,7 | 112 GB/s | 75 W |
1. Feb. 2017 | GP106 | ||||||||||||||||
3. Jan. 2018 | GP107: N17P-G0-A1 | 999–1189 | 1139–1328 | 34–40 W | |||||||||||||
GeForce GTX 1050 Ti | 3. Jan. 2017 | GP107: N17P-G1-A1 | 32 | 6 | 768 | 48 | 1493 | 1620 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 2488 | 78 | 51,8 | 77,7 | 112 GB/s | 75 W |
1. Feb. 2017 | GP106 | ||||||||||||||||
3. Jan. 2018 | GP107: N17P-G1-A1 | 1151–1290 | 1290–1417 | 40–46 W | |||||||||||||
GeForce GTX 1060[35] | 15. Aug. 2016 | GP106: N17E-G1-A1 | 48 | 10 | 1280 | 80 | 1404 | 1670 | 6 GB GDDR5 | 2000 (4000) | 192 Bit | 4275 | 134 | 80,2 | 133,6 | 192 GB/s | 80 W |
27. Jun. 2017 | 1063–1265 | 1341–1480 | 60–70 W | ||||||||||||||
GeForce GTX 1070[35] | 15. Aug. 2016 | GP104: N17E-G2-A1 | 64 | 16 | 2048 | 128 | 1442 | 1645 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 6738 | 211 | 105,3 | 210,6 | 256 GB/s | 110 W |
27. Jun. 2017 | 1101–1215 | 1265–1379 | 80–90 W | ||||||||||||||
GeForce GTX 1080[35] | 15. Aug. 2016 | GP104: N17E-G3-A1 | 64 | 20 | 2560 | 160 | 1556 | 1733 | 8 GB GDDR5X | 2500 (5000) | 256 Bit | 8873 | 277 | 110,9 | 277,3 | 320 GB/s | 150 W |
27. Jun. 2017 | 1101–1290 | 1278–1468 | 90–110 W |
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.