Loading AI tools
Da Wikipédia, a enciclopédia livre
A série GeForce 900 é uma família de unidades de processamento gráfico desenvolvidas pela Nvidia, sucedendo a série GeForce 700 e servido como introdução de ponta à microarquitetura Maxwell, batizada em homenagem a James Clerk Maxwell. Eles são produzidos com o processo de 28 nm da TSMC.
GeForce 900 | |
---|---|
Nvidia GeForce GTX 980 Founders Edition | |
Data de lançamento | 18 de setembro de 2014 |
Codinome(s) | GM20x |
Fabricante | NVIDIA |
Arquitetura | |
Maxwell | |
Transistores | Lista
|
Modelos | |
GPU Intermediária |
|
GPU Topo-de-linha |
|
Versões dos drivers | |
Direct3D | Direct3D 12.0 (nível de recurso 12_1)[1][2][3][4] Shader Model 6.7 |
OpenCL | OpenCL 3.0[lower-alpha 1] |
OpenGL | OpenGL 4.6 |
Cronologia | |
Anterior | GeForce 700 |
Sucessor | GeForce 10 |
Com o Maxwell, o sucessor do Kepler, a Nvidia esperava três resultados principais: recursos gráficos aprimorados, programação simplificada e melhor eficiência energética em comparação com as séries GeForce 700 e GeForce 600.[5]
Maxwell foi anunciado em setembro de 2010,[6] com os primeiros produtos GeForce baseados em Maxwell lançados no início de 2014.[7]
A primeira geração Maxwell GM107/GM108 foi lançada como GeForce GTX 745, GTX 750/750 Ti e GTX 850M/860M (GM107) e GT 830M/840M (GM108). Esses novos chips fornecem poucos recursos adicionais voltados para o consumidor; Em vez disso, a Nvidia se concentrou na eficiência de energia. A Nvidia aumentou a quantidade de cache L2 de 256 KiB no GK107 para 2 MiB no GM107, reduzindo a largura de banda de memória necessária. Conseqüentemente, a Nvidia cortou o barramento de memória de 192 bits no GK106 para 128 bits no GM107, economizando ainda mais energia.[8] A Nvidia também mudou o design do multiprocessador de streaming do Kepler (SMX), nomeando-o SMM. A estrutura do escalonador de warp é herdada do Kepler, o que permite que cada escalonador emita até duas instruções independentes entre si e ordenadas do mesmo warp. O layout das unidades SMM é particionado de modo que cada um dos 4 escalonadores de warp em um SMM controle 1 conjunto de 32 núcleos FP32 CUDA, 1 conjunto de 8 unidades de carregamento/armazenamento e 1 conjunto de 8 unidades de funções especiais. Isso contrasta com o Kepler, onde cada SMX tem 4 agendadores que agendam para um pool compartilhado de 6 conjuntos de 32 núcleos FP32 CUDA, 2 conjuntos de 16 unidades de carregamento/armazenamento e 2 conjuntos de 16 unidades de função especial.[9] Essas unidades são conectadas por uma barra transversal que usa energia para permitir que os recursos sejam compartilhados.[9] Esta barra transversal é removida em Maxwell.[9] Unidades de textura e núcleos FP64 CUDA ainda são compartilhados.[8] O SMM permite uma alocação de recursos mais refinada do que o SMX, economizando energia quando a carga de trabalho não é ideal para recursos compartilhados. A Nvidia afirma que um SMM de 128 núcleos CUDA tem 86% do desempenho de um SMX de 192 núcleos CUDA.[8] Além disso, cada Graphics Processing Cluster, ou GPC, contém até 4 unidades SMX no Kepler e até 5 unidades SMM na primeira geração do Maxwell.[8]
GM107 suporta CUDA Compute Capability 5.0 em comparação com 3.5 em GPUs GK110/GK208 e 3.0 em GPUs GK10x. O paralelismo dinâmico e o HyperQ, dois recursos das GPUs GK110/GK208, também são suportados em toda a linha de produtos Maxwell.
Maxwell fornece operações atômicas de memória compartilhada nativa para números inteiros de 32 bits e comparação e troca (CAS) de memória compartilhada nativa de 32 bits e 64 bits, que podem ser usadas para implementar outras funções atômicas.
Embora se pensasse que Maxwell usava rasterização de modo imediato baseado em bloco,[10] a Nvidia corrigiu isso na GDC 2017 dizendo que Maxwell usa o Tile Caching.[11]
As GPUs baseadas em Maxwell também contêm o bloco NVENC SIP introduzido com o Kepler. O codificador de vídeo da Nvidia, NVENC, é 1,5 a 2 vezes mais rápido do que nas GPUs baseadas em Kepler, o que significa que pode codificar vídeo em 6 a 8 vezes a velocidade de reprodução.[8]
A Nvidia também reivindica um aumento de desempenho de 8 a 10 vezes na decodificação de vídeo PureVideo Feature Set E devido ao cache do decodificador de vídeo emparelhado com aumentos na eficiência da memória. No entanto, H.265 não é suportado para decodificação completa de hardware, contando com uma mistura de decodificação de hardware e software.[8] Ao decodificar o vídeo, um novo estado de baixo consumo de energia "GC5" é usado nas GPUs Maxwell para economizar energia.[8]
Maxwell de segunda geração introduziu várias novas tecnologias: Super Resolução Dinâmica,[12] Compressão de Cor Delta de Terceira Geração,[13] Amostragem de Programação Multi-Pixel,[carece de fontes] Nvidia VXGI (Real-Time-Voxel-Iluminação Global),[14] VR Direct,[15][16][17] Multi-Projection Acceleration,[13] e Multi-Frame Sampled Anti-Aliasing (MFAA)[18] (no entanto, o suporte para Coverage-Sampling Anti-Aliasing (CSAA) foi removido).[19] Suporte HDMI 2.0 também foi adicionado.[20][21]
A segunda geração de Maxwell também alterou a proporção de ROP para controlador de memória de 8:1 para 16:1.[22] No entanto, alguns dos ROPs geralmente estão ociosos na GTX 970 porque não há SMMs ativados suficientes para dar a eles trabalho e, portanto, reduz sua taxa de preenchimento máxima.[23]
O Maxwell de segunda geração também tem até 4 unidades SMM por GPC, em comparação com 5 unidades SMM por GPC.[22]
O GM204 suporta CUDA Compute Capability 5.2 em comparação com 5.0 nas GPUs GM107/GM108, 3.5 nas GPUs GK110/GK208 e 3.0 nas GPUs GK10x.[13][22][24]
As GPUs GM20x de segunda geração Maxwell têm um NVENC atualizado que suporta codificação HEVC e adiciona suporte para resoluções de codificação H.264 em 1440p/60FPS e 4K/60FPS em comparação com NVENC em GPUs GM10x de primeira geração Maxwell que suportam apenas codificação H.264 1080p/60FPS.[17]
Maxwell GM206 GPU suporta decodificação de hardware HEVC de função fixa completa.[25][26]
Os problemas com as especificações da GeForce GTX 970 foram levantados pela primeira vez pelos usuários quando descobriram que os cartões, embora apresentassem 4 GB de memória, raramente acessavam a memória além do limite de 3,5 GB. Mais testes e investigações eventualmente levaram a Nvidia a emitir uma declaração de que as especificações inicialmente anunciadas do cartão foram alteradas sem aviso antes de o cartão ser disponibilizado comercialmente e que o cartão teve um impacto no desempenho quando a memória acima do limite de 3,5 GB foi colocada em uso.[27][28][29]
As especificações de hardware de back-end da placa, inicialmente anunciadas como idênticas às da GeForce GTX 980, diferiam na quantidade de cache L2 (1,75 MB contra 2 MB na GeForce GTX 980) e no número de ROPs (56 contra 64 na GeForce GTX 980). o 980). Além disso, foi revelado que o cartão foi projetado para acessar sua memória como uma seção de 3,5 GB, mais uma de 0,5 GB, sendo o acesso a esta última 7 vezes mais lento que a primeira.[30] A empresa então prometeu uma modificação específica do driver para aliviar os problemas de desempenho produzidos pelos cortes sofridos pelo cartão.[31] No entanto, a Nvidia posteriormente esclareceu que a promessa havia sido uma falha de comunicação e que não haveria atualização de driver específica para o GTX 970.[32] A Nvidia alegou que ajudaria os clientes que desejassem reembolsos a obtê-los.[33] Em 26 de fevereiro de 2015, o CEO da Nvidia, Jen-Hsun Huang, registrou no blog oficial da Nvidia desculpas pelo incidente.[34] Em fevereiro de 2015, uma ação coletiva alegando propaganda enganosa foi movida contra a Nvidia e a Gigabyte Technology no Tribunal Distrital dos EUA no norte da Califórnia.[35][36]
A Nvidia revelou que é capaz de desabilitar unidades individuais, cada uma contendo 256 KB de cache L2 e 8 ROPs, sem desabilitar controladores de memória inteiros.[37] Isso ocorre com o custo de dividir o barramento de memória em segmentos de alta e baixa velocidade que não podem ser acessados ao mesmo tempo, a menos que um segmento esteja lendo enquanto o outro segmento está gravando porque a unidade L2/ROP gerenciando ambos os GDDR5 os controladores compartilham o canal de retorno de leitura e o barramento de dados de gravação entre os dois controladores GDDR5 e ele próprio.[37] Isso é usado na GeForce GTX 970, que, portanto, pode ser descrita como tendo 3,5 GB em seu segmento de alta velocidade em um barramento de 224 bits e 0,5 GB em um segmento de baixa velocidade em um barramento de 32 bits.[37]
Em 27 de julho de 2016, a Nvidia concordou com um acordo preliminar da ação coletiva dos EUA,[35] oferecendo um reembolso de $ 30 nas compras de GTX 970. O reembolso acordado representa a parte do custo dos recursos de armazenamento e desempenho que os consumidores presumiram obter quando compraram o cartão.[38]
Embora a série Maxwell tenha sido comercializada como totalmente compatível com DirectX 12,[2][39][40] Oxide Games, desenvolvedora de Ashes of the Singularity, descobriu que as placas baseadas em Maxwell não funcionam bem quando a computação assíncrona é utilizada.[41][42][43][39]
Parece que, embora esse recurso principal seja de fato exposto pelo driver,[44] a Nvidia o implementou parcialmente por meio de um shim baseado em driver, com um custo de alto desempenho.[43] Ao contrário das placas gráficas baseadas em GCN concorrentes da AMD, que incluem uma implementação completa de computação assíncrona baseada em hardware,[45][46] a Nvidia planejava contar com o driver para implementar uma fila de software e um distribuidor de software para encaminhar tarefas assíncronas para os agendadores de hardware, capazes de distribuir a carga de trabalho para as unidades corretas.[47] A computação assíncrona no Maxwell, portanto, requer que o jogo e o driver da GPU sejam especificamente codificados para computação assíncrona no Maxwell para habilitar esse recurso.[48] O benchmark 3DMark Time Spy não mostra nenhuma diferença perceptível de desempenho entre a computação assíncrona habilitada ou desabilitada.[48] A computação assíncrona é desativada pelo driver para Maxwell.[48]
A Oxide afirma que isso levou a Nvidia a pressioná-los a não incluir o recurso de computação assíncrona em seu benchmark, para que a série 900 não ficasse em desvantagem contra os produtos da AMD que implementam computação assíncrona em hardware.[42]
Maxwell requer que a GPU seja particionada estaticamente para computação assíncrona para permitir que as tarefas sejam executadas simultaneamente.[49] Cada partição é atribuída a uma fila de hardware. Se qualquer uma das filas atribuídas a uma partição esvaziar ou não puder enviar trabalho por qualquer motivo (por exemplo, uma tarefa na fila deve ser adiada até que um hazard seja resolvido), a partição e todos os recursos nessa partição reservada pois essa fila ficará ociosa.[49] A computação assíncrona, portanto, pode facilmente prejudicar o desempenho em Maxwell se não for codificada para funcionar com o agendador estático de Maxwell.[49] Além disso, as tarefas gráficas saturam as GPUs da Nvidia com muito mais facilidade do que as GPUs baseadas em GCN da AMD, que são muito mais pesadas para a computação, portanto, as GPUs da Nvidia têm menos lacunas de programação que podem ser preenchidas por computação assíncrona do que as da AMD.[49] Por esses motivos, o driver força uma GPU Maxwell a colocar todas as tarefas em uma fila e executar cada tarefa em série, e dar a cada tarefa os recursos indivisos da GPU, independentemente de cada tarefa poder ou não saturar a GPU.[49]
Algumas implementações podem usar especificações diferentes.
Modelo | Lançamento | Nome do código | Fab (nm) | Transistores (milhões) | Tamanho da matriz (mm2) | interface de Barramento | Core config[lower-alpha 2] | Velocidades de clock | Taxa de preenchimento | Memória | Suporte API (versão) | Poder de processamento (GFLOPS) | TDP (watts) | Suporte SLI[lower-alpha 3] | ||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Clock base do core (MHz) | Clock boost do core (MHz) | Memória (MT/s) | Pixel (GP/s)[lower-alpha 4] | Textura (GT/s)[lower-alpha 5] | Tamanho (MiB) | Largura de banda (GB/s) | Tipo | Largura do barramento (bit) | DirectX | OpenGL | OpenCL | Vulkan | precisão única[lower-alpha 6] | precisão dupla[lower-alpha 7] | ||||||||||
GeForce 910M[52][53][54] | 18 de agosto de 2015 | GF117[lower-alpha 8] | 28 | 585 | 116 | PCIe 3.0 x8 | 96:16:8 | 775 | 1550 | 1800 | 3.1 | 12.4 | 1024 | 14.4 | DDR3 | 64 | 12.0 (11_0)[1][4] | 4.6 | 1.1 | — | 297.6 | 1/12 of SP | 33 | Não |
15 de março de 2015 | GK208 | Desconhecido | 87 | 384:16:8 | 575 | 575 | 5.13 | 9.2 | 2048 | 1.2 | 1.1 | 441.6 | 18.4 | |||||||||||
GeForce 920M[55][56][57] | 13 de março de 2015 | GF117[lower-alpha 8] | 585 | 116 | 96:16:8 | 775 | 1550 | 3.1 | 12.4 | 1024 | 1.1 | — | 297.6 | 1/12 of SP | ||||||||||
GK208 | Desconhecido | 87 | 384:32:16 | 954 | 954 | 7.6 | 30.5 | 2048 | 1.2 | 1.1 | 732.7 | 22.9 | ||||||||||||
GeForce 920MX[58][59] | Março d 2016 | GM108[lower-alpha 9] | 1870 | 148 | 256:24:8 | 1072 | 1176 | 8.58 | 25.7 | 2048 | DDR3 GDDR5 | 549 | 1/32 of SP | 16 | ||||||||||
GeForce 930M[60][61] | 13 de março de 2015 | 384:24:8 | 928 | 941 | 7.4 | 22.3 | 2048 | DDR3 | 712.7 | 22.3 | 33 | |||||||||||||
GeForce 930MX[62][63] | 1 de março de 2016 | Desconhecido | Desconhecido | PCIe 3.0 x8 | 384:24:8 | 952 | 1020 | 2000 | Desconhecido | Desconhecido | 2048 | Desconhecido | DDR3 GDDR5 | Desconhecido | Desconhecido | Desconhecido | Desconhecido | Desconhecido | Desconhecido | |||||
GeForce 940M[64][65][66] | 13 de março de 2015 | GM107 | 1870 | 148 | PCIe 3.0 x16 | 640:40:16 | 1029 | 1100 | 2002 | 16.5 | 41.2 | 2048 | 16 - 80.2 | GDDR5 DDR3 | 128 | 1.2 | 1.1 | 1317 | 41.1 | 75 | Não | |||
GM108[lower-alpha 9] | Desconhecido | Desconhecido | PCIe 3.0 x8 | 384:24:8 | 8.2 | 24.7 | 64 | 790.3 | 24.7 | 33 | ||||||||||||||
GeForce 940MX[67][68] | 10 de março de 2016 | 1870 | 148 | 384:24:8 | 1122 | 1242 | 8.98 | 26.93 | 2048 4096 |
16.02 (DDR3) 40.1 (GDDR5) |
861.7 | Desconhecido | 23 | |||||||||||
GeForce 945M[69][70][71] | 2015 | GM107 | ? | 640:40:16 | 1029 | 1085 | ? | 16.46 | 41.2 | ? | ? | DDR3 GDDR5 | 128 | 1,317.1 | ? | 75 | ? | |||||||
GM108[lower-alpha 9] | ? | ? | PCIe 3.0 x8 | 384:24:8 | 1122 | 1242 | 8.98 | 26.93 | 64 | 861.7 | 23 | |||||||||||||
GeForce GT 945A[72][73] | 13 de março de 2015 | Desconhecido | Desconhecido | 384:24:8 | 1072 | 1176 | 1800 | 8.58 | 25.73 | 2048 | 14.4 | DDR3 | Desconhecido | Desconhecido | Desconhecido | 33 | Desconhecido | |||||||
GeForce GTX 950M[74][75] | 13 de março de 2015 | GM107 | 1870 | 148 | PCIe 3.0 x16 | 640:40:16 | 914 | 1085 | 5012 | 14.6 | 36.6 | 2048(GDDR5) 4096(DDR3) |
80(GDDR5) 32(DDR3) |
DDR3 GDDR5 | 128 | 1.2[76] | 1.1 | 1170 | 36.56 | 75 | Não | |||
GeForce GTX 960M[77][78] | 640:40:16 | 1029 | 1085 | 16.5 | 41.2 | 2048 4096 |
80 | GDDR5 | 1317 | 41.16 | 65 | |||||||||||||
GeForce GTX 965M[79][80] | 5 de janeiro de 2015 | GM204 | 5200 | 398 | 1024:64:32 | 924 | 950 | 5000 | 30.2 | 60.4 | 12.0 (12_1)[1][4] | 1945 | 60.78 | 60 [81] | Sim | |||||||||
GeForce GTX 970M[82] | 7 de outubro de 2014 | 1280:80:48 | 924 | 993 | 5012 | 37.0 | 73.9 | 3072 6144 |
120 | 192[83] | 2365 | 73.9 | 75 | |||||||||||
GeForce GTX 980M[84] | 1536:96:64 | 1038 | 1127 | 49.8 | 99.6 | 4096 8192 |
160 | 256[83] | 3189 | 99.6 | 100 | |||||||||||||
GeForce GTX 980 (Notebook)[85] | 22 de setembro de 2015 | 2048:128:64 | 1064 | 1216 | 7010 | 72.1 | 144 | 224 | 256 | 4612 | 144 | 145 | ||||||||||||
Modelo | Lançamento | Nome do código | Fab (nm) | Transistores (milhões) | Tamanho da matriz (mm2) | interface de Barramento | Core config[lower-alpha 2] | Velocidades de clock | Taxa de preenchimento | Memória | Suporte API (versão) | Poder de processamento (GFLOPS) | TDP (watts) | Suporte SLI[lower-alpha 3] | ||||||||||
Clock base do core (MHz) | Clock boost do core (MHz) | Memória (MT/s) | Pixel (GP/s)[lower-alpha 4] | Textura (GT/s)[lower-alpha 5] | Tamanho (MiB) | Largura de banda (GB/s) | Tipo | Largura do barramento (bit) | DirectX | OpenGL | OpenCL | Vulkan | precisão única[lower-alpha 6] | precisão dupla[lower-alpha 7] |
Modelo | Lançamento | Nome do código | Processo | Transistores (bilhões) | Tamanho da matriz (mm2) | Core config[lower-alpha 1] | interface de Barramento | Cache L2 (MB) |
Velocidades de clock | Memória | Taxa de preenchimento[lower-alpha 2] | Poder de processamento (GFLOPS)[lower-alpha 2][lower-alpha 3] | TDP (Watts) | Suporte SLI | Preço de lançamento (USD) | |||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Base (MHz) | Boost (MHz) | Memória (MT/s) | Tamanho (GB) | largura de banda (GB/s) | Tipo de barramento | Largura de barramento (bit) | Pixel (GP/s)[lower-alpha 4] | Texture (GT/s)[lower-alpha 5] | precisão única | precisão dupla | MSRP | |||||||||||
GeForce GT 945A[86][87][88] | fevereiro de 2016 | GM108 | TSMC 28HP |
Desconhecido | Desconhecido | 512:24:8 (4) | PCIe 3.0 x8 | ? | 1072 | 1176 | 1800 | 1 / 2 | 14.4 | DDR3 / GDDR5 | 64 | 8.5 9.4 |
25.7 28.2 |
1,097.7 1,204.2 |
34.3 37.6 |
33 | OEM | |
GeForce GTX 950[89] | 20 de agosto de 2015 | GM206-250 | 2.94 | 227 | 768:48:32 (6) | PCIe 3.0 x16 | 1 | 1024 | 1188 | 6600 | 2 | 105.7 | GDDR5 | 128 | 32.7 38.0 |
49.1 57.0 |
1,572.8 1,824.7 |
49.1 57.0 |
90 (75[lower-alpha 6]) | SLI de 2 vias | $159 | |
GeForce GTX 950 (OEM)[91] | Desconhecido | GM206 | 1024:64:32 (8) | 935 | Desconhecido | 5000 | 80.0 | 29.9 |
59.8 |
1,914.9 , |
59.8 |
Desconhecido | OEM | |||||||||
GeForce GTX 960[92] | 22 de janeiro de 2015 | GM206-300 | 1127 | 1178 | 7000 | 2 4[lower-alpha 7] |
112.1 | 36.0 37.6 |
72.1 75.3 |
2,308.0 2,412.5 |
72.1 75.3 |
120 | $199 | |||||||||
GeForce GTX 960 (OEM)[94] | Desconhecido | GM204 | 5.2 | 398 | 1280:80:48 (10) | 924 | Desconhecido | 5000 | 3 | 120.0 | 192 | 44.3 |
73.9 |
2,365.4 , |
73.9 |
Desconhecido | OEM | |||||
GeForce GTX 970[95] | 18 de setembro de 2014 | GM204-200 | 1664:104:56 (13) | 1.75 | 1050 | 1178 | 7000 | 3.5 + 0.5[lower-alpha 8] |
196.3 + 28.0[lower-alpha 8] |
224 + 32[lower-alpha 8] |
58.8 65.9 |
109.2 122.5 |
3,494.4 3,920.3 |
109.2 122.5 |
145 | SLI de 4 vias | $329 | |||||
GeForce GTX 980[97] | 18 de setembro de 2014 | GM204-400 | 2048:128:64 (16) | 2 | 1126 | 1216 | 4 | 224.3 | 256 | 72.0 77.8 |
144.1 155.6 |
4,612.0 4,980.7 |
144.1 155.6 |
165 | $549 | |||||||
GeForce GTX 980 Ti[98] | 1 de junho de 2015 | GM200-310 | 8 | 601 | 2816:176:96 (22) | 3 | 1000 | 1075 | 6 | 336.5 | 384 | 96.0 103.2 |
176.0 189.2 |
5,632.0 6,054.4 |
176.0 189.2 |
250 | $649 | |||||
GeForce GTX TITAN X[99] | 17 de março de 2015 | GM200-400 | 3072:192:96 (24) | 12 | 192.0 206.4 |
6,144.0 6,604.8 |
192.0 206.4 |
$999 |
«Driver 368.81 is the last driver to support Windows XP/Windows XP 64-bit.»
A Nvidia anunciou que, após o lançamento dos drivers 390, não lançará mais drivers de 32 bits para sistemas operacionais de 32 bits.[100]
As GPUs de notebook baseadas na arquitetura Kepler mudaram para suporte legado em abril de 2019 e pararam de receber atualizações críticas de segurança após abril de 2020.[101][102] A Nvidia GeForce 910M e 920M da família de GPUs 9xxM são afetadas por essa mudança.
A Nvidia anunciou que, após o lançamento dos 470 drivers, faria a transição do suporte de driver para os sistemas operacionais Windows 7 e Windows 8.1 para o status legado e continuaria a fornecer atualizações críticas de segurança para esses sistemas operacionais até setembro de 2024.[103]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.