GeForce RTX 20系列

来自维基百科,自由的百科全书

GeForce RTX 20系列NVIDIAGeForce GTX 10系列之後開發的圖形處理器系列。該系列於2018年8月20日在Gamescom(科隆遊戲展)上發佈[1][2][3],首發產品是GeForce RTX 2080及2080Ti[4]。此系列產品被重新命名為RTX而非沿用已使用多年的GTX,以突顯對光線跟蹤的支援。

快速預覽 發佈日期, 代號 ...
Geforce RTX 20 系列
Thumb
RTX 2080Ti 創始版
發佈日期2018年9月20日,​6年前​(2018-09-20
2019年7月9日,​5年前​(2019-07-09
(Super系列)
代號TU10x
架構Turing
產品系列GeForce RTX
電晶體
  • 108億 12nm(TU106)
  • 136億 12nm(TU104)
  • 186億 12nm(TU102)
製造工藝台積電 12nm(FinFET)
顯示卡
中階GPUGeForce RTX 2050
GeForce RTX 2060
GeForce RTX 2060 Super
高端GPUGeForce RTX 2070
GeForce RTX 2070 Super
GeFroce RTX 2080
GeForce RTX 2080 Super
旗艦GPUGeForce RTX 2080 Ti
NVIDIA TITAN RTX
API支援
Direct3DDirect3D 12 (12_2)
OpenGLOpenGL 4.6
OpenCLOpenCL 1.2
VulkanVulkan 1.2
歷史
前代產品GeForce 10系列
相關產品GeForce 16系列
後繼產品GeForce 30系列
關閉

架構特性

RTX 20系列基於圖靈微架構(Turing),其主要特點是支援即時光線追蹤(Ray tracing)技術。[5]該系列顯示卡通過搭載RT(光線追蹤運算)核心,顯著加速了光線追蹤的計算過程。這些核心能夠高效處理四叉樹和球形階層,並在碰撞模擬的過程中更快地為三角面組成的立體模型進行物體碰撞模擬。RT核心的光線追蹤功能在模擬反射、折射和陰影的操作上可以取代傳統的使用立方體貼圖或深度貼圖的光柵技術。從光線追蹤運算得到的資訊可以增強陰影使畫面更加逼真,尤其是可以將發生於螢幕畫面以外的動作通過陰影和光線反射渲染到畫面之中。

該系列顯示卡還搭載了張量運算核心(Tensor Core)。張量核心最初是為深度學習任務設計的,例如訓練圖像超解像度模型。然而,消費級顯示卡中的張量核心主要用於進行已經訓練完成的深度學習模型的推理。這些模型的訓練和分析通常在高效能電腦上進行,後者負責確定並最佳化實現特定目標(如圖像超解像度)的方法。之後,消費級顯示卡上的張量核心會使用這些經過高效能電腦訓練獲得的模型,從而實現例如提高圖像解像度等功能,如深度學習超級採樣(DLSS)[6]

NVIDIA早在基於帕斯卡伏打圖形處理微架構的GeForce GTX TITAN系列上就已經在畫面運算中應用了深度學習光線追蹤技術,但由於當時裝置效能的限制,僅能生成靜態畫面,而GeForce RTX 20系列則首次在畫面處理中大規模採用深度學習技術,並引入了與深度學習相結合的光線追蹤即時動態畫面技術。[7]

細節

  • GeForce RTX 20系列採用的台積電12nm FFN製程由伏特微架構使用的12nm FFC製程改進(但本質上依舊是台積電16nm FF+製程的延伸版本),效能是後者的1.1倍,功耗只有後者的70%,核心面積則可以縮小20%
  • 為容納數量龐大的運算單元,GeForce RTX 20系列的核心面積相比帕斯卡微架構大幅增加,由GP102(GeForce GTX 1080Ti)的471mm2增加至TU102(GeForce RTX 2080Ti)的754mm 2
  • GeForce RTX 20系列支援 CUDA 計算能力 7.5
  • GeForce RTX 20系列採用了全新的SM陣列設計: TPC包含了兩個SM單元(Pascal為1個),SM單元重新分配為64個FP32、64個INT32、8個Tensor Core 、1個RT Core ,同時添加了獨立的INT數據路徑,支援FP32和INT32操作的並發執行。
  • 為共用暫存、一級暫存、紋理暫存引入了統一架構,一級暫存與共用暫存大小是靈活可變的,可以根據需要在64+32KB或者32+64KB之間變換,讓一級暫存更充分利用資源,也減少一級暫存延遲,並提供比Pascal GPU中使用的一級暫存更高的頻寬,同時二級暫存容量提升。
  • Tensor Core(張量核心) : 負責人工智能、神經網絡運算,增加了新的INT8和INT4精度模式,FP16半精度也能夠被完整支援通常會用到矩陣融合乘加(FMA)運算,新的INT8精度模式的工作速率是此速率的兩倍,張量核心為矩陣運算提供了顯著的加速,除了新的神經圖形功能外,還用於深度學習訓練和推理操作。
  • NGX (Neural Graphics Acceleration)框架: 利用張量核心,在遊戲中實現深度學習功能,GeForce Experience會自動匹配Turing顯示卡並且下載可用的NGX Core軟件包,對應如DLSS、AI InPainting、AI Super Rez、AI Slow-Mo等功能。
  • DLSS (深度學習超級採樣) : 利用張量核心實現在較低的實際解像度下更快地渲染,。
  • AI InPainting : 利用基於大量真實世界圖像訓練的模型,GeForce RTX 20系列可以補全圖片中缺失的內容、移除相片的噪點、失真部分。
  • AI Super Rez : GeForce RTX 20系列可以將原始圖像的解像度放大2倍、4倍、8倍,使圖像更加銳利。
  • AI Slow-Mo : GeForce RTX 20系列可以對常見的30fps的影片進行智能補幀計算,獲得240/480fps的慢動作影片,而不需要專門的高幀率攝影機。
  • RT Core : 一條專門為光線追蹤計算設計的渲染流水線,用於加速計算邊界體積層次(BVH)遍歷以及光線和三角求交(光線投射)。
  • 支援GDDR6顯示記憶體
  • 附有影像串流壓縮技術(Display Stream Compression,DSC)1.2版的DisplayPort 1.4a
  • 功能集PureVideo的硬件加速視像解碼
  • NVLink連接器(與伏打微架構的不相容)
  • VirtualLink VR
  • GPU Boost 4[8]

設計

在RTX的光線追蹤示範程式中使用了微軟的DXR 、NVIDIA的OptiX 以及Vulkan等API來實現光線追蹤功能[9]

晶片規格

另見

參見

擴充連結

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.