国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

4090在深度學習訓練上的性能表現(xiàn)數(shù)據(jù)分享

2023-06-29 18:05 作者:云客數(shù)字服務器工廠  | 我要投稿

我們對訓練?Transformer 模型在各種 GPU(包括單 GPU、多 GPU 和多機器)上可以實現(xiàn)的真實Tera FLOPS進行了基準測試。它可以幫助您估計訓練大型 Transformer 模型需要多少機器時間。

實際性能取決于多種因素,包括硬件、冷卻、CUDA版本、變壓器模型、超參數(shù)(例如批量大?。┖蛯崿F(xiàn)。我們在我們自己的服務器平臺上面運行了并整理了相應的數(shù)據(jù)。

測試平臺:

平臺:超微SYS-420GP-TNR(3代Xeon平臺)

顯卡:單渦輪?4090

cpu:Intel Xeon Gold 6348

測量各種微基準測試的TFLOPS。測試方法:李沐老師micro-benchmarkings

測試結(jié)果:

測試說明:

1.矩陣計算速度

transformer的核心操作是矩陣乘法,通過測試矩陣計算的tflops可以得到硬件的計算上限。

可以看出單精度提升明顯,因為Tensor Cores的緣故,半精度性能相比單精度有很大的提升,半精度下為161 TFLPOPS是3090Ti的。

2.向量乘法速度、帶寬

深度學習訓練中,帶寬會限制你的訓練速度。因為網(wǎng)絡訓練過程中的激活函數(shù)會做的事情計算步驟類似向量乘法,這種操作會很慢,從而減慢訓練速度。

可以看出4090向量乘法操作大約是3090ti的四倍,吞吐量提升很多,盡管位寬一樣。

3.Bert Layer Forward/Forward+Backward速度

從上面的測試數(shù)據(jù)可以看出,越簡單的代碼,提高越接近2倍的理論值,對于一些復雜的代碼,因為有一些不同的附加操作,提高的值會有所差異。

GPT的提高就比BERT相對來說小一些,因為它包括了一個掩碼的計算,所以這個使得產(chǎn)生了非常強的性能損失,相比bert。

總結(jié):

從矩陣計算硬件的計算上限來說,4090在單精度上提升明顯,因為Tensor Cores的緣故,半精度提升2倍, 4090bertForward操作的性能是 3090ti的1.77倍,F(xiàn)orward+Backward是3090ti的1.68倍。

想了解RTX4090整機的更多測試報告,歡迎私信我們~


4090在深度學習訓練上的性能表現(xiàn)數(shù)據(jù)分享的評論 (共 條)

分享到微博請遵守國家法律
樟树市| 固原市| 福海县| 什邡市| 晋宁县| 青冈县| 金平| 大城县| 通化县| 虞城县| 潮安县| 达孜县| 武义县| 四会市| 阿拉尔市| 佛教| 稷山县| 纳雍县| 柳林县| 阿合奇县| 怀安县| 莲花县| 湖南省| 喀什市| 富裕县| 资阳市| 安新县| 儋州市| 阳朔县| 平利县| 镇远县| 驻马店市| 莱阳市| 和龙市| 密山市| 三门县| 库伦旗| 丰都县| 锡林郭勒盟| 应用必备| 且末县|