CPU 與 GPU 與 TPU 之間有什么區別?人工智能和機器學習技術一直在加速智能應用的發展。為了應對日益復雜的應用,半導體公司不斷開發處理器和加速器,包括CPU、GPU和TPU。然而,隨著摩爾定律的放緩,僅靠CPU 性能不足以有效地執行要求苛刻的工作負載。問題是,企業如何加速整個系統的性能來支持人工智能應用的過度需求?答案可能是通過開發GPU和TPU來補充CPU以運行深度學習模型。這就是為什么必須了解CPU、GPU 和TPU背后的技術才能跟上不斷發展的技術以獲得更好的性能和效率。 如果您正在尋找有關CPU與GPU與TPU之間有什么區別的答案?或者它們如何在計算機體系結構中工作?閱讀本文可能會幫助您了解有關CPU、GPU 和TPU 的一些問題。 CPU Vs. GPU Vs. TPU 從根本上說,CPU、GPU和TPU之間的區別在于,CPU是作為計算機大腦工作的處理單元,設計用于通用編程的理想選擇。相比之下,GPU是一種性能加速器,可增強計算機圖形和AI工作負載。而TPU是Google定制開發的處理器,可使用(特定機器學習框架)TensorFlow 加速機器學習工作負載。 什么是 CPU? 中央處理器 (CPU) 是存在于所有智能設備中的核心處理器。CPU是一種通用處理器,設計有幾個強大的內核和大容量緩存,使其能夠同時運行幾個軟件線程。CPU就像管弦樂隊中的指揮;它控制從內存到顯卡的所有其他組件,為系統執行許多處理功能。 CPU至少有一個處理核心,但隨著時間的推移已經發展到包含越來越多的核心。擁有多個內核使CPU能夠執行多線程,這是一種允許CPU在單個內核上同時執行兩行執行(線程)的技術。此外,現代CPU 現在有2到6個內核,有些甚至有8到64個內核用于通常為數據中心保留的企業級CPU。 CPU特性總結: 有幾個核心 低延遲 專門從事串行處理 能夠一次執行少數操作 RNN(循環神經網絡)的FLOPS利用率最高 內存容量大,支持最大機型 對于不規則計算(例如,小批量非 MatMul 計算)更加靈活和可編程 什么是 GPU? GPU(圖形處理單元)是一種專用處理器,與 CPU 一起用作性能加速器。與 CPU 相比,GPU 有數千個內核,可以將復雜的問題分解為數千或數百萬個單獨的任務,并并行處理它們。并行計算利用數千個 GPU 內核來優化各種應用程序,包括圖形處理、視頻渲染、機器學習,甚至是比特幣等加密貨幣的挖掘。 在過去的十年中,GPU 已成為深度學習開發的關鍵。憑借在單個操作中加速大型矩陣運算和執行混合精度矩陣計算的能力,GPU可以高速加速深度學習。這種并行計算技術使 GPU成為現代超級計算的重要組成部分,從而點燃了全球人工智能熱潮。 GPU特性總結: 擁有數千個內核 高吞吐量 專用于并行處理 能夠同時執行數千個操作 什么是 TPU? TPU代表張量處理單元,它是專用集成電路 (ASIC)。TPU 是由 Google 從頭開始設計的;他們于2015年開始使用 TPU,并于 2018 年將其公之于眾。 TPU可作為云或較小版本的芯片使用。Cloud TPU在執行密集向量和矩陣計算以加速TensorFlow 軟件上的神經網絡機器學習方面的速度非常快。TensorFlow是由Google Brain團隊構建的開源機器學習平臺,旨在幫助開發人員、研究人員和企業在Cloud TPU硬件支持的高級TensorFlow API上運行和操作 AI模型。TPU最大限度地縮短了訓練大型復雜神經網絡模型的準確時間。使用TPU,以前在GPU上訓練需要數周時間的深度學習模型現在在TPU上只需數小時。 TPU功能摘要: 矩陣處理專用硬件 高延遲(與 CPU 相比) 非常高的吞吐量 極端并行計算 針對大批量和CNN(卷積神經網絡)進行高度優化 本文由朗銳智科(http://www.lrist.com)編輯整理,如有侵權請聯系本站。 |