AI漫長的歷史中,ChatGPT絕對是濃墨重彩的一筆。正是它引爆了AI大模型概念,也讓以往高高在上的AI飛入了尋常百姓家,開始融入每個人的日常工作、生活,AI PC、AI手機、AI邊緣也都在大踏步前進,變革千行百業。
有調研數據顯示,預計到2026年,AIGC相關投入將超過3000億美元,到2028年,80%以上的PC都會轉換成AI PC,而在邊緣應用中AI的普及率也將超過50%。
AI大模型等應用最需要的當然是高算力,GPU加速器隨之變得炙手可熱,但是AI的發展與變革同樣是多元化的,CPU通用處理器、NPU神經網絡引擎也都在各司其職,貢獻自己的力量。
尤其是傳統的CPU,也在緊跟時代的腳步,全方位擁抱AI,Inte第五代至強(Emerald Rapids)就是一個典型代表。
Intel 2023年初發布的第四代至強(Sapphire Rapids),年底就升級為第五代,速度之快前所未有,主要就是為了跟上形勢,尤其是AI的需求,很多指標都是為此而優化的。
這包括更多的核心數量、更高的頻率、更豐富的AI加速器,都帶來了性能和能效的提升,對于AIGC非常有利。
還有多達3倍的三級緩存,可以減少對系統內存的依賴,內存帶寬也同時進一步提升。
軟件生態方面,Intel提供了全方位的開發支持與優化,尤其加大了對主流大模型、AI框架的支持,特別是PyTorch、TensorFlow等等,在AI訓練、實時推理、批量推理等方面,基于不同算法,性能提升最多可達40%,甚至可以處理340億參數的大模型。
根據Intel提供的數據,五代至強SPECInt整數計算性能提升21%,AI負載性能提升最多達42%,綜合能效也提升了多達36%。
具體到細分領域,圖像分割、圖像分類AI推理性能提升最多分別42%、24%,建模和模擬HPC性能提升最多42%,網絡安全應用性能提升最多69%。
網絡與云原生負載能效提升最多33%,基礎設施與存儲負載能效提升最多24%。
有趣的是,Intel指出五代至強也有很高的性價比,其中一個評估標準就是同時支持的用戶數,五代至強可以在BF16、INT8精度下同時滿足8個用戶的實時訪問需求,延遲不超過100ms。
五代至強的優秀,也得到了合作伙伴的驗證,比如阿里云、百度云都驗證了五代至強運行Llama 2 700億參數大模型的推理,其中百度云在四節點服務器上的結果僅為87.5毫秒。
再比如京東云,Llama 2 130億參數模型在五代至強上的性能比上代提升了多達50%。
接下來,Intel至強路線圖推進的速度同樣飛快,今年內會陸續交付Granite Rapids、Sierra Forest兩套平臺,均升級為全新的Intel 3制程工藝。
其中,Sierra Forest首次采用E核架構,單芯片最多144核心,雙芯整合封裝能做到288核心,今年上半年就能問世。
Sierra Forest主要面向新興的云原生設計,可提供極致的每瓦性能,符合國家對設備淘汰換新的要求,而且因為內核比較精簡,可以大大提高同等空間內的核心數量。
緊隨其后的Granite Rapids,則依然是傳統P核設計,具備更高頻率、更高性能。
Granite Rapids針對主流和復雜的數據中心應用進行優化,尤其是大型程序,可以減少對虛擬機的依賴。
到了2025年,Intel還會帶來再下一代的至強產品,代號Clearwater Forest,無論制程工藝還是技術特性抑或性能能效,都會再次飛躍。
那么問題就來了,Intel至強的更新換代如此頻繁,尤其是五代至強似乎生命周期很短,它究竟值不值得采納部署呢?適合哪些應用市場和場景呢?
五代至強發布之初,Intel從工作負載優化性能、高能效計算、CPU AI應用場景、運營效率、可擴展安全功能和質量解決方案五個方面進行了介紹。
現在,我們再換一個維度,從另外五個方面了解一下五代至強的深層次價值。
一是制程工藝改進。
五代、四代至強都是Intel 7工藝,都采用了Dual-poly-pitch SuperFin晶體管,但也改進了關鍵的技術指標,特別是在系統漏電流控制、動態電容方面,它們都對晶體管性能有很大影響。
通過這些調整,五代至強在同等功耗下的整體頻率提升了3%,其中2.5%來自漏電流的減少,0.5%來自動態電容的下降。
二是芯片布局。
受到芯片集成復雜度、制造技術的限制,現在主流芯片都不再是單一大芯片,而是改為多個小芯片整合封裝。
四代至強分成了對稱的四個部分,做到最多60核心,五代至強則變成了鏡像對稱的兩部分,核心數反而提升到最多64個。
之所以如此改變,是因為切割的小芯片越多,彼此互相通信所需要的控制器、接口和所占用的面積也更多,還會額外增加功耗,并降低良品率。
通過芯片質量控制,五代至強可以更好地控制芯片面積,并且在相對較大的面積下獲得很好的良率,鏡像對稱的布線也更靈活。
這是五代至強單個芯片的布局圖,可以看到中間是33個CPU核心和二三級緩存,其中一個核心作為冗余保留。
左右兩側是DDR5內存控制器,上方是PCIe、UIPI控制器,以及DLB、DSA、IAA、QAT等各種加速器,底部則是EMIB封裝和通信模塊,用于雙芯片內部高效互連。
說到連接,五代至強使用了高速內部互連Fabric MDF,包括七個SCF(可擴展一致性帶寬互連),每一個都有500Gbps的高帶寬,讓兩顆芯片在邏輯上實現無縫連接。
三是性能與能效。
看一下五代至強的關鍵性能指標:
- CPU架構升級到Raptor Cove,13/14代酷睿同款。
- 核心數量增加,最多60核心來到最多64核心。
- 三級緩存擴容,平均每核心從1.875MB增加到5MB,這是歷代提升最大的一次。
- DDR5內存頻率從4800MHz提升到5600MHz。
- UPI總線速度從16GT/s提供到20GT/s。。
- 芯片拓撲結構更改,四芯片封裝改為雙芯片。
- 待機功耗降低,通過全集成供電模塊(FIVR)、增強主動空閑模式等技術實現。
四是三級緩存。
至強處理器以前每核心的三級緩存都只有1-2MB,這次直接來到了5MB,總容量最多達320MB。
在數據集不是很大的情況下,三級緩存本身就可以基本承載,無需轉移到系統內存,從而帶來極大的性能提升。
但是,緩存容量并不是單純堆起來的,因為大緩存會面臨可靠性問題,尤其是在大規模數據中心里存在一個比特反轉的軟故障,緩存越大,故障幾率越高,當錯誤足夠多而無法糾正的時候就會導致系統宕機。
這就需要超強的糾錯機制,五代至強就采用了新的編碼方式DEC、TED,一個緩存行出現兩個位錯誤的時候也可以糾正,三個位錯誤的時候也可以檢測,比傳統單位糾錯、兩位檢錯有著更強的容錯性,此外還有一些新的數據修復方案。
五是內存IO。
DDR5-4800升級到DDR5-5600,看似幅度不大,但其實很不容易,因為內存速度提升后,從芯片到基板需要全線進行優化匹配,包括供電和噪音控制等。
為了保證高頻下的信號完整性,五代至強還加入了4-tap DFE功能,盡可能減少碼間干擾(ISI)。
最后再單獨說說基于至強這樣的通用處理器的AI負載應用,以及相應的解決方案。
其實,AI應用并非只是大模型,還有大量的傳統非大模型AI應用,都非常適合在CPU上部署。
比如基因測序這樣的科學計算,2018年至今,至強每一代都有顯著提升,因為科學計算很多時候就是“暴力”計算,最考驗CPU的處理能力。
除了硬件上的支持,Intel還有強大的軟件生態優化,包括基于OpenVINO對整個模型進行優化、量化,在推薦、語音識別、圖像識別、基因測序等方面Intel都做了大量的優化。
比如模型非常大的推薦系統、稀疏矩陣等應用,CPU的效率其實優于GPU,因為單個GPU不夠用的時候就得跨GPU,或者和CPU頻繁交互傳輸,而在與內存互通方面CPU的效率是更高的。
其他像是網絡、數據服務、存儲等等,至強無論性能還是能效都在行業處于領先地位,更關鍵的是系統故障率非常低。
對于通用的AI工作負載,Intel采用了AMX、AVX-512兩個指令集,并基于OpenVINO進行優化。
AMX適合處理BF16、INT8數據類型,比如推薦系統、自然語言處理、圖像識別與目標檢測等等。
AVX-512適合處理FP32、FP64數據類型,比如數據分析、機器學習等等。
在推理的過程中,指令集還可以進行靈活切分,通過加速器定向加速某一部分,替代基于GPU的AI模型是完全沒有問題的。
事實上,AI只是工作負載的一部分,更多的是通用負載,很多深度學習模型也都是“混合精度”,四代、五代至強運行它們的時候都可以根據需要在AMX、AVX-512之間靈活無縫切換。
針對大模型的加速,Intel也推出了自己的框架BigDL LLM,有很多框架層針對CPU進行了大量的優化,并針對模型做了量化。
另外,Intel擁有開放的生態,行業伙伴和友商都可以直接納用,這對Intel自身來說也是一件好事,可以帶動整個生態的發展,讓Intel的解決方案得到更廣泛的普及。
總的來說,在這個AI時代,CPU、GPU、NPU等各種計算引擎都有自己的獨特優勢,都有自己的適用場景和領域,不存在誰取代誰,更多的是靈活的選擇與協同的高效,需要結合具體業務的能效、成本等多方面綜合考慮。
CPU作為最傳統的通用計算引擎,始終都會占據不可替代的地位,無論是作為整個計算平臺的中心樞紐,還是對各種通用負載、AI負載的靈活處理,未來依然可以橫刀立馬!