中國·上海,2019年7月1日- Wave Computing(以下簡稱Wave),是一家位于美國硅谷、致力于推動人工智能深度學習從邊緣計算到數據中心的計算加速方案的公司,近日于深圳參加了由電子發燒友網舉辦的2019人工智能技術峰會。本次大會,以“加速中國 AI 落地” 為主題,旨在為人工智能產業上下游搭建一個技術交流、資源對接和產品落地的平臺。Wave CompuTIng中國區總經理熊大鵬博士應邀出席本次大會,與人工智能芯片、算法、系統和平臺供應商與系統集成商等廠商分享了Wave服務于AI邊緣計算的芯片設計——TritonAI? 64 IP平臺。
Wave CompuTIng成立于2010年,其核心產品數據流處理器單元(DPU)采用非馮諾依曼(von Neumann)架構的軟件可動態重構處理器CGRA(Coarse grain reconfigurable array/accelerator)技術,適用于大規模異步并行計算問題。其主要優勢是使得硬件更加靈活地適配于軟件,在可編程性(或通用性)和性能方面達到很好的綜合平衡,降低AI芯片開發門檻,不會受到GPU等加速器中存在的內存瓶頸的影響。獨創的“軟件可動態重構處理器架構(CGRA)以及數據流(Data Flow)計算”正成為AI計算領域具有革命性意義的處理器架構。它旨在通過基于數據流架構的一系列產品改變傳統的人工智能計算。
2019 年,Wave CompuTIng針對邊緣計算市場的算力需求,將MIPS技術與Wave旗下WaveFlow?和WaveTensor?技術相結合,推出TritonAI? 64 IP平臺,該平臺融合了Wave CompuTIng旗下的幾大核心技術,MIPS 高性能、多線程、低功耗 IP、WaveFlow?、WaveTensor?等先進技術,具有高可擴展性、高兼容性、可客制化的特點,為產品提供高效、低耗的AI計算加速能力。
作為一款高度靈活的軟件平臺,TritonAI? 64 IP平臺靈活適配到AI加速引擎WaveFlowTM 和WaveTensorTM,滿足不斷變化的AI計算需求。這些加速引擎被一個異構編程平臺管理,該編程平臺由一個統一的API平臺管理,即Wave Run-Time (WaveRTTM)平臺。WaveRT平臺在 MIPS 上運行, 并幫助對 WaveFlow 和 WaveTensor 運行引擎進行編程, 以分析和執行恰當的 AI任務;這種軟件集中管理的方式,可以很好地把AI應用、AI框架和 AI算法從它們依賴執行的目標計算單元抽象出來,從而可以把算法按并行執行的方式匹配到Wave相應的計算單元上去,從而提升SoC 的AI計算性能。
“TritonAI? 64 IP平臺繼承了DPU對神經網絡強大的原生表示和支撐能力,適配多種神經網絡,對于今天各種變化不斷的算法,都可以很容易地部署在TritonAI? 64 IP平臺上。這體現了Wave Computing對眾多AI領域應用的深刻理解,和對客戶需求的全方位考慮。”熊大鵬博士介紹道。