如今,有一個詞聽到耳根生繭卻有些觸不可及,這個詞就是“人工智能”,曾經它活在科幻小說中,如今它活在新聞標題中,然而降臨在我們身邊,還是一個未知的時間、未知的地點、未知的場景。
自2016年3月AlphaGo戰勝李世石,全世界掀起了一場對人工智能的熱戀,一個仍在實驗室里的襁褓瞬間就成了國民對象。一場AI軍備競賽也逐漸浮出水面,無論是科技大佬還是初創公司,誰都不愿錯過這場即將爆發的AI風暴。
前幾天,谷歌又掀起一場AI風波,TPU來襲、劍指GPU,本來就難分勝負的AI芯片之戰,更撲朔迷離。
那么本期《趣科技》我們就來講講誰是AI時代真正的“硬”角色。
最近我們總聽到一種論調“中國人工智能直追美國”,而麥肯錫最新研究報告顯示,盡管中國在人工智能的論文數量方面超過美國,但是中國AI研究的影響力尚不及美國或者英國。這究竟是為什么?為何一個很鼓舞人心的消息后面總有一個殘酷的現實。
在人工智能的賽道上,有三大軍團,即算法、計算能力、芯片,而核心陣地顯然是在硬件方面。我國與美國的差距也主要是在此方面。
目前,在AI芯片領域,有幾大競爭主力:
- GPU,視覺處理器,只有英偉達、AMD兩大玩家;
- FPGA,現場可編程門陣列,玩家有賽靈思、Altera(已被英特爾收購)、Lattice、Microsemi;
- ASIC,專用集成電路,美國英特爾、高通、微軟,英國Graphcore,中國中科院計算所、地平線機器人等均有布局;
- 類腦芯片,美國IBM、高通,中國中科院計算所、北京大學、中星微等已有不俗的成績。
顯然,在GPU和FPGA上我國缺席,在ASIC與類腦芯片上也只是一個追隨者,這就是與美國的差距所在。而說我們緊追美國也不為過,在AI應用層面,在語音識別和定向廣告等方面,百度已經走在全球前列。
隨著人工智能的大量涌現,AI芯片市場群雄爭霸,廠商紛紛推出新的產品,都想領跑智能時代——但問題是,誰會擔當這個角色呢?
目前來看,GPU是厚積薄發正當時,在深度學習領域發揮著巨大作用;FPGA被視為AI時代的萬能芯片,架構靈活獨具特色;ASIC這個后起之秀,被企業視作引發一輪全面的顛覆的杰作。其推動代表之一就是谷歌,2016年宣布將獨立開發一種名為TPU的全新的處理系統,而在前幾日,這個神秘的TPU現真容。谷歌表示TPU 已經在谷歌數據中心內部使用大約兩年,并且TPU 在推理方面的性能要遠超過 GPU。
TPU,為深度學習而生的ASIC
TPU 是谷歌專門為加速深層神經網絡運算能力而研發的一款芯片,可用來加速神經網絡(NN)的推理階段,其實是一款 ASIC。
我們先來看一下什么是ASIC,ASIC指依照產品需求不同而定制化的特殊規格集成電路,由特定使用者要求和特定電子系統的需要而設計、制造。一般來說,ASIC 在特定功能上進行了專項強化,可以根據需要進行復雜的設計,但相對來說,實現更高處理速度和更低能耗。相對應的,ASIC 的生產成本也非常高。
谷歌為什么要做TPU呢?一方面是有錢任性,畢竟一般公司很難承擔為深度學習開發專門處理器 ASIC 芯片的成本和風險;另一方面是自身需求大,龐大的體量比如谷歌圖像搜索、谷歌照片、谷歌云視覺 API、谷歌翻譯等產品和服務都需要用到深度神經網絡,開發一款ASIC可得到廣泛的應用。
早在2011年谷歌就意識到他們遇到的問題,開始思考使用深度學習網絡了,這些網絡運算需求高,令他們的計算資源變得緊張。
CPU能夠非常高效地處理各種計算任務,但 CPU 的局限是一次只能處理相對來說很少量的任務;GPU 在執行單個任務時效率較低,而且所能處理的任務范圍更小,GPU 是理想的深度學習芯片,但是能耗的問題又非常嚴重。于是TPU應用而生。
顯然,在GPU和FPGA上我國缺席,在ASIC與類腦芯片上也只是一個追隨者,這就是與美國的差距所在。而說我們緊追美國也不為過,在AI應用層面,在語音識別和定向廣告等方面,百度已經走在全球前列。
隨著人工智能的大量涌現,AI芯片市場群雄爭霸,廠商紛紛推出新的產品,都想領跑智能時代——但問題是,誰會擔當這個角色呢?
目前來看,GPU是厚積薄發正當時,在深度學習領域發揮著巨大作用;FPGA被視為AI時代的萬能芯片,架構靈活獨具特色;ASIC這個后起之秀,被企業視作引發一輪全面的顛覆的杰作。其推動代表之一就是谷歌,2016年宣布將獨立開發一種名為TPU的全新的處理系統,而在前幾日,這個神秘的TPU現真容。谷歌表示TPU 已經在谷歌數據中心內部使用大約兩年,并且TPU 在推理方面的性能要遠超過 GPU。
TPU,為深度學習而生的ASIC
TPU 是谷歌專門為加速深層神經網絡運算能力而研發的一款芯片,可用來加速神經網絡(NN)的推理階段,其實是一款 ASIC。
我們先來看一下什么是ASIC,ASIC指依照產品需求不同而定制化的特殊規格集成電路,由特定使用者要求和特定電子系統的需要而設計、制造。一般來說,ASIC 在特定功能上進行了專項強化,可以根據需要進行復雜的設計,但相對來說,實現更高處理速度和更低能耗。相對應的,ASIC 的生產成本也非常高。
谷歌為什么要做TPU呢?一方面是有錢任性,畢竟一般公司很難承擔為深度學習開發專門處理器 ASIC 芯片的成本和風險;另一方面是自身需求大,龐大的體量比如谷歌圖像搜索、谷歌照片、谷歌云視覺 API、谷歌翻譯等產品和服務都需要用到深度神經網絡,開發一款ASIC可得到廣泛的應用。
早在2011年谷歌就意識到他們遇到的問題,開始思考使用深度學習網絡了,這些網絡運算需求高,令他們的計算資源變得緊張。
CPU能夠非常高效地處理各種計算任務,但 CPU 的局限是一次只能處理相對來說很少量的任務;GPU 在執行單個任務時效率較低,而且所能處理的任務范圍更小,GPU 是理想的深度學習芯片,但是能耗的問題又非常嚴重。于是TPU應用而生。