算法、算力和數據是人工智能三大核心要素,也是人工智能的三大基石。AI 算法持續突破創新,模型復雜度指數級提升的同時,準確率和效率也在不斷提高,在各個細分領域應用加速落地。隨著芯片處理能力提升、硬件價格下降、神經網絡模型優化,AI 算力也在大幅提升。與此同時,AI 產業級應用已經進入大數據、大模型時代。
當前,全球主流 AI 框架和模型的技術演進及創新進展如何?如何提升算法模型的準確率和效率?如何將 AI 框架和模型應用于實際場景中,實現產業創新?在 AICON 2022 “AI 框架與模型” 分論壇上,眾多 AI 領域專家將共同探討這些問題。
AICON 2022 由 LF AI & DATA 基金會主辦,將于 9 月 8 日在杭州舉行。大會由一個主論壇以及 “AI 框架與模型”“AI + 數據”“AI 工程化”“昇思生態論壇” 四個分論壇組成,聚焦 AI 前沿技術、產業化和商業化的動態。
屆時,來自全球的人工智能領域頂尖科學家、行業專家及著名企業家將齊聚一堂,重點關注人工智能技術領域的行業變革與技術創新,共同圍繞核心技術、行業落地、產業賦能、發展要素、治理機制等熱門話題進行深入探討和交流,分享全球人工智能行業新趨勢、新動向,探索人工智能發展新模式新路徑。
近年來,大模型已經成為整個 AI (人工智能)產學界追逐的技術“寵兒”,“煉大模型”如火如荼,包括OpenAI、Google、微軟、英偉達、百度、華為、阿里巴巴等企業巨頭紛紛參與其中,各式各樣參數不一、任務導向不同的“大模型”也陸續面市。一時間,“煉大模型”成為了當下AI產業發展的一個主旋律。
方融科技高級工程師、科技部國家科技專家周迪在接受《中國經營報》記者采訪時表示,Al大模型歷經了前幾年的探索期、突破期,部分技術已經逐漸成熟,現在在一定程度上達到推廣期了。各大企業紛紛發布AI大模型,就是搶抓這個時間節點,在這方面先取得入場門票。大模型具有效果好、泛化性強、研發流程標準化程度高等特點,正在成為人工智能技術及應用的新基座。
據中國信息通信研究院測算,2021年,算力核心產業規模超過1.5萬億元,關聯產業規模超過8萬億元。其中,云計算市場規模超過3000億元,IDC(互聯網數據中心)服務市場規模超過1500億元,人工智能核心產業規模超過4000億元。
在過去,絕大部分人工智能企業和研究機構遵循算法、算力和數據三位一體的研究范式,即以一定的算力和數據為基礎,使用開源算法框架訓練智能模型。而這也導致了當前大部分人工智能處于“手工作坊式”階段,面對各類行業的下游應用,AI 逐漸展現出碎片化、多樣化的特點,也出現了模型通用性不高的缺陷。這不僅是AI技術面臨的挑戰,也限制了AI的產業化進程。
“從各類電商平臺的智能推薦到日常生活中的刷臉支付,現在我們生活的方方面面都離不開AI。為了滿足這些需求,我們需要為每種特定場景收集大量的數據,再從中設計出專用于特定任務的模型,”周迪對記者說道,“AI大模型希望做到的就是能夠基于這個模型整合各類需求,從而適應多種差異化的業務場景,解決AI在賦能千行百業中面臨的碎片化、多樣化問題。”
AI大模型提供了一種通用化的解決方案,通過“預訓練大模型+下游任務微調”的方式,可以有效地從大量標記和未標記的數據中捕獲知識,極大地擴展了模型的泛化能力。
華為昇騰計算業務總裁張迪煊對記者表示,過去在一個單一的AI應用場景里面,其實是由很多模型組成的,通過多模型支撐一個場景來完成多個任務。而大模型是AI發展的趨勢,也就是通過大模型能解決人工智能很多的問題,因為大模型具備很好的泛化性,可以通過大模型實現多個任務,原來場景需要多個小模型,現在大模型可以服務多個場景,這是生產效率的提升。現在國家相關部門也在牽頭制定大模型的沙盤,避免科研機構、企業重復研發,通過各個領域的大模型與行業場景結合,可以更好地加速人工智能技術產業落地。
阿里巴巴資深副總裁、達摩院副院長周靖人則認為:“大模型模仿了人類構建認知的過程,這是當下我們面臨的重要機遇。通過融合AI在語言、語音、視覺等不同模態和領域的知識體系,我們期望多模態大模型能成為下一代人工智能算法的基石,讓AI從只能使用‘單一感官’到‘五官全開’,且能調用儲備豐富知識的大腦來理解世界和進行思考,最終實現接近人類水平的認知智能。”
從2020年開始,國際最頂尖的AI技術發展,愈來愈像一場比拼資金與人才的軍備競賽。
2020年,OpenAI發布NLP預訓練模型GPT-3,光論文就有72頁,作者多達31人,該模型參數1750億,耗資1200萬美元;
2021年1月,谷歌發布首個萬億級模型Switch Transformer,宣布突破了GPT-3參數記錄;
4月,華為盤古大模型參數規模達到千億級別,定位于中文語言預訓練模型;
11月,微軟和英偉達在燒壞了4480塊CPU后,完成了5300億參數的自然語言生成模型(MT-NLG),一舉拿下單體Transformer語言模型界“最大”和“最強”兩個稱號;
今年1月,Meta宣布要與英偉達打造AI超級計算機RSC,RSC每秒運算可達50億次,算力可以排到全球前四的水平。
除此之外,阿里、浪潮、北京智源研究院等,均發布了最新產品,平均參數過百億。
看起來,這些預訓練模型的參數規模沒有最大,只有更大,且正以遠超摩爾定律的速度增長。其在對話、語義識別方面的表現,一次次刷新人們的認知。
這一年,由OpenAI公司開發的GPT-3橫空出世,獲得了“互聯網原子彈”,“人工智能界的卡麗熙”,“算力吞噬者”,“下崗工人制造機”,“幼年期的天網”等一系列外號。它的驚艷表現包括但不限于:
有開發者給GPT-3 做了圖靈測試,發現GPT-3對答如流,正常得不像個機器。“如果在十年前用同樣的問題做測試,我會認為答題者一定是人。現在,我們不能再以為AI回答不了常識性的問題了。”
深度學習發展至今,語言、視覺、推薦、代碼生成等多個領域相繼出現一些“大模型”成果,不斷刷新著人們對 AI 的認知與想象。深度學習依賴對大量數據的訓練,而“大模型”的參數更多、函數更復雜,這樣的特征使得模型所演算出來的結果更精準。隨著萬物互聯世界的進一步發展,數據量的擴展與數據收集已不再是難題,隨之而來的新命題是如何處理海量數據,并且做出更好地訓練。
早在 2017 年,Transformer 結構被提出,使得深度學習模型參數突破了1億;2018 年,BERT 網絡模型的提出,使得參數量首次超過 3 億規模;2020 年,擁有 1750 億個參數的 GPT-3 橫空出世;2021 年推出的 ZionEX 系統,其所支持的推薦模型大小已超過 10 萬億規模……
隨著數據規模的指數級增長,大模型已經逐漸被認為是通過深度學習認知智能的橋梁。
然而,數據量的暴增提出了新的命題——如何跨越通信等瓶頸,提升大模型的訓練效率?為了支持大模型的訓練,往往需要一套大規模分布式訓練框架來訓練大模型。
對此,華為交出的答卷便是昇思 MindSpore AI 框架,原生支持大模型訓練。昇思 MindSpore 擁有業界領先的全自動并行能力,提供 6 維混合并行算法,即數據并行、模型并行、流水并行、優化器并行等能力;極致的全局內存復用能力,在開發者無感知的情況下,自動實現 NPU 內存 / CPU 內存 / NVMe 硬盤存儲的多級存儲優化,極大降低模型訓練成本;極簡的斷點續訓能力,可解決大集群訓練故障導致的任務中斷問題……通過這些特性,可以很好地解決大模型開發時遇到的內存占用、通信瓶頸、調試復雜、部署難等問題。
近年來,大模型表現出前所未有的理解與創造能力,且打破了傳統AI(人工智能)只能處理單一任務的限制,讓人類離通用人工智能的目標近了一步。但大模型仍存在許多技術難點,同時受算力資源限制,其訓練與落地應用頗具挑戰。
據周靖人介紹,為了讓大模型更加“融會貫通”,達摩院在中國國內率先構建了AI統一底座,在業界首次實現模態表示、任務表示、模型結構的統一。
在不引入新增結構的情況下,通義統一底座中M6-OFA模型,可同時處理圖像描述、視覺定位、文生圖、視覺蘊含、文檔摘要等10余項單模態和跨模態任務,且效果達到國際領先水平。
“大模型模仿了人類構建認知的過程,這是當下我們面臨的重要機遇。通過融合AI在語言、語音、視覺等不同模態和領域的知識體系,我們期望多模態大模型能成為下一代人工智能算法的基石,讓AI從只能使用‘單一感官’到‘五官全開’,且能調用儲備豐富知識的大腦來理解世界和思考,最終實現接近人類水平的認知智能。”周靖人表示。
同時,達摩院構建了層次化的模型體系,其中通用模型層覆蓋自然語言處理、多模態、計算機視覺,專業模型層深入電商、醫療、法律、金融、娛樂等行業。
通過部署超大模型及輕量化版本,阿里巴巴“”通義”大模型系列已在超過200個場景中提供服務,實現了2%-10%的應用效果提升。典型使用場景包括電商跨模態搜索、AI輔助設計、開放域人機對話、法律文書學習、醫療文本理解等。
更多信息可以來這里獲取==>>電子技術應用-AET<<