《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > 浪潮信息劉軍:如何用更少GPU更快地完成2457億參數巨量模型訓練?

浪潮信息劉軍:如何用更少GPU更快地完成2457億參數巨量模型訓練?

2022-01-05
來源:電子創新網
關鍵詞: 浪潮 GPU BERT

  近年來,BERT、GPT-3等大規模預訓練模型取得了巨大成功,引領語言模型進入巨量時代,算力、數據、參數規模快速朝著極致化的方向發展,也為模型訓練和部署帶來巨大挑戰。在近日舉行的2021 NeurIPS MeetUp China上,浪潮信息副總裁、AI&HPC產品線總經理劉軍基于2457億參數的“源1.0”中文語言模型,分享了浪潮人工智能研究院在巨量模型訓練與計算性能提升方面的領先實踐。

  談及巨量模型訓練,劉軍表示:“訓練工作中最復雜也最具挑戰的技術點在于如何行之有效地完成數千萬級參數的模型訓練”。當前,GPU顯存最高為數十GB左右,而訓練‘源’這樣訓練數據集達5TB、參數量達2457億的大模型需要的GPU顯存高達幾TB,顯然無法在單個顯卡或一臺GPU服務器上完成。因此,巨量模型訓練工作,需要在模型算法、分布式訓練、大規模集群計算等各個層面進行協同設計、優化,才能保證模型訓練過程收斂。

  浪潮人工智能研究院需要將“源1.0”訓練所需的巨大算力并行分布到幾千張GPU上。模型訓練時最常采用的是數據并行分布式計算策略,但這只能滿足小模型的訓練需求。對于像“源 1.0”這樣的巨量模型而言,需要專門設計算法來解決訓練中的顯存占用問題,同時還要兼顧訓練過程中的GPU計算資源的利用率。

  為此,浪潮采用了張量并行、流水線并行和數據并行的“三合一”并行策略。首先,將266臺AI服務器共計2128個GPU芯片分成7組,每組38臺AI服務器放置一個完整的“源1.0”大模型,其次,每組的38個服務器,采用流水并行每個服務器放置1/38的模型(2個Transformer Layer),一共76層;最后,在每臺服務器內采用張量并行,按照Transformer結構的每一層進行均勻切分。在此過程中,浪潮人工智能研究院也通過“增加序列長度”、“減少模型層數”、“增加隱藏層大小”、“增加節點中微批次大小”等模型結構策略,提升訓練效率。

  

1641375333422497.jpg

  “源1.0”的模型結構以及分布式策略

  最終,浪潮人工智能研究院完成2457億參數的“源 1.0”模型訓練,總計訓練1800億個tokens,模型收斂的交叉熵為1.64。相較于GPT-3的1750億參數,“源1.0”是其參數量的1.404倍。GPT-3使用10000塊GPU、花了30天訓練完成1750億參數,“源1.0”在2128個GPU集群上跑了16天完成了訓練,使用更少GPU更快完成訓練,大幅提升計算效率。

  “源1.0”消耗的總算力為4095 PetaFlop/s-day,每個GPU的實際訓練性能達到140 TFlops,GPT-3消耗的總算力為3640 PetaFlop/s-day,其單GPU計算性能為12 TFlops;而微軟和英偉達打造的5300億參數量的MT-NLG模型用了4480個A100 GPU,其單GPU計算性能為113 TFlops,也低于“源1.0”。

  image_5011443_23980367.jpg

  “源1.0”與 GPT-3 的參數量、算力對比。

  浪潮人工智能研究院在實現更高計算效率的同時,也探索優化大規模AI計算集群架構。當前,如MT-NLG等大規模深度學習模型需要在計算集群中采用8x200Gbps的IB互聯架構,而“源1.0”在集群架構設計上采用了2x200Gbps的高速網絡實現節點互聯,“我們在實踐發現,通過一定的優化工作,可以使用更少網絡設備數量,取得更佳的計算性能。”劉軍表示。

  巨量模型是當前人工智能研究的熱點,當前的巨量模型遠沒有達到模型能力的極限,增大模型參數量和訓練數據量仍然將帶來模型精度的持續提升。對于巨量模型的發展趨勢,劉軍表示,“巨量模型的計算量已經超過PetaFlop/s-day的階段,進入到ExtraFlop/s-day的階段。1 ExtraFlops等于1000 PetaFlops,因此可以說,GPT-3的計算量是3.64ExtraFlop/s-day,‘源1.0’的計算量則是4.095 ExtraFlop/s-day。從十年的尺度來看,今天我們還處于巨量模型起步階段,人類對計算的追求是沒有極限的,目前巨量模型消耗的計算量可能僅僅是未來一臺電腦的計算量。”劉軍對巨量模型的未來發展充滿信心。





圖片.jpg


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:[email protected]
主站蜘蛛池模板: 日本wwww视频 | 欧美日韩国产综合一区二区三区 | 亚洲精品456在线播放无广告 | 国产高颜值露脸在线观看 | 久久视频6免费观看视频精品 | 精品国产三级a∨在线观看 精品国产三级a在线观看 | 欧美在线一区二区三区不卡 | 欧美一级片网址 | 免费国产成人高清在线看软件 | 亚洲男人天堂手机版 | 久久久久国产午夜 | a级国产乱理伦片在线观看 a级国产乱理伦片在线观看99 | 久久在现| 成在线人永久免费播放视频 | 欧产日产国产精品精品 | 亚洲国产日韩欧美综合久久 | 欧美在线视频免费 | 国内精品久久久久久久久蜜桃 | 日本护士视频xxxxxwww | 怡红院精品视频 | 日本乱理伦片在线观看网址 | 国产自在自线午夜精品视频在 | 国产大尺度福利视频在线观看 | 成人精品一区二区久久久 | 亚洲aⅴ男人的天堂在线观看 | 久久久久久综合七次郎 | 亚洲黄色在线视频 | 18年大片免费在线观看 | 久青草免费视频手机在线观看 | 99久久精品免费看国产免费 | 国产精品亚洲欧美日韩久久 | 欧美亚洲国产激情一区二区 | 亚洲欧美中文日韩在线v日本 | 免费一级性片 | 天堂视频免费看 | 国产午夜免费视频片夜色 | 精品72久久久久久久中文字幕 | 国产欧美日韩亚洲精品区2345 | 在线欧美不卡 | 日韩欧美国产精品 | 欧美精品国产精品 |