(資料圖片)
4月18日,字節跳動旗下云服務平臺火山引擎舉辦“原動力大會”。
大模型時代,市場最為關注的話題無疑是字節跳動在這方面的布局進展。對此火山引擎總裁譚待在會上強調:“火山引擎自己是不做大模型的,我在別的場合也說過,火山引擎本身先是服務好做大模型的公司。”他透露:“國內有數十家做大模型的企業,大多已經在火山引擎云上。”
而對于集團自研的大模型,字節跳動副總裁楊震原稱:目前這部分公司是在做一些學習和做一些研究,現在還沒有什么結果,所以等未來這方面有了進展再同步。”
對于火山引擎與大模型廠商的具體合作方式,譚待介紹稱:“現階段肯定還是技術層面的合作,就是他利用我們的算力平臺和機器學習平臺去搭建,當然也會用存儲,也會用網絡,各種各樣云上的產品都會用,因為要把負載在這上面能跑起來,包括他未來的推理。所以就是這些合作。”
針對未來大模型的算力調度與訓練兩大需求,火山引擎分別發布了自研DPU(數據處理單元)等系列云產品,并推出新版機器學習平臺。
相較于負責通用計算的CPU、負責AI計算的GPU,DPU負責資源卸載、加速和隔離,能夠提升資源效率。譚待預測,未來3年內,大規模的算力中心,都將形成“CPU+GPU+DPU”的混合算力結構。
此外,算力方面,火山引擎機器學習平臺經過抖音等海量用戶業務長期打磨,支持單任務萬卡級別的超大規模分布式并行訓練場景。GPU彈性計算實例可靈活調度資源,隨用隨取,最高可以為客戶節省70%的算力成本。
會上,火山引擎還宣布與字節跳動國內業務并池。基于內外統一的云原生基礎架構,抖音等業務的空閑計算資源可極速調度給火山引擎客戶使用,離線業務資源分鐘級調度10萬核CPU,在線業務資源也可潮汐復用,彈性計算搶占式實例的價格最高可優惠80%以上。
新發布的機器學習平臺則針對大模型訓練需求,據稱支持萬卡級大模型訓練、微秒級延遲網絡,能讓大模型訓練更穩更快。(撰文 | 董溫淑 編輯 | 董雨晴)


