發(fā)布時間:2023-04-18 14:18:54
成都市新都區(qū)不銹鋼回收電話13981937861,成都佳梵廢舊物資回收有限公司長期回收空調(diào)、變壓器、配電柜、電腦、廢鐵、廢銅、電子電器、電線電纜、廢舊金屬、廢舊等物資,聯(lián)系電話:13981937861,18980010174。
AI大模型技術(shù)應(yīng)用爆發(fā),云市場也在加速變革。
4月18日,火山引擎在其舉辦的“原動力大會”上發(fā)布自研DPU等系列云產(chǎn)品,并推出新版機器學(xué)習(xí)平臺:支持萬卡級大模型訓(xùn)練、微秒級延遲網(wǎng)絡(luò),讓大模型訓(xùn)練更穩(wěn)更快。火山引擎總裁譚待表示,AI大模型有巨大潛力和創(chuàng)新空間,火山引擎會服務(wù)客戶做好大模型,共同推動各行業(yè)的智能化升級。
“國內(nèi)有數(shù)十家做大模型的企業(yè),大多已經(jīng)在火山引擎云上”,譚待認(rèn)為,大模型不會一家獨大。與其他云廠商力推自家大模型不同的是,火山引擎將接入多家大模型深度合作,為企業(yè)和消費者提供更豐富的AI應(yīng)用。
會上,火山引擎宣布與字節(jié)跳動國內(nèi)業(yè)務(wù)并池?;趦?nèi)外統(tǒng)一的云原生基礎(chǔ)架構(gòu),抖音等業(yè)務(wù)的空閑計算資源可極速調(diào)度給火山引擎客戶使用,離線業(yè)務(wù)資源分鐘級調(diào)度10萬核CPU,在線業(yè)務(wù)資源也可潮汐復(fù)用,彈性計算搶占式實例的價格最高可優(yōu)惠80%以上。
讓大模型訓(xùn)練快速跑起來
自2022年底發(fā)布以來,ChatGPT成為人類歷史上最快獲得上億用戶的消費級互聯(lián)網(wǎng)應(yīng)用。最新的GPT-4大模型,更是在法律、數(shù)學(xué)、生物學(xué)等多項測試中超過90%人類。
譚待表示,國內(nèi)很多科技公司投入到大模型建設(shè)中,他們有優(yōu)秀的技術(shù)團隊,也有豐富的行業(yè)知識和創(chuàng)新想法,但往往缺乏經(jīng)過大規(guī)模場景實踐的系統(tǒng)工程能力?;鹕揭嬉龅木褪菫榇竽P涂蛻籼峁└叻€(wěn)定性和高性價比的AI基礎(chǔ)設(shè)施。
據(jù)悉,火山引擎機器學(xué)習(xí)平臺經(jīng)過抖音等海量用戶業(yè)務(wù)長期打磨,支持單任務(wù)萬卡級別的超大規(guī)模分布式并行訓(xùn)練場景。GPU彈性計算實例可靈活調(diào)度資源,隨用隨取,最高可以為客戶節(jié)省70%的算力成本。
字節(jié)跳動副總裁楊震原認(rèn)為,業(yè)務(wù)創(chuàng)新需要試錯,試錯要大膽、敏捷,但試錯也一定要控制成本。通過潮汐、混部等方式,火山引擎實現(xiàn)資源的高利用率和極低成本。以抖音推薦系統(tǒng)為例,工程師用15個月的樣本訓(xùn)練某個模型,5小時就能完成訓(xùn)練,成本只有5000元。火爆全網(wǎng)的抖音“AI繪畫”特效,從啟動到上線只用一周多時間,模型由一名算法工程師完成訓(xùn)練。
圖:字節(jié)跳動副總裁楊震原分享抖音的機器學(xué)習(xí)實踐
MiniMax是目前國內(nèi)少數(shù)已經(jīng)推出自研大模型產(chǎn)品的AI技術(shù)公司,擁有文本、視覺、聲音三種通用大模型引擎能力。據(jù)MiniMax聯(lián)合創(chuàng)始人楊斌介紹,MiniMax與火山引擎合作建立了超大規(guī)模實驗平臺,實現(xiàn)千卡級常態(tài)化訓(xùn)練;超大規(guī)模推理平臺有萬卡級算力池,支撐單日過億次調(diào)用。在火山引擎的云上,MiniMax大模型業(yè)務(wù)實現(xiàn)快速突破。
譚待透露,火山引擎的大模型云平臺獲得智譜AI、昆侖萬維等眾多企業(yè)的良好反饋。國內(nèi)大模型領(lǐng)域,七成以上已是火山引擎客戶。
向“多云多模型”架構(gòu)演進(jìn)
有評論稱,大模型將成為云廠商彎道超車的機會。譚待對此表示,大模型還在發(fā)展初期,面臨數(shù)據(jù)安全、內(nèi)容安全、隱私保護(hù)、版權(quán)保護(hù)等許多問題需要努力解決。但可以預(yù)見,大模型將帶動云上AI算力急劇增長,AI算力的工作負(fù)載與通用算力的差距會越來越小,這會為各家云廠商帶來新的機會,同時也會對數(shù)據(jù)中心、軟硬件棧、PaaS平臺帶來新的挑戰(zhàn)。
以數(shù)據(jù)中心的算力結(jié)構(gòu)為例,譚待表示:“大模型需要大算力,虛擬化會帶來資源損耗,規(guī)模越大就損耗越多。未來3年內(nèi),大規(guī)模的算力中心,都將形成‘CPU GPU DPU’的混合算力結(jié)構(gòu),CPU負(fù)責(zé)通用計算,GPU負(fù)責(zé)AI計算,DPU負(fù)責(zé)資源卸載、加速和隔離,提升資源效率”。
此次原動力大會上,火山引擎發(fā)布了新一代自研DPU,實現(xiàn)計算、存儲、網(wǎng)絡(luò)的全組件卸載,釋放更多資源給業(yè)務(wù)負(fù)載?;鹕揭姹M管是“最年輕”的云廠商,其自研DPU已達(dá)到業(yè)界領(lǐng)先水平,網(wǎng)絡(luò)性能高達(dá)5000萬pps轉(zhuǎn)發(fā)能力、延遲低至20us?;谧匝蠨PU的各類計算實例性能也有顯著提升,例如適用于大模型分布式并行訓(xùn)練場景的GPU實例,相較上一代實例集群性能最高提升3倍以上。
自動駕駛公司毫末智行與火山引擎合作打造智算中心,為DriveGPT自動駕駛生成式預(yù)訓(xùn)練模型提供強大的算力支持。毫末智行CEO顧維灝介紹,DriveGPT使用量產(chǎn)車4000萬公里的人駕數(shù)據(jù)訓(xùn)練,參數(shù)規(guī)模達(dá)1200億,對自動駕駛認(rèn)知決策模型進(jìn)行持續(xù)優(yōu)化。
譚待表示,在大模型及下游應(yīng)用發(fā)展推動下,無論傳統(tǒng)企業(yè)還是初創(chuàng)企業(yè),對AI算力都有迫切需求,企業(yè)使用多家云服務(wù)將成為常態(tài)。同時,各行業(yè)有自己高質(zhì)量的私有語料,大模型不會一家獨大,而是會在千行百業(yè)生長,形成多模型共生甚至協(xié)作的生態(tài)?!拔磥韺⑹恰嘣贫嗄P汀臅r代”,譚待稱。
圖:火山引擎總裁譚待宣布支持“多云多模型”的未來架構(gòu)
火山引擎也順勢推出了分布式云原生平臺、多云安全、多云CDN、veStack混合云平臺等系列產(chǎn)品,支持客戶更好地使用多家云服務(wù)?!白止?jié)跳動用過全球幾乎每一朵公有云,以及大多數(shù)CDN,形成一套完整的分布式云管理體系和架構(gòu)實踐”,譚待堅信火山引擎是最懂多云和分布式云的云服務(wù)商,這些技術(shù)能力都會毫無保留地提供給客戶。
楊震原進(jìn)一步表示,火山引擎對內(nèi)對外提供統(tǒng)一的產(chǎn)品,抖音、今日頭條等APP開屏都加上了“火山引擎提供計算服務(wù)”。楊震原說:“數(shù)字化時代,機器學(xué)習(xí)可以智能、高效地圍繞目標(biāo)解決問題。數(shù)字化的下一步是智能化,我們在機器學(xué)習(xí)方面的技術(shù)積累和經(jīng)驗,都會通過火山引擎提供給外部客戶,幫助更多企業(yè)做好智能化”。