omniture

金融行業(yè)迎來大模型時代,存算基建成決勝關(guān)鍵

2023-09-21 13:44 2910

北京2023年9月21日 /美通社/ -- 去年年底,ChatGPT誕生,憑借強(qiáng)大、精準(zhǔn)的自然語言理解和生成能力,令全球用戶為之一震。

自此,各行各業(yè)紛紛投身大模型研發(fā)競賽,掀起新一輪技術(shù)創(chuàng)新熱潮。金融行業(yè)更是如此。如何構(gòu)筑面向大模型時代的新型算力和存力基礎(chǔ)設(shè)施,實(shí)現(xiàn)大模型能力向金融領(lǐng)域的遷移,成為金融機(jī)構(gòu)熱議的話題。

金融大模型 在哪些場景有用武之地?

作為AI新基建,大模型在金融行業(yè)有著廣泛的應(yīng)用場景。

前臺,智能客服,是AI在金融領(lǐng)域最常見的應(yīng)用方向之一。還記得鋼鐵俠電影里的AI管家賈維斯(Jarvis)么?金融大模型將大幅提升客戶經(jīng)理的專業(yè)水平和服務(wù)能力,大幅降低客戶經(jīng)理的運(yùn)營成本,讓每個人都擁有類似Jarvis的24小時在線的專業(yè)客戶經(jīng)理。

中臺,AI大模型有機(jī)會改變金融機(jī)構(gòu)內(nèi)知識獲取、內(nèi)容創(chuàng)作、會議與溝通、代碼開發(fā)與測試的方式,提升內(nèi)部辦公效率,甚至引發(fā)研發(fā)測試模式變革,全方位提升金融機(jī)構(gòu)內(nèi)部運(yùn)營效率。

后臺,大模型將成為智能科技底座的標(biāo)配,大幅降低智能技術(shù)應(yīng)用的門檻,只需少量標(biāo)注數(shù)據(jù)就可以讓智能技術(shù)覆蓋廣泛的場景。

總之,AI大模型在內(nèi)容生成與創(chuàng)作、信息摘要與總結(jié)、知識理解與問答、自然交互與對話等方面具備非常出色的能力,在金融行業(yè)有廣泛的應(yīng)用前景。

萬卡規(guī)模、萬億參數(shù),大模型有"高門檻"

大模型的快速迭代,需要高效算力和存儲基礎(chǔ)設(shè)施的加持。

一方面,算力是大模型的引擎。語言類、視覺類模型容量和相應(yīng)的算力需求都在快速擴(kuò)大,金融大模型發(fā)展的背后是龐大的算力支撐。如果用"算力當(dāng)量"(PetaFlops/s-day,PD),即每秒千萬億次的計算機(jī)完整運(yùn)行一天消耗的算力總量,來對人工智能任務(wù)所需算力總量進(jìn)行度量,大模型訓(xùn)練需要幾百甚至幾千PD的算力支持,也意味著需要巨大的算力成本。

算力是大模型發(fā)展核心要素
算力是大模型發(fā)展核心要素

例如,OpenAI在2020年推出的GPT-3,對算力的需求至少要上萬顆A100 GPU,一次模型訓(xùn)練總算力消耗約3,640PD的算力。又如,浪潮信息推出的"源"中文語言大模型有近2500億個模型參數(shù),算力消耗達(dá)4000PD。再如,當(dāng)前GPT-4和PaLM-2的算力當(dāng)量已經(jīng)達(dá)到GPT-3的數(shù)十倍。這還不算,谷歌正在開發(fā)的下一代多模態(tài)大模型Gemini,其訓(xùn)練量碾壓GPT-4,達(dá)到后者5倍。

快速攀升的AI算力消耗,有限的IT預(yù)算,讓大多數(shù)金融機(jī)構(gòu)陷入兩難境地:想做大模型,但資源匱乏、成本壓力大、人才稀缺;不做大模型,又只能坐看機(jī)會錯失。

對此,分而治之或許是一種可行的辦法。所謂分,就是把大模型分為通用大模型和行業(yè)大模型。金融機(jī)構(gòu)不用自己打造通用大模型,而是基于第三方的通用大模型,在此基礎(chǔ)上專注打造行業(yè)大模型。根據(jù)信通院發(fā)布的《行業(yè)大模型標(biāo)準(zhǔn)體系及能力架構(gòu)研究報告》,通用大模型缺乏專業(yè)知識和行業(yè)數(shù)據(jù),而且構(gòu)建和訓(xùn)練成本很高,難以實(shí)現(xiàn)商用。為更好解決特定行業(yè)為題,行業(yè)大模型應(yīng)運(yùn)而生。行業(yè)大模型可以滿足特定場景需求,更好地為行業(yè)提供優(yōu)質(zhì)的服務(wù),促進(jìn)行業(yè)智能化轉(zhuǎn)型升級。

浪潮信息AI服務(wù)器產(chǎn)品專家郭磊表示,"金融機(jī)構(gòu)可以集中資源在行業(yè)大模型上,不是'在一千米的地上挖一米深的溝',而是'在一米的地方挖一千米深'"。

大模型訓(xùn)練四個階段
大模型訓(xùn)練四個階段

具體來看,大模型訓(xùn)練的第一階段是無監(jiān)督預(yù)訓(xùn)練階段,訓(xùn)練周期往往持續(xù)數(shù)十天到數(shù)月,需要數(shù)千張GPU卡同時計算,算力消耗巨大,訓(xùn)練時間非常長,訓(xùn)練出來的模型是基礎(chǔ)語言模型。金融機(jī)構(gòu)可以通過使用開源平臺或者第三方合作(如浪潮信息的"源"大模型),獲得基礎(chǔ)語言能力。第二到第四階段是有監(jiān)督精調(diào)階段、獎勵模型訓(xùn)練和強(qiáng)化學(xué)習(xí),這3個階段需要數(shù)十張乃至上百張GPU卡同時計算,算力消耗的規(guī)模和訓(xùn)練時長相比第一階段都有明顯下降,所以金融機(jī)構(gòu)可以在這三個階段進(jìn)行訓(xùn)練,打造有金融行業(yè)優(yōu)勢的大模型。

另一方面,大模型光有算力遠(yuǎn)遠(yuǎn)不夠,還取決于數(shù)據(jù)規(guī)模和數(shù)據(jù)質(zhì)量。

大模型的優(yōu)勢在于海量信息的搜集、提取和分析能力,這是人類難以企及的。

近幾年,通用大模型的參數(shù)量快速增長。2016年OpenAI發(fā)布Gym強(qiáng)化學(xué)習(xí)平臺,2018年GPT-1問世,模型參數(shù)為1.17億,經(jīng)過不斷迭代,GPT-4參數(shù)規(guī)模達(dá)到1.76萬億。Google從2017年發(fā)布Transformer(6500萬參數(shù))架構(gòu)以來,陸續(xù)發(fā)布BERT(2018年,3億參數(shù))、T5(2019年,110億參數(shù)),參數(shù)規(guī)模逐步提高。近期,Google發(fā)布通才模型PaLM-E,這是迄今為止全球最大的視覺語言模型,包含5620億參數(shù)。

在垂直行業(yè),金融大模型的數(shù)據(jù)集在通用大模型基礎(chǔ)上還需包含諸如金融研報、股票、基金、銀行、保險等方向的專業(yè)知識,通過在訓(xùn)練過程中加入大量金融對話數(shù)據(jù)并針對金融領(lǐng)域進(jìn)行特定的預(yù)訓(xùn)練調(diào)優(yōu),提升其在金融垂直領(lǐng)域的表現(xiàn)。

同時,多模態(tài)、跨模態(tài)成為常態(tài),金融大模型的數(shù)據(jù)類型變得更加豐富。其中無監(jiān)督數(shù)據(jù),即原始數(shù)據(jù),數(shù)據(jù)格式可以是網(wǎng)頁、文本或語音數(shù)據(jù);有監(jiān)督數(shù)據(jù),即經(jīng)過標(biāo)注的數(shù)據(jù),格式可以為json或Query。此外,為了給投資者提供實(shí)時市場輿情和風(fēng)險預(yù)測等服務(wù),金融機(jī)構(gòu)還要高效處理金融行業(yè)新聞、股票交易,乃至社交評論等金融數(shù)據(jù)。這些巨量、多模態(tài)、實(shí)時的金融數(shù)據(jù)新需求、新特征,傳統(tǒng)集中式存儲難以應(yīng)對,需要彈性、靈活的新型分布式存儲架構(gòu)來支撐。

由此可見,隨著金融大模型的演進(jìn),整個數(shù)據(jù)中心的架構(gòu)都會發(fā)生改變,從AI服務(wù)器、到存儲、再到網(wǎng)絡(luò)的全棧方案都需要適應(yīng)大模型時代的需求。

基礎(chǔ)設(shè)施 如何"存得下、算得快、傳得穩(wěn)"

只有數(shù)據(jù)"存得下"、算力"算得快"、網(wǎng)絡(luò)"傳得穩(wěn)",數(shù)字基礎(chǔ)設(shè)施才能充分發(fā)揮數(shù)據(jù)要素價值,推動大模型應(yīng)用落地,帶動新業(yè)態(tài)繁榮發(fā)展。

對此,浪潮信息基于智慧計算戰(zhàn)略,從算力、算法、數(shù)據(jù)、互聯(lián)四方面推進(jìn)產(chǎn)品創(chuàng)新,為大模型打造強(qiáng)大底座。

算力方面,浪潮信息通過千億參數(shù)規(guī)模的大模型創(chuàng)新實(shí)踐,已在算力集群構(gòu)建、算力調(diào)度部署、算法模型開發(fā)等方面,構(gòu)建起全棧領(lǐng)先的大模型算力系統(tǒng)解決方案,助力大模型訓(xùn)練開發(fā)。其中最新一代融合架構(gòu)的AI訓(xùn)練服務(wù)器NF5688G7采用Hopper架構(gòu)的GPU, 較上代平臺大模型實(shí)測性能提升近7倍,同時支持最新的液冷解決方案,可實(shí)現(xiàn)更低的集群能耗比與運(yùn)行成本,PUE小于1.15,以一個4000卡的智算中心為例,每年可節(jié)電620萬度、降碳1700噸。

存儲方面,浪潮信息生成式AI存儲解決方案用一套AS13000融合存儲支撐生成式AI的全階段應(yīng)用,提供全閃、混閃、帶庫、光盤四種介質(zhì),支持文件、對象、大數(shù)據(jù)、視頻、塊多種協(xié)議。結(jié)合AIGC數(shù)據(jù)處理的五個階段:數(shù)據(jù)采集、準(zhǔn)備、訓(xùn)練、推理和歸檔,浪潮信息由同一套存儲提供端到端的數(shù)據(jù)流支持,滿足文本、音頻、圖像、視頻、代碼等多模態(tài)數(shù)據(jù)的存儲和處理需求。

浪潮信息存儲產(chǎn)品
浪潮信息存儲產(chǎn)品

在集群高速互聯(lián)層面,浪潮信息基于原生RDMA實(shí)現(xiàn)整個集群的全線速組網(wǎng),并對網(wǎng)絡(luò)拓?fù)溥M(jìn)行優(yōu)化,可以有效消除混合計算的計算瓶頸,確保集群在大模型訓(xùn)練時始終處于最佳狀態(tài)。

當(dāng)前,國有大行、股份制銀行以及部分城商行,均已經(jīng)開展或計劃開展金融大模型研發(fā),AI算力和數(shù)據(jù)基建將迎來高速發(fā)展。根據(jù)IDC預(yù)測,未來5年中國智能算力規(guī)模的年復(fù)合增長率將達(dá)52%,分布式存儲增速將達(dá)到中國市場增速的2倍。大模型時代,金融機(jī)構(gòu)需要以AI的場景、架構(gòu)為抓手,結(jié)合各行的數(shù)據(jù)特點(diǎn),打造新一代智算基礎(chǔ)設(shè)施。

消息來源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection