北京2017年4月27日電 /美通社/ -- 在近期的F8開發(fā)者大會上,F(xiàn)acebook 正式宣布開源其全新深度學(xué)習(xí)框架 Caffe2,由于該框架可以將機(jī)器學(xué)習(xí)移動化,用在 iOS、Android 和樹莓派上訓(xùn)練和部署模型,一經(jīng)發(fā)布便引起業(yè)內(nèi)高度關(guān)注?;诖?,英特爾、微軟等公司紛紛展開合作,在云端和移動環(huán)境兩個(gè)方面都對 Caffe2 做了優(yōu)化。這些合作將使機(jī)器學(xué)習(xí)從業(yè)者能夠使用更復(fù)雜的模型快速地進(jìn)行實(shí)驗(yàn),并部署下一代 AI 增強(qiáng)型的應(yīng)用和服務(wù)。如此,機(jī)器學(xué)習(xí)移動化的價(jià)值能更好地得以實(shí)現(xiàn),進(jìn)一步拓寬人工智能應(yīng)用場景。
英特爾和Facebook正在攜手,把英特爾® MKL函數(shù)集成與Caffe2結(jié)合。這使Caffe2在英特爾CPU上的性能大大提升。大多數(shù)深度學(xué)習(xí)工作負(fù)載同時(shí)包含訓(xùn)練和推理,其中推理所需的計(jì)算資源總量遠(yuǎn)高于訓(xùn)練。目前絕大多數(shù)推理工作負(fù)載都運(yùn)行在英特爾®至強(qiáng)®處理器上,這一合作大大方便了廣大人工智能技術(shù)開發(fā)者。
事實(shí)證明,英特爾® MKL函數(shù)集成與Caffe2的結(jié)合效果喜人。根據(jù)Caffe2上采用了AlexNet拓?fù)湟约坝⑻貭?reg; MKL和Eigen BLAS的性能結(jié)果顯示,Caffe2在CPU上進(jìn)行了高度優(yōu)化,并提供明顯更有競爭力的性能。對于小型批處理推理工作負(fù)載,專家建議在每個(gè)CPU核心上運(yùn)行一個(gè)工作負(fù)載,并且并行運(yùn)行多個(gè)工作負(fù)載,每個(gè)核心一個(gè)工作負(fù)載。
其實(shí),為了針對各種訓(xùn)練和推理應(yīng)用進(jìn)行優(yōu)化,去年,英特爾在幾個(gè)深度學(xué)習(xí)框架上都迅速增加了CPU的支持。這些優(yōu)化中核心的一項(xiàng)便是英特爾®數(shù)學(xué)核心函數(shù)庫(英特爾® MKL),它使用英特爾®高級矢量擴(kuò)展CPU指令集(例如英特爾® AVX-512),更好地支持深度學(xué)習(xí)應(yīng)用。該函數(shù)庫的算法能夠平均分配數(shù)據(jù)和任務(wù),充分利用多個(gè)核心和處理器。
通過這次與Facebook攜手增進(jìn)Caffe2在英特爾架構(gòu)上性能的舉措不難看出,英特爾一直是積極賦能人工智能開發(fā)的領(lǐng)軍角色。長期以來,英特爾致力于開源協(xié)作,確保客戶和合作伙伴在英特爾硬件上擁有出色、簡便、完整的 AI 體驗(yàn)。英特爾使數(shù)據(jù)、培訓(xùn)、工具和智能技術(shù)更容易獲取,目的是助力人工智能技術(shù)的大眾化,擴(kuò)大人工智能的影響力,這些實(shí)際上這是英特爾作為AI應(yīng)用普及推動者,正在積極打造AI時(shí)代的新生態(tài)的一部分。
在深度學(xué)習(xí)框架層面,英特爾正在基于X86架構(gòu)優(yōu)化各種深度學(xué)習(xí)框架,讓企業(yè)迅速能夠部署人工智能,比如 Caffe,TensorFlow,Theano 和 Torch 等。在Google對較受歡迎的深度學(xué)習(xí)框架之一TensorFlow 進(jìn)行開源后,英特爾發(fā)布了 TensorFlow 的性能優(yōu)化開發(fā)者工具包,促進(jìn)使用 CPU 進(jìn)行深度學(xué)習(xí),強(qiáng)化其在英特爾處理器上的執(zhí)行效能。雙發(fā)協(xié)作讓TensorFlow可以用于所有英特爾CPU核心以改善平行運(yùn)算、整合高效能函式庫如MKL到TensorFlow,并且優(yōu)化不同網(wǎng)路拓?fù)涞挠洃涹w配置與資料層的運(yùn)作。
此外,英特爾在 2016年12月開源了基于 Apache Spark 的分布式深度學(xué)習(xí)框架 BigDL,大大降低普通大數(shù)據(jù)用戶和數(shù)據(jù)科學(xué)家在使用深度學(xué)習(xí)進(jìn)行數(shù)據(jù)分析和構(gòu)建人工智能應(yīng)用的門檻。據(jù)悉,BigDL 一大優(yōu)點(diǎn)是它原生地建立在Spark 上,天然地繼承了Spark 的可擴(kuò)展性,并且與現(xiàn)有大數(shù)據(jù)處理工作流(例如Spark ML pipeline,SparkSQL, Spark Streaming, Dataframes, Structured Streaming 等)無縫集成。用戶可以通過 BigDL將深度學(xué)習(xí)應(yīng)用編寫為標(biāo)準(zhǔn)的 Spark程序,這些程序可以直接在 Spark或Hadoop集群上運(yùn)行。將BigDL進(jìn)行開源大大方便了有大量數(shù)據(jù)需要管理,以及擁有大數(shù)據(jù)平臺(Hadoop/Spark)的分析客戶。在短短一個(gè)月內(nèi),GitHub上已獲得 229 個(gè)用戶克隆 BigDL代碼(FORK)和1421個(gè)用戶收藏(STAR)。
其實(shí),無論是與科研、互聯(lián)網(wǎng)、電商、生命科學(xué)等不同領(lǐng)域生態(tài)合作伙伴一起,以英特爾架構(gòu)(IA)技術(shù)、產(chǎn)品和創(chuàng)新,充分滿足生物、計(jì)算機(jī)視覺等多元化的應(yīng)用創(chuàng)新,還是與Facebook攜手優(yōu)化Caffe 2在英特爾處理器上的運(yùn)用,開源BigDL等深度學(xué)習(xí)框架等,抑或是傳播AI知識,建立英特爾®Nervana?人工智能研究院——英特爾構(gòu)建AI生態(tài)的初衷,都是要讓人工智能應(yīng)用的門檻降低,大幅拓寬人工智能技術(shù)的應(yīng)用面,讓AI早日揭開神秘面紗,順利落地于實(shí)際應(yīng)用領(lǐng)域。
如今,在私有、公共或混合云中采用人工智能的機(jī)會不斷增多,這就需要使數(shù)據(jù)、人才、將信息轉(zhuǎn)化為洞察的工具更容易廣泛獲取。人工智能技術(shù)大眾化的道路上,需要迅速改變數(shù)據(jù)存儲孤島、專家數(shù)量少、工具復(fù)雜等關(guān)鍵問題。英特爾相信,更開放的行業(yè)環(huán)境將助推人工智能發(fā)展的各環(huán)節(jié)形成一個(gè)良性循環(huán),它能打破發(fā)展瓶頸,最終釋放AI原力。
推動AI民主化,英特爾在行動。