omniture

推動AI民主化,英特爾在行動

英特爾
2017-04-27 16:08 5287
英特爾和Facebook正在攜手,把英特爾? MKL函數(shù)集成與Caffe2結合。這使Caffe2在英特爾CPU上的性能大大提升。目前絕大多數(shù)推理工作負載都運行在英特爾?至強?處理器上,這一合作大大方便了廣大人工智能技術開發(fā)者。

北京2017年4月27日電 /美通社/ -- 在近期的F8開發(fā)者大會上,F(xiàn)acebook 正式宣布開源其全新深度學習框架 Caffe2,由于該框架可以將機器學習移動化,用在 iOS、Android 和樹莓派上訓練和部署模型,一經發(fā)布便引起業(yè)內高度關注。基于此,英特爾、微軟等公司紛紛展開合作,在云端和移動環(huán)境兩個方面都對 Caffe2 做了優(yōu)化。這些合作將使機器學習從業(yè)者能夠使用更復雜的模型快速地進行實驗,并部署下一代 AI 增強型的應用和服務。如此,機器學習移動化的價值能更好地得以實現(xiàn),進一步拓寬人工智能應用場景。

英特爾和Facebook正在攜手,把英特爾® MKL函數(shù)集成與Caffe2結合。這使Caffe2在英特爾CPU上的性能大大提升。大多數(shù)深度學習工作負載同時包含訓練和推理,其中推理所需的計算資源總量遠高于訓練。目前絕大多數(shù)推理工作負載都運行在英特爾®至強®處理器上,這一合作大大方便了廣大人工智能技術開發(fā)者。

事實證明,英特爾® MKL函數(shù)集成與Caffe2的結合效果喜人。根據(jù)Caffe2上采用了AlexNet拓撲以及英特爾® MKL和Eigen BLAS的性能結果顯示,Caffe2在CPU上進行了高度優(yōu)化,并提供明顯更有競爭力的性能。對于小型批處理推理工作負載,專家建議在每個CPU核心上運行一個工作負載,并且并行運行多個工作負載,每個核心一個工作負載。

其實,為了針對各種訓練和推理應用進行優(yōu)化,去年,英特爾在幾個深度學習框架上都迅速增加了CPU的支持。這些優(yōu)化中核心的一項便是英特爾®數(shù)學核心函數(shù)庫(英特爾® MKL),它使用英特爾®高級矢量擴展CPU指令集(例如英特爾® AVX-512),更好地支持深度學習應用。該函數(shù)庫的算法能夠平均分配數(shù)據(jù)和任務,充分利用多個核心和處理器。

通過這次與Facebook攜手增進Caffe2在英特爾架構上性能的舉措不難看出,英特爾一直是積極賦能人工智能開發(fā)的領軍角色。長期以來,英特爾致力于開源協(xié)作,確??蛻艉秃献骰锇樵谟⑻貭栍布蠐碛谐錾?、簡便、完整的 AI 體驗。英特爾使數(shù)據(jù)、培訓、工具和智能技術更容易獲取,目的是助力人工智能技術的大眾化,擴大人工智能的影響力,這些實際上這是英特爾作為AI應用普及推動者,正在積極打造AI時代的新生態(tài)的一部分。

在深度學習框架層面,英特爾正在基于X86架構優(yōu)化各種深度學習框架,讓企業(yè)迅速能夠部署人工智能,比如 Caffe,TensorFlow,Theano 和 Torch 等。在Google對較受歡迎的深度學習框架之一TensorFlow 進行開源后,英特爾發(fā)布了 TensorFlow 的性能優(yōu)化開發(fā)者工具包,促進使用 CPU 進行深度學習,強化其在英特爾處理器上的執(zhí)行效能。雙發(fā)協(xié)作讓TensorFlow可以用于所有英特爾CPU核心以改善平行運算、整合高效能函式庫如MKL到TensorFlow,并且優(yōu)化不同網(wǎng)路拓撲的記憶體配置與資料層的運作。

此外,英特爾在 2016年12月開源了基于 Apache Spark 的分布式深度學習框架 BigDL,大大降低普通大數(shù)據(jù)用戶和數(shù)據(jù)科學家在使用深度學習進行數(shù)據(jù)分析和構建人工智能應用的門檻。據(jù)悉,BigDL 一大優(yōu)點是它原生地建立在Spark 上,天然地繼承了Spark 的可擴展性,并且與現(xiàn)有大數(shù)據(jù)處理工作流(例如Spark ML pipeline,SparkSQL, Spark Streaming, Dataframes, Structured Streaming 等)無縫集成。用戶可以通過 BigDL將深度學習應用編寫為標準的 Spark程序,這些程序可以直接在 Spark或Hadoop集群上運行。將BigDL進行開源大大方便了有大量數(shù)據(jù)需要管理,以及擁有大數(shù)據(jù)平臺(Hadoop/Spark)的分析客戶。在短短一個月內,GitHub上已獲得 229 個用戶克隆 BigDL代碼(FORK)和1421個用戶收藏(STAR)。

其實,無論是與科研、互聯(lián)網(wǎng)、電商、生命科學等不同領域生態(tài)合作伙伴一起,以英特爾架構(IA)技術、產品和創(chuàng)新,充分滿足生物、計算機視覺等多元化的應用創(chuàng)新,還是與Facebook攜手優(yōu)化Caffe 2在英特爾處理器上的運用,開源BigDL等深度學習框架等,抑或是傳播AI知識,建立英特爾®Nervana?人工智能研究院——英特爾構建AI生態(tài)的初衷,都是要讓人工智能應用的門檻降低,大幅拓寬人工智能技術的應用面,讓AI早日揭開神秘面紗,順利落地于實際應用領域。

如今,在私有、公共或混合云中采用人工智能的機會不斷增多,這就需要使數(shù)據(jù)、人才、將信息轉化為洞察的工具更容易廣泛獲取。人工智能技術大眾化的道路上,需要迅速改變數(shù)據(jù)存儲孤島、專家數(shù)量少、工具復雜等關鍵問題。英特爾相信,更開放的行業(yè)環(huán)境將助推人工智能發(fā)展的各環(huán)節(jié)形成一個良性循環(huán),它能打破發(fā)展瓶頸,最終釋放AI原力。

推動AI民主化,英特爾在行動。

消息來源:英特爾
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection