《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > IBM開(kāi)發(fā)出DDL軟件庫(kù) 提升深度學(xué)習(xí)效率

IBM開(kāi)發(fā)出DDL軟件庫(kù) 提升深度學(xué)習(xí)效率

2017-08-10

近年來(lái),處理器技術(shù)進(jìn)入如此大,一個(gè)像U盤那么大的設(shè)備現(xiàn)在都可以用于為神經(jīng)網(wǎng)絡(luò)提供能量。但是,企業(yè)通常很難充分發(fā)揮其計(jì)算能力,因?yàn)閷?shí)施大規(guī)模人工智能過(guò)程中還存在的根本挑戰(zhàn)。

20170809154736_1502264856132714512.jpg

這個(gè)問(wèn)題和可擴(kuò)展性有關(guān),本周二IBM發(fā)布了一種名為分布式深度學(xué)習(xí)(Distributed Deep Learning,DDL)的軟件庫(kù)來(lái)解決這個(gè)問(wèn)題。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,旨在教計(jì)算機(jī)以人類相同的方式進(jìn)行學(xué)習(xí)。例如,人們不會(huì)通過(guò)描述這個(gè)生物有4條腿、1個(gè)鼻子和1條尾巴的事實(shí)來(lái)識(shí)別出這是一只狗。一旦人們知道狗是什么樣子,就會(huì)與貓做永久性的區(qū)分。深度學(xué)習(xí)試圖在軟件中復(fù)制這種方法。

大多數(shù)深度學(xué)習(xí)的框架都支持跨多個(gè)服務(wù)器擴(kuò)展大型模式的能力,很多現(xiàn)在也支持GPU,但是收集和同步分析結(jié)果的方式還遠(yuǎn)遠(yuǎn)不夠,IBM研究部門總監(jiān)Hillery Hunter表示。

同步的工作流

深度學(xué)習(xí)模式運(yùn)行在計(jì)算機(jī)集群上,通過(guò)GPU進(jìn)行增強(qiáng),GPU芯片有數(shù)百萬(wàn)個(gè)分布式和互相關(guān)聯(lián)的處理元素,其作用大致類似于人類大腦中的神經(jīng)元。這些人造神經(jīng)元一起處理信息,就像人類的部分一樣,每個(gè)神經(jīng)元都處理一小部分?jǐn)?shù)據(jù)。當(dāng)節(jié)點(diǎn)完成計(jì)算的時(shí)候,結(jié)果將同步在其他神經(jīng)網(wǎng)絡(luò)上,以幫助協(xié)調(diào)工作。

在IBM看來(lái),這就是瓶頸所在。人造神經(jīng)元部署運(yùn)行在越快的GPU上,完成計(jì)算的速度就越快,意味著結(jié)果的同步更加頻繁。由于AI集群的構(gòu)建方式,如果環(huán)境中芯片的數(shù)量增加,同樣適用。但是深度學(xué)習(xí)框架只能頻繁地同步數(shù)據(jù)。

因此,處理速度收到了數(shù)據(jù)在GPU之間傳輸?shù)南拗啤DL利用所謂的多層通信算法來(lái)改變這一平衡。這個(gè)軟件庫(kù)修改信息發(fā)送通過(guò)的網(wǎng)絡(luò)路徑,以實(shí)現(xiàn)延遲和帶寬之間“最優(yōu)化”的平衡,讓通信不再是主要的瓶頸。

創(chuàng)紀(jì)錄的性能

在一次內(nèi)部測(cè)試中,IBM在一個(gè)有數(shù)百個(gè)GPU的集群上部署了DDL,并從一個(gè)受歡迎的研究數(shù)據(jù)集中發(fā)送處理750萬(wàn)個(gè)圖像,將其分到22000個(gè)分類中的一個(gè)或者多個(gè)。該模型在經(jīng)過(guò)7個(gè)小時(shí)的訓(xùn)練之后,可準(zhǔn)確識(shí)別33.8%的對(duì)象,打包了之前微軟在經(jīng)過(guò)10天訓(xùn)練之后創(chuàng)下的29.8%的紀(jì)錄。

如果4%的改進(jìn)聽(tīng)起來(lái)不足為奇,而且整體成功率還比較低,這是因?yàn)檫@個(gè)模型遠(yuǎn)比現(xiàn)實(shí)中遇到的更為復(fù)雜,IBM高性能計(jì)算及人工智能副總裁Sumit Gupta表示。所以改進(jìn)是循序漸進(jìn)的,他指出,微軟此前的紀(jì)錄只比上一次改進(jìn)了0.8%。這個(gè)基準(zhǔn)測(cè)試旨在強(qiáng)調(diào)深度學(xué)習(xí)軟件,以證明研究人員真正構(gòu)建了更好的模型。

DDL在訓(xùn)練人工智能開(kāi)發(fā)的過(guò)程中尤其有用,這是整個(gè)項(xiàng)目生命中其中占用時(shí)間最長(zhǎng)的之一。有時(shí)候模型需要花費(fèi)幾周甚至幾個(gè)月的時(shí)間來(lái)處理樣品數(shù)據(jù),才能變得足夠準(zhǔn)確用于生產(chǎn)中。IBM稱,在某些情況下IBM的軟件庫(kù)可以將這個(gè)過(guò)程縮短至幾個(gè)小時(shí)?!叭绻枰?6天時(shí)間訓(xùn)練一個(gè)模型如何識(shí)別新的信用卡,那么這16天你就是在虧本的?!?/p>

深度學(xué)習(xí)在醫(yī)療場(chǎng)景中也很有用,例如組織分析,長(zhǎng)時(shí)間的訓(xùn)練關(guān)于生存或者死亡的問(wèn)題。此外還有其他好處,如果一個(gè)深度學(xué)習(xí)模型可以在數(shù)小時(shí)而不是數(shù)周時(shí)間內(nèi)完成訓(xùn)練,那么就能釋放企業(yè)的人工智能基礎(chǔ)設(shè)施,用于更快地完成其他項(xiàng)目和其他工作。

IBM還另外展示了如何利用DDL實(shí)現(xiàn)95%的擴(kuò)展效率,相比之下Facebook在此前的測(cè)試中記錄是89%。這兩個(gè)測(cè)試都使用了相同的樣本數(shù)據(jù)。

IBM表示,DDL幫助企業(yè)培訓(xùn)他們的模型,實(shí)現(xiàn)此前由于時(shí)間限制而無(wú)法實(shí)現(xiàn)的速度和范圍。它將DDL軟件庫(kù)與所有主流深度學(xué)習(xí)框架相連接,包括TensorFlow、Caffee、Chainer、Torch和Theano,都是在一個(gè)開(kāi)源許可下的。

IBM還將這個(gè)軟件庫(kù)融入到自己的PowerAI深度學(xué)習(xí)共計(jì)套件平臺(tái)中,有免費(fèi)和付費(fèi)企業(yè)兩個(gè)版本,此外還有在Minbix Minsky Power Cloud上。Gupta表示:“我們將通過(guò)PowerAI把它帶給每個(gè)人?!?/p>


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。