硬體的未來在於AI、AI的未來在材料 - 工程師
By Adele
at 2018-03-09T16:48
at 2018-03-09T16:48
Table of Contents
[情報] 硬體的未來在於AI、AI的未來在材料
http://bit.ly/2Ga5cfA
由於,人工智慧(AI)擔負工作與目前大多數電腦的運算工作有些不同。然而,AI隱含著分
析預測、推理、直觀的能力與功能。即時是最有創意的機器學習演算法也受到現有機器硬
體能力的束縛。因此,若要在AI方面取得長足進步,我們必須在硬體上進行改變,或是半
導體材料上進行突破。演變從GPU開始,引入模擬設備(analog devices),然後演變成為
具容錯性量子電腦(fault tolerant quantum computers)。
現在從大規模分佈式深度學習算法應用於圖形處理器(GPU)開始將高速移動的數據,達
到最終理解圖像和聲音。DDL演算法對視頻和音頻數據進行訓練,GPU越多表示學習速度越
快。目前,IBM創下紀錄:隨著更多GPU加入能提升達到95%效率,就能識別750萬個圖像
達到33.8%,使用256個GPU 於64個Minsky電源系統上。
自2009年以來,隨著GPU模型訓練從視頻遊戲圖形加速器轉向深度學習,使分佈式深度學
習每年以約2.5倍的速度發展。所以IBM曾於2017年IEEE國際電子設備會議(2017 IEEE
International Electron Devices Meeting)針對應用材料發表Semiconductor
Futurescapes: New Technologies, New Solutions,談到需要開發哪些技術才能延續這
種進步速度並超越GPU?
如何超越GPU
IBM研究公司認為,GPU的轉變分為三個階段進行:
首先將在短期內利用GPU和傳統的CMOS構建新的加速器以繼續進行;
其次將尋找利用低精密度和模擬設備(analog devices)來進一步降低功率和提高性能的方
法;
然後進入量子計算時代,它可是一個機會,能提供全新的方法。
在CMOS上的加速器還有很多工作要做,因為機器學習模型可以容忍不精確的計算。正因為
“學習”模型可以藉由錯誤學習而發揮作用,然而,在銀行交易是無法容忍有一些許的錯
誤。預估,精準運算快速的趨勢,到2022年每年以2.5倍在提高。所以,我們還有五年時
間來突破模擬設備(analog devices),將數據移入和移出記憶體以降低深度學習網絡的訓
練時間。因此,analog devices尋找可以結合記憶體和運算,對於類神經演算的進展將是
非常重要的。
類神經演算如同模擬腦細胞。神經元(neurons) 結構相互連接以低功率訊號突破
von-Neumann的來回瓶頸(von-Neumann’s back-and-forth bottleneck),使這些訊號直
接在神經元之間傳遞,以實現更高效的計算。美國空軍研究實驗室正在測試IBM
TrueNorth神經突觸系統的64晶片陣列,專為深度神經網絡推理和挖掘信息而設計。該系
統使用標準CMOS,但僅消耗10瓦的能量來驅動其6400萬個神經元和160億個突觸。
但相變化記憶體(phase change memory)是下一代記憶體材料,可能是針對深度學習網絡
優化的首款模擬器件。
進入量子時代 (quantum)
據IBM公司的研究論文,在Nature Quantum Information中展示了機器學習中量子的優勢
證明(“Demonstration of quantum advantage in machine learning”),展示了只有五
個超導量子位處理器,量子運算能夠穩定減少達100倍運算步驟,並且比非量子運算更能
容忍干擾的信息。
IBM Q的商業系統現在有20個量子位,並且原型50個量子位設備正在運行。它的平均時間
為90μs,也是以前系統的兩倍。但是容錯系統在今天的機器上顯示出明顯的量子優勢。
同時,試驗新材料(如銅相通的替代品)是關鍵 - IBM及其合作夥伴在IEDM上推出的其他
關鍵晶片改進,以推進所有運算平台,從von Neumann到類神經及量子。
解決處理器到儲存器的連接和頻寬瓶頸,將為AI帶來新的儲存器架構,最終可能導致邏輯
和儲存器製造過程技術之間的融合。IBM的TrueNorth推理芯片就是這種新架構的一個例子
,其中每個神經元都可以存取自己的本地儲存器,並且不需要離線存取儲存器。
藉由訓練和推理形式的AI運算,必須推向邊緣裝置上(edge devices),例如:手機、智能
手錶等)。因此,這將興起由計算設備組成的網絡系統。大多數這樣的邊緣裝置會受到功
率和成本的限制,所以他們的計算需求可能只能透過高度優化的ASIC來滿足。現在,傳統
無晶圓廠半導體公司是否有能力提供這類型的ASIC或是否由AI晶片新創公司例如雲端服務
提供商,由誰主導目前還為時過早。
備註:*馮諾伊曼架構(von Neumann bottleneck):是一種將程式指令記憶體和資料記憶
體合併在一起的電腦設計概念架構,因此也隱約指出將儲存裝置與中央處理器分開的概念
。在CPU與記憶體之間的流量(資料傳輸率)與記憶體的容量相比起來相當小,在現代電腦
中,流量與CPU的工作效率相比之下非常小。當CPU需要在巨大的資料上執行一些簡單指令
時,資料流量就成了整體效率非常嚴重的限制,CPU將會在資料輸入或輸出記憶體時閒置
。由於CPU速度遠大於記憶體讀寫速率,因此瓶頸問題越來越嚴重。[註參考資料:馮諾伊
曼架構。電子時報,2015 26。]
http://bit.ly/2Ga5cfA
--
http://bit.ly/2Ga5cfA
由於,人工智慧(AI)擔負工作與目前大多數電腦的運算工作有些不同。然而,AI隱含著分
析預測、推理、直觀的能力與功能。即時是最有創意的機器學習演算法也受到現有機器硬
體能力的束縛。因此,若要在AI方面取得長足進步,我們必須在硬體上進行改變,或是半
導體材料上進行突破。演變從GPU開始,引入模擬設備(analog devices),然後演變成為
具容錯性量子電腦(fault tolerant quantum computers)。
現在從大規模分佈式深度學習算法應用於圖形處理器(GPU)開始將高速移動的數據,達
到最終理解圖像和聲音。DDL演算法對視頻和音頻數據進行訓練,GPU越多表示學習速度越
快。目前,IBM創下紀錄:隨著更多GPU加入能提升達到95%效率,就能識別750萬個圖像
達到33.8%,使用256個GPU 於64個Minsky電源系統上。
自2009年以來,隨著GPU模型訓練從視頻遊戲圖形加速器轉向深度學習,使分佈式深度學
習每年以約2.5倍的速度發展。所以IBM曾於2017年IEEE國際電子設備會議(2017 IEEE
International Electron Devices Meeting)針對應用材料發表Semiconductor
Futurescapes: New Technologies, New Solutions,談到需要開發哪些技術才能延續這
種進步速度並超越GPU?
如何超越GPU
IBM研究公司認為,GPU的轉變分為三個階段進行:
首先將在短期內利用GPU和傳統的CMOS構建新的加速器以繼續進行;
其次將尋找利用低精密度和模擬設備(analog devices)來進一步降低功率和提高性能的方
法;
然後進入量子計算時代,它可是一個機會,能提供全新的方法。
在CMOS上的加速器還有很多工作要做,因為機器學習模型可以容忍不精確的計算。正因為
“學習”模型可以藉由錯誤學習而發揮作用,然而,在銀行交易是無法容忍有一些許的錯
誤。預估,精準運算快速的趨勢,到2022年每年以2.5倍在提高。所以,我們還有五年時
間來突破模擬設備(analog devices),將數據移入和移出記憶體以降低深度學習網絡的訓
練時間。因此,analog devices尋找可以結合記憶體和運算,對於類神經演算的進展將是
非常重要的。
類神經演算如同模擬腦細胞。神經元(neurons) 結構相互連接以低功率訊號突破
von-Neumann的來回瓶頸(von-Neumann’s back-and-forth bottleneck),使這些訊號直
接在神經元之間傳遞,以實現更高效的計算。美國空軍研究實驗室正在測試IBM
TrueNorth神經突觸系統的64晶片陣列,專為深度神經網絡推理和挖掘信息而設計。該系
統使用標準CMOS,但僅消耗10瓦的能量來驅動其6400萬個神經元和160億個突觸。
但相變化記憶體(phase change memory)是下一代記憶體材料,可能是針對深度學習網絡
優化的首款模擬器件。
進入量子時代 (quantum)
據IBM公司的研究論文,在Nature Quantum Information中展示了機器學習中量子的優勢
證明(“Demonstration of quantum advantage in machine learning”),展示了只有五
個超導量子位處理器,量子運算能夠穩定減少達100倍運算步驟,並且比非量子運算更能
容忍干擾的信息。
IBM Q的商業系統現在有20個量子位,並且原型50個量子位設備正在運行。它的平均時間
為90μs,也是以前系統的兩倍。但是容錯系統在今天的機器上顯示出明顯的量子優勢。
同時,試驗新材料(如銅相通的替代品)是關鍵 - IBM及其合作夥伴在IEDM上推出的其他
關鍵晶片改進,以推進所有運算平台,從von Neumann到類神經及量子。
解決處理器到儲存器的連接和頻寬瓶頸,將為AI帶來新的儲存器架構,最終可能導致邏輯
和儲存器製造過程技術之間的融合。IBM的TrueNorth推理芯片就是這種新架構的一個例子
,其中每個神經元都可以存取自己的本地儲存器,並且不需要離線存取儲存器。
藉由訓練和推理形式的AI運算,必須推向邊緣裝置上(edge devices),例如:手機、智能
手錶等)。因此,這將興起由計算設備組成的網絡系統。大多數這樣的邊緣裝置會受到功
率和成本的限制,所以他們的計算需求可能只能透過高度優化的ASIC來滿足。現在,傳統
無晶圓廠半導體公司是否有能力提供這類型的ASIC或是否由AI晶片新創公司例如雲端服務
提供商,由誰主導目前還為時過早。
備註:*馮諾伊曼架構(von Neumann bottleneck):是一種將程式指令記憶體和資料記憶
體合併在一起的電腦設計概念架構,因此也隱約指出將儲存裝置與中央處理器分開的概念
。在CPU與記憶體之間的流量(資料傳輸率)與記憶體的容量相比起來相當小,在現代電腦
中,流量與CPU的工作效率相比之下非常小。當CPU需要在巨大的資料上執行一些簡單指令
時,資料流量就成了整體效率非常嚴重的限制,CPU將會在資料輸入或輸出記憶體時閒置
。由於CPU速度遠大於記憶體讀寫速率,因此瓶頸問題越來越嚴重。[註參考資料:馮諾伊
曼架構。電子時報,2015 26。]
http://bit.ly/2Ga5cfA
--
Tags:
工程師
All Comments
By Ingrid
at 2018-03-13T21:32
at 2018-03-13T21:32
By Leila
at 2018-03-18T19:30
at 2018-03-18T19:30
By Rachel
at 2018-03-22T09:53
at 2018-03-22T09:53
By Andy
at 2018-03-26T19:12
at 2018-03-26T19:12
By Yedda
at 2018-03-29T21:08
at 2018-03-29T21:08
By David
at 2018-04-02T11:12
at 2018-04-02T11:12
By Victoria
at 2018-04-04T16:19
at 2018-04-04T16:19
By Dora
at 2018-04-08T00:31
at 2018-04-08T00:31
By Carol
at 2018-04-10T11:26
at 2018-04-10T11:26
By Anonymous
at 2018-04-13T20:50
at 2018-04-13T20:50
By Bethany
at 2018-04-14T19:43
at 2018-04-14T19:43
By Connor
at 2018-04-19T17:53
at 2018-04-19T17:53
By Quintina
at 2018-04-20T00:18
at 2018-04-20T00:18
By Mason
at 2018-04-20T05:41
at 2018-04-20T05:41
By Thomas
at 2018-04-22T11:45
at 2018-04-22T11:45
By Audriana
at 2018-04-24T23:45
at 2018-04-24T23:45
By Selena
at 2018-04-27T15:28
at 2018-04-27T15:28
Related Posts
明門實業徵C#軟體開發工程師
By Valerie
at 2018-03-09T14:41
at 2018-03-09T14:41
研替面試公司詢問
By Mia
at 2018-03-09T13:50
at 2018-03-09T13:50
Full stack developer (server focus)
By Wallis
at 2018-03-09T13:29
at 2018-03-09T13:29
Frontend Developer
By Rosalind
at 2018-03-09T13:23
at 2018-03-09T13:23
Senior Ruby on Rails Developer
By Tracy
at 2018-03-09T12:09
at 2018-03-09T12:09