神經元規模最大類腦計算機問世

接收到語音指令後,經過訓練的3台機器人分別擔任了巡邏、救援、工程檢修「特種兵」,模擬合作開展抗洪救險任務。在類腦計算機的控制下,機器人可根據指令切換兵種……在之江實驗室,研究人員進行了億級神經元類腦計算機的應用演示。

神經元規模最大類腦計算機問世

億級神經元類腦計算機 盧紹慶攝

9月1日,浙江大學聯合之江實驗室共同研製成功了我國首台基於自主知識產權類腦芯片的類腦計算機,其包含792顆浙江大學研製的達爾文2代類腦芯片,支持1.2億個脈沖神經元、720億個神經突觸,與小鼠大腦神經元數量規模相當,典型運行功耗只需350—500瓦,是目前國際上神經元規模最大的類腦計算機。

延續「最初的夢想」 新型計算模式顛覆傳統

如今計算機應用普遍,但很少有人知道,科學家們最初是想通過機器模擬出一個人類大腦。

億級神經元類腦計算機研究團隊負責人、浙江大學計算機科學與技術學院教授潘綱說,早期計算機的發展選擇了以數值計算見長的馮·諾依曼架構。然而由於馮·諾依曼架構中數據儲存和計算的分離,產生了存儲牆問題。「這就好比信息存儲在甲地,要計算的時候就把信息搬到乙地去,計算好了再搬回甲地去。但搬運的速度要遠遠低於計算的速度,反而讓搬運本身成為關鍵瓶頸。」

潘綱直言,這種計算模式制約了以大數據為代表的計算性能提升。同時,數據驅動的智能算法、訓練需要海量樣本與密集計算,但舉一反三、自我學習等高級能力比較差,「現在的機器智能離人的智能差得還很遠」。

與傳統計算機不同的是,生物大腦在與環境相互作用過程中能夠自然產生不同的智能行為,包括語音理解、視覺識別、決策任務、操作控制等,且能耗低。自然界中,很多神經元遠低於100萬的昆蟲就能做到實時目標跟蹤、路徑規劃、導航和障礙物躲避。

「和計算機相比,人腦功耗相當於一個節能燈。類腦計算即採用硬件及軟件模擬大腦神經網絡的結構與運行機制,構造一種全新的人工智能系統。」項目研究骨幹馬德副教授說,類腦芯片的工作原理就類似於生物的神經元行為,通過脈沖傳遞信號,這樣就能實現高度並行,效率提升。

每顆芯片上有15萬個神經元,每4顆芯片做成一塊板子,若干塊板子再連接起來成為一個模塊……為讓這麼多神經元實現高效的聯動組合,同時將雜亂無章的信息流有序分配到對應的功能腦區,研究團隊研製了專門面向類腦計算機的操作系統——達爾文類腦操作系統(DarwinOS),實現了功能任務切換時間微秒級,對類腦計算機硬件資源的有效管理與調度,支撐類腦計算機的運行與應用。

像「腦」一樣思考 提供探索神經科學的新工具

借鑒海馬體神經環路結構和神經機制,構建學習—記憶融合模型,實現音樂、詩詞、謎語等的時序記憶功能;模擬不同腦區建立神經模型,為科學研究提供更快更大規模的仿真工具;實現「意念打字」,對腦電信號進行實時解碼……目前,這個億級神經元類腦計算機已經實現了多種智能任務。

潘綱指着3台1.6米高、並排而立的標准服務器機箱告訴記者,別看現在這個億級神經元類腦計算機是個「大塊頭」,隨着達爾文芯片及其他硬件的不斷迭代升級,未來類腦計算機體積還將縮小。「與硬件上的更新相比,如何讓類腦計算機更聰明是我們下一步研究重點。」

比如,由於目前市面上的傳感器輸入的信號還是以數字為主,在應用到Darwin Mouse類腦計算機上,要加一個編碼層,將信號轉換為脈沖式的,而在這個過程中,信息有丟失和損傷,會在一定程度上降低計算機的功效。這一問題有待科研人員盡快解決。

潘綱表示,希望隨着神經科學的發展和類腦計算機的系統軟件、工具鏈及算法的成熟,有朝一日能夠讓類腦計算機像馮·諾依曼架構計算機一樣通用化,真正像大腦一樣高效工作,與馮·諾依曼架構並存與互補去解決不同的問題。

談及類腦計算機的更多場景應用,潘綱表示,要讓億級神經元類腦計算機研究的價值真正實現,除了生活中的智能任務處理,還應優先應用於神經科學研究,為神經科學家提供更快更大規模的仿真工具,提供探索大腦工作機理的新實驗手段。

來源:cnBeta