Home Tags 達摩院

Tag: 達摩院

台積電越來越依賴ASML的EUV光刻機 3nm需要20層

打破x86/ARM壟斷 首款基於RISC-V安卓設備今年亮相

快科技3月14日消息,今日,在2024玄鐵RISC-V生態大會上,達摩院院長張建鋒表示,“今年下半年,大家就能夠在市面上看到第一款基於RISC-V和安卓的終端設備。” 據介紹,三年前,玄鐵首次實現RISC-V適配安卓,打開了RISC-V生態通向廣闊應用市場的新賽道。 據了解,2021年,平頭哥晶片開放社區發布消息稱,完成了安卓10對RISC-V的移植,安卓10系統可以在玄鐵910晶片上流暢運行。 顯然,張建鋒所說的是基於玄鐵RISC-V的安卓設備。 除安卓外,目前,玄鐵RISC-V已完成與Debian、Fedora、Gentoo、Ubuntu、龍蜥、統信、openKylin、創維酷開系統、RTT等作業系統的深度融合。 RISC-V架構被認為是繼x86、ARM架構之後,中國晶片產業的第三條路。 中國工程院院士倪光南曾指出,目前CPU市場主要被x86和Arm架構所壟斷,而中國想要打破這個局面,實現自主可控,開源的RISC-V架構將是一大機遇和發展方向。 來源:快科技

突破馮·諾依曼架構瓶頸 全球首款存算一體AI晶片誕生 性能提升10倍

過去70年,計算機一直遵循馮·諾依曼架構設計,運行時數據需要在處理器和記憶體之間來回傳輸。 隨著時代發展,這一工作模式面臨較大挑戰:在人工智慧等高並發計算場景中,數據來回傳輸會產生巨大的功耗;目前記憶體系統的性能提升速度大幅落後於處理器的性能提升速度,有限的記憶體帶寬無法保證數據高速傳輸。 12月3日,快科技獲悉,達摩院成功研發新型架構晶片。該晶片是全球首款基於DRAM的3D鍵合堆疊存算一體AI晶片,可突破馮·諾依曼架構的性能瓶頸,滿足人工智慧等場景對高帶寬、高容量記憶體和極致算力的需求。 在特定AI場景中,該晶片性能提升10倍以上,能效比提升高達300倍。 達摩院存算一體晶片 在摩爾定律逐漸放緩的背景下,存算一體成為解決計算機性能瓶頸的關鍵技術。 存算一體晶片類似人腦,將數據存儲單元和計算單元融合,可大幅減少數據搬運,從而極大地提高計算並行度和能效。 這一技術早在上世紀90年代就被提出,但受限於技術的復雜度、高昂的設計成本以及應用場景的匱乏,過去幾十年,業界對存算一體晶片的研究進展緩慢。 達摩院研發的存算一體晶片集成了多個創新型技術,是全球首款使用混合鍵合3D堆疊技術實現存算一體的晶片。該晶片記憶體單元採用異質集成嵌入式DRAM(SeDRAM),擁有超大帶寬、超大容量等特點;計算單元方面,達摩院研發設計了流式的定製化加速器架構,對推薦系統進行「端到端」的加速,包括匹配、粗排序、神經網絡計算、細排序等任務。 得益於整體架構的創新,該晶片同時實現了高性能和低系統功耗。在實際推薦系統應用中,相比傳統CPU計算系統,存算一體晶片的性能提升10倍以上,能效提升超過300倍。該技術的研究成果已被晶片領域頂級會議ISSCC 2022收錄,未來可應用於VR/AR、無人駕駛、天文數據計算、遙感影像數據分析等場景。 達摩院計算技術實驗室科學家鄭宏忠表示:「存算一體是顛覆性的晶片技術,它天然擁有高性能、高帶寬和高能效的優勢,可以從底層架構上解決後摩爾定律時代的晶片性能和能耗問題,達摩院研發的晶片將這一技術與場景緊密結合,實現了記憶體、計算以及算法應用的完美融合。」 據悉,達摩院計算技術實驗室專注研究晶片設計方法學和新型計算機體系結構技術,已擁有多項領先成果,在ISSCC、ISCA、MICRO、HPCA等頂級會議上發表多篇論文。 馮·諾依曼和馮·諾依曼計算機 來源:快科技

128張GPU燒出「中文版GPT-3」 這文風不是開往幼兒園的車

首先,請先看一段「正經」的文字: 他笑意中的那份溫柔,只想給她好好珍藏,即便這一切不會發生,至少在他的世界里,她是無憂無慮的快樂的。就連他對她的關心,她都不在意了,還有什麼不放心的呢?「好,我答應你。不過,如果我們能有個孩子,我一定做個好爸爸。」 橋豆麻袋!!! 這難道不是什麼某某天堂、某江文學、某點中文上的小說情節? 誤會了誤會了。 這是最新發布的全球最大規模中文預訓練模型「中文版GPT-3」——PLUG的力作。 270億的參數規模,跟GPT-3一樣是「萬能寫作神器」。 出於好奇,我第一時間就去上手試了試,沒想到只是輸入了四個字。 泛起笑意, 就給出了如此結果。 這個PLUG,有點意思啊~ 竟然擅長的是這個? 接下來,我又進行了一波嘗試,調戲一下PLUG的創作實力。 輸入「他正要離開」,看它怎麼接。 PLUG果然很懂! ,卻見他站到了自己身前,一下子拉住了她的手,用一種很奇怪的語調說道:「我的心情很壞,很生氣,不過「他看著她,一字一句的說道:「你能不能說的快一點,我不想傷害你。「看著她一臉的冷漠,他的心中微微一酸,但是很快又笑了,溫柔的笑了笑:「放心…… 有一說一,生成長文本的性能還是相當不錯,並且提供了4個文本長度選項(32~512字)。 不過這內容…… 難不成,我喜歡XX文的秘密被發現了? 別誤會,其實PLUG也能生成「克制」一些的。 比如:輸入「阿sir,你看看他」,結果就顯得很正常嘛~ 甚至還特意生成了繁體字小說,營造出一種港片的氛圍感。 (阿sir,你看看他)們幾時對阿爸、阿媽、阿婆笑過;你再看看他們幾時對你笑過。阿爸、阿媽、阿婆,你們笑笑就好了。其實,他們有笑,也有淚……(此處省略200+字)阿sir,你是否真的愛你的父母? 除了擅長寫小說,PLUG還能寫專業文稿、進行智能問答、生成詩詞和菜譜等等。 就比如撰寫專業文稿: 幫你解答生活常識,官網給出了貼心(不是)的示例: 程式設計師脫發用什麼洗發水好? 三個月打造中文最強GPT-3 說了這麼多,要達到這樣的效果,這個中文最強GPT-3究竟如何煉成? PLUG,Pre-training for Language Understanding and Generation,顧名思義,就是集語言理解(NLU)和生成(NLG)能力於一身。 要實現這一點,據團隊介紹,這一模型是達摩院此前提出的兩種自研模型——NLU語言模型StructBERT、NLG語言模型PALM的融合。 此外,跟GPT-3的單向建模方式不同的是,它採用了編碼器-解碼器(encoder-decoder)的雙向建模方式。 具體來說,整個訓練過程分為兩個階段。 第一階段,以達摩院自研的語言理解模型——StructBERT作為編碼器。 簡單來說,它是在句子級別和詞級別兩個層次的訓練目標中,加強對語言結構信息的建模,從而提高模型的語法學習能力。 這也使得PLUG具有輸入文本雙向理解能力,能夠生成和輸入更相關的內容。 這個過程共訓練了300B tokens訓練數據。 第二階段,將這個編碼器用於生成模型的初始化,並外掛一個6層、8192個隱藏層節點數的解碼器,共計訓練了100B tokens的訓練數據。 此外,PLUG還能為目標任務做針對性優化。 上一回說到,GPT-3並沒有利用微調和梯度更新,而是通過指定任務、展示少量演示,來與模型文本進行交互,完成各種任務。 因此在面對新任務時候,不需要重新收集大量的帶標簽數據。但不可避免的,生成的效果不足。 比如,犯低級錯誤就是GPT-3被人詬病比較多的一點。 而PLUG的能力更加全面,既可以實現與GPT-3類似的零樣本生成功能,也可以利用下游訓練數據微調(finetune)模型,提升特定任務的生成質量。 當然,效果實現的關鍵,還少不了算力和數據。 PLUG負責人表示,原本計劃用128張A100訓練120天煉成,不過由於阿里雲、算法優化等達摩院多方力量的參與,以及加速手段的有效利用,成功將日程縮短到三分之一。 最後,只燒了35天就達到了這樣的效果。 前面也提到,PLUG的參數量達到了270億,中文訓練數據量也達到了1T以上。 在語言理解任務上,PLUG以80.614分刷新了CLUE分類任務榜單記錄。 而在語言生成任務上,據團隊介紹,其多項應用數據較業內最優水平提升了8%以上。 語言模型體系再添一員大將 如果再把PLUG說成是「中文版GPT-3」,似乎就不太準確了。 耗時3個月、270億參數規模、一發布就給體驗埠…… 但與此同時,這些關鍵詞的背後,仍然留給讀者一些疑問: 3個月是如何做到的?當前的參數規模是終點嗎?為何現階段就免費開放? 阿里深度語言模型體系負責人永春給出了一一解答。 首先,時間問題。主要有兩個方面的原因。 從人力的角度來說,永春沒有談具體的數字,但此次涉及阿里的多個團隊群策群力共同完成的,當中的訓練時間也就大大縮短。 再加上,阿里以往的自研模型已經產生了更多的業務需求,促成了PLUG的開發,這也是阿里整體技術路線中的一環。 GPT-3的出現,給中國的一些玩家觸動很大:什麼時候我們能出個中文版的同類模型? 阿里作為其中之一的企業,利用自身的技術、計算資源的優勢,率先給出Demo。 永春表示,希望通過PLUG的發布,建立起與技術同行之間的橋梁。 要知道,GPT-3到目前也還沒有做到完全開放。 不過,團隊似乎並不擔心PLUG發布之後的一些不確定性。(手動狗頭) 比如,出現一些低級錯誤。 反而笑著說,之前GPT-3不也是因為大家吐槽才火的麼?丟給技術圈去檢驗,這些問題都是不可避免的。 而這樣的開源開放,正好是這個技術團隊的一大底色。 去年,阿里達摩院發布了自研深度語言模型體系,包括6大自研模型。 通用語言模型StructBERT、多模態語言模型StructVBERT、多語言模型VECO、生成式語言模型PALM……他們一直在致力於陸陸續續將模型開源出來。 永春透露,在PLUG發布這段期間,達摩院宣布將開源阿里巴巴語言模型體系部分重要模型,目前正在走流程中。 至於之後的計劃,團隊表示2000億級的參數規模正在規劃中,並進一步提升文本生成質量。 而在應用領域,他們還將專門針對醫療領域做下游數據訓練。 最終目標是希望將這個模型實際落地,提升NLP技術在方方面面的實力,比如能源、通信、司法等。 也誠如阿里達摩院語言技術實驗室負責人司羅所說,達摩院NLP團隊將進一步攻克自然語言處理領域科研難題,完善中文及跨語言人工智慧基礎設施,讓AI沒有難懂的語言,並探索通用人工智慧之路。 對了,PLUG剛剛完成最後一波調控,目前已開放了測試體驗接口(僅供學術目的測試,需同意其相關約定)。 來源:快科技
阿里達摩院 硅趨於性能極限 新材料推動半導體器件革新

阿里達摩院 硅趨於性能極限 新材料推動半導體器件革新

1月2日,阿里巴巴達摩院發布「達摩院2020十大科技趨勢「。這是達摩院第二次預測年度科技趨勢。 該趨勢指出,隨着摩爾定律的放緩和高算力需求場景的井噴,傳統芯片陷入性能增長瓶頸芯片領域的重大突破極有可能在體系架構、基礎材料和設計方法三處實現。 體系架構方面,存儲、計算分離的馮·諾依曼架構難以滿足日益復雜的計算任務,業界正在探索計算存儲一體化架構,以突破芯片的算力和功耗瓶頸。 基礎材料方面,以硅為代表的半導體材料趨於性能極限,各大半導體廠商對於3納米以下的芯片走向都沒有明確的答案。新材料將通過全新物理機制實現全新的邏輯、存儲及互聯概念和器件,推動半導體產業的革新。半導體產業的持續發展需寄望於拓撲絕緣體、二維超導材料等新材料。 芯片設計方法也需應勢升級,基於芯粒(chiplet)的模塊化設計方法可取代傳統方法,讓芯片設計變得像搭積木一樣快速。 以下為達摩院2020十大科技趨勢: 趨勢一、人工智能從感知智能向認知智能演進 人工智能已經在「聽、說、看」等感知智能領域已經達到或超越了人類水準,但在需要外部知識、邏輯推理或者領域遷移的認知智能領域還處於初級階段。認知智能將從認知心理學、腦科學及人類社會歷史中汲取靈感,並結合跨領域知識圖譜、因果推理、持續學習等技術,建立穩定獲取和表達知識的有效機制,讓知識能夠被機器理解和運用,實現從感知智能到認知智能的關鍵突破。 趨勢二、計算存儲一體化突破AI算力瓶頸 馮諾伊曼架構的存儲和計算分離,已經不適合數據驅動的人工智能應用需求。頻繁的數據搬運導致的算力瓶頸以及功耗瓶頸已經成為對更先進算法探索的限制因素。類似於腦神經結構的存內計算架構將數據存儲單元和計算單元融合為一體,能顯著減少數據搬運,極大提高計算並行度和能效。計算存儲一體化在硬件架構方面的革新,將突破AI算力瓶頸。 趨勢三、工業互聯網的超融合 5G、IoT設備、雲計算、邊緣計算的迅速發展將推動工業互聯網的超融合,實現工控系統、通信系統和信息化系統的智能化融合。製造企業將實現設備自動化、搬送自動化和排產自動化,進而實現柔性製造,同時工廠上下游製造產線能實時調整和協同。這將大幅提升工廠的生產效率及企業的盈利能力。對產值數十萬億乃至數百萬億的工業產業而言,提高5%-10%的效率,就會產生數萬億人民幣的價值。 趨勢四、機器間大規模協作成為可能 傳統單體智能無法滿足大規模智能設備的實時感知、決策。物聯網協同感知技術、5G通信技術的發展將實現多個智能體之間的協同——機器彼此合作、相互競爭共同完成目標任務。多智能體協同帶來的群體智能將進一步放大智能系統的價值:大規模智能交通燈調度將實現動態實時調整,倉儲機器人協作完成貨物分揀的高效協作,無人駕駛車可以感知全局路況,群體無人機協同將高效打通最後一公里配送。 趨勢五、模塊化降低芯片設計門檻 傳統芯片設計模式無法高效應對快速迭代、定製化與碎片化的芯片需求。以RISC-V為代表的開放指令集及其相應的開源SoC芯片設計、高級抽象硬件描述語言和基於IP的模板化芯片設計方法,推動了芯片敏捷設計方法與開源芯片生態的快速發展。此外,基於芯粒(chiplet)的模塊化設計方法用先進封裝的方式將不同功能「芯片模塊「封裝在一起,可以跳過流片快速定製出一個符合應用需求的芯片,進一步加快了芯片的交付。 趨勢六、規模化生產級區塊鏈應用將走入大眾 區塊鏈BaaS(Blockchain as a Service)服務將進一步降低企業應用區塊鏈技術的門檻,專為區塊鏈設計的端、雲、鏈各類固化核心算法的硬件芯片等也將應運而生,實現物理世界資產與鏈上資產的錨定,進一步拓展價值互聯網的邊界、實現萬鏈互聯。未來將涌現大批創新區塊鏈應用場景以及跨行業、跨生態的多維協作,日活千萬以上的規模化生產級區塊鏈應用將會走入大眾。 趨勢七、量子計算進入攻堅期 2019年,「量子霸權」之爭讓量子計算在再次成為世界科技焦點。超導量子計算芯片的成果,增強了行業對超導路線及對大規模量子計算實現步伐的樂觀預期。2020年量子計算領域將會經歷投入進一步增大、競爭激化、產業化加速和生態更加豐富的階段。作為兩個最關鍵的技術里程碑,容錯量子計算和演示實用量子優勢將是量子計算實用化的轉折點。未來幾年內,真正達到其中任何一個都將是十分艱巨的任務,量子計算將進入技術攻堅期。 趨勢八、新材料推動半導體器件革新 在摩爾定律放緩以及算力和存儲需求爆發的雙重壓力下,以硅為主體的經典晶體管很難維持半導體產業的持續發展,各大半導體廠商對於3納米以下的芯片走向都沒有明確的答案。新材料將通過全新物理機制實現全新的邏輯、存儲及互聯概念和器件,推動半導體產業的革新。例如,拓撲絕緣體、二維超導材料等能夠實現無損耗的電子和自旋輸運,可以成為全新的高性能邏輯和互聯器件的基礎;新型磁性材料和新型阻變材料能夠帶來高性能磁性存儲器如SOT-MRAM和阻變存儲器。 趨勢九、保護數據隱私的AI技術將加速落地 數據流通所產生的合規成本越來越高。使用AI技術保護數據隱私正在成為新的技術熱點,其能夠在保證各方數據安全和隱私的同時,聯合使用方實現特定計算,解決數據孤島以及數據共享可信程度低的問題,實現數據的價值。 趨勢十、雲成為IT技術創新的中心 隨着雲技術的深入發展,雲已經遠遠超過IT基礎設施的范疇,漸漸演變成所有IT技術創新的中心。雲已經貫穿新型芯片、新型數據庫、自驅動自適應的網絡、大數據、AI、物聯網、區塊鏈、量子計算整個IT技術鏈路,同時又衍生了無服務器計算、雲原生軟件架構、軟硬一體化設計、智能自動化運維等全新的技術模式,雲正在重新定義IT的一切。廣義的雲,正在源源不斷地將新的IT技術變成觸手可及的服務,成為整個數字經濟的基礎設施。 作者:朝暉來源:快科技