富士通發布了Fugaku-LLM,使用Fugaku超算進行訓練

日本的Fugaku超級計算機在很長時間里,一直都位居Top500榜首,即便現在已經不是世界上最快的計算機器,但是仍然是一個強大的系統。其搭載了富士通開發的A64FX,是首款使用SVE指令集的Arm架構處理器,具備多功能特性,支持FP64、FP32、FP16和INT8格式,允許用於各種工作負載,也包括人工智慧(AI)。

據TomsHardware報導,富士通在本周發布了Fugaku-LLM,是一個具有高級日語處理能力的大型語言模型(LLM),專為研究和商業應用而設計,其中使用了Fugaku超級計算機來進行訓練。Fugaku-LLM計劃是由日本多家企業和科研院校合作推動的,包括了東京工業大學、東北大學、富士通、RIKEN、名古屋大學、CyberAgent和Kotoba Technologies等。

富士通發布了Fugaku-LLM,使用Fugaku超算進行訓練

Fugaku-LLM具有130億個參數,與 GPT-4的1750億個參數相比顯得要小得多。富士通表示,Fugaku-LLM的130億個參數不需要大量的計算資源來推理,對日本的企業和研究人員來說是最佳選擇,其中大約60%的訓練數據是日語,40%的數據是英語、數學和代碼數據。Fugaku-LLM有著不錯的日語水平,在日語MT-Bench上獲得了5.5的平均分,另外在人文和社會科學方面尤其出色,取得了令人印象深刻的9.18分的基準成績。

A64FX採用台積電7nm FinFET工藝製造,擁有87.86億個電晶體,596個信號針腳,集成了52個核心,包括48個計算核心和4個一樣結構的管理核心。所有的52個核心分為四組,每組13個,共享8MB二級緩存。每組之間的互聯使用的是富士通第二代TOFU,也就是6D mesh/torus片上網際網路絡。同時配置了配的32GB HBM2記憶體,16條PCIe Gen3通道,擁有1024 GB/s的存儲帶寬。可以提供2.7 TFLOPS@64bit,21.6 TFLOPS@8bit的性能。

富士通下一代針對AI和HPC應用的Arm處理器正在開發中,代號為「MONAKA」,以取代現有的A64FX。其配備了大約150個增強型Armv9核心,並擁有使用加速器的能力,將提供強大的性能。

來源:超能網