-
概要
大規模言語モデル(LLM)をはじめとする近年のAIモデルのサイズ拡大や計算量の増大により、最先端のAIモデルを学習するためのコストは10年前とは比較にならないほど上昇しています。このコストの上昇は、AIの進化における重大なボトルネックとなっています。
優れたAIモデルを作るためには大量のプロセッサを用いて並列計算を行う必要があります。大量のプロセッサを用意するためには、大規模な予算が必要となります。コストパフォーマンスに優れたプロセッサを使うことができれば、同じ予算規模であっても、より優れたAIモデルを開発できます。換言すると、AI学習用のプロセッサに求められる性質が、絶対性能からコストパフォーマンスに変化しています。
当社は、こうした状況を鑑み、これまでエッジAI向けアクセラレーターの開発で培ってきた技術を応用し、AI学習や推論のための新しいプロセッサ半導体(以下、AIチップ)の開発を開始しました。この新しいAIチップは、AIモデルの学習と推論に特化することで、演算性能目標を2PFLOPS(ペタフロップス)とし、同等性能のGPU比で10倍のコストパフォーマンスを目指しています。この製品は、遅くとも2025年中に出荷を開始する予定です。
-
新しいAIチップの特徴
新しいAIチップは、以下の特徴を持ちます。
・AIモデルの学習と推論に特化したデザイン ・fp8等、低ビット表現を重点的に採用 ・オープンソース化されたドライバ、コンパイラ |
AIモデルの学習と推論に特化したデザイン
AIモデルの学習と推論を計算タスクとしてとらえた場合、以下の特徴があります。
・行列積が計算ボトルネックである
・並列化が容易である
・条件分岐は非常に少ない
汎用的な計算機としての性能向上を目指すのではなく、上記の特徴を活用し、AIモデルの学習と推論に特化した設計をおこないます。例えば、プログラム中に条件分岐は非常に少ないため、分岐予測ユニットを省くことで、トランジスタ数を削減することができます。
fp8等、低ビット表現を重点的に採用
AIモデルの計算のボトルネックは行列積であり、極めて多くの乗算と加算が行われます。乗算器は大きくなりがちな回路ですが、fp8等、これまでよりもビット幅の低いデータ型を用いることで、必要なトランジスタ数を削減できます。また、扱うデータが小さくなるので、近年ボトルネックになりがちなDRAM帯域を有効に活用できます。
オープンソース化されたドライバ、コンパイラ
AIモデルの開発のためには高度なソフトウェアスタックが必要であり、これらを一社で賄うことはできません。複数の会社が関わるオープンソースソフトウェアによるエコシステムがすでに存在しており、このエコシステムの一部になるためには、オープンソースソフトウェアとしてコミュニティに加わることが重要です。
当社は、ハードウェアの仕様を可能な限り公開し、また、ドライバやコンパイラ等のソフトウェアをOSI準拠のライセンスで公開する予定です。
-
利用用途
この新しいAIチップでは、大規模言語モデルの学習だけではなく、拡散モデル等の生成AIモデルを含む、広範囲なニューラルネットワークの学習と推論をサポートします。
-
LeapMind株式会社 代表取締役CEO 松田総一のコメント
当社は、これまでエッジAI推論アクセラレータの開発で高い成果と実績を上げてきました。サーバー側においても、これまで培ってきた技術力を活かした新しいAIチップの開発により、AIモデルの計算処理を高速化させ、次世代AIの進化を加速いたします。
###
新しいAIチップOctraに関する具体的な性能値、ベンチマークなどの詳細は、当社Tech Blog (https://leapmind.io/tech-blog/) 上で随時アップデートする予定です。
LeapMindについて
2012年に創業したLeapMindは、日本を拠点とする人工知能(AI)ソフトウェアおよびAIアクセラレータを開発・提供するテクノロジー企業です。AI技術の進歩に貢献し、ビジネスと社会に革命をもたらす使命を担っています。その専門知識とソリューション提供の能力により、顧客のニーズに応え、持続可能な未来に向けたイノベーションを推進し、その実現に必要なソフトウェアとハードウェア両面の開発に取り組んでいます。LeapMindの事業は高く評価されており、累計調達額は49.9億円に達しています(2023年10月現在)。
本社:〒150-0044 東京都渋谷区円山町28-1 渋谷道玄坂スカイビル 3F
代表者:代表取締役CEO 松田 総一
設立:2012年12月
* 社名、ロゴ、文中の製品名はLeapMind株式会社の商標または登録商標です。
* プレスリリース記載の情報は発表日現在の情報です。