生成AIに立ちはだかるコンピューティングと サステナビリティーの課題に取り組む

インテルは、AIの民主化とオープン・エコシステムのサポートを推進することで、 生成AIに求められるコンピューティング需要に応えていきます。

ニュース

  • 2023年3月28日

  • インテル PRに問い合わせる

  • ソーシャルメディアでインテル・ニュースルームをフォローする:

    Twitter のロゴ
    YouTube のアイコン

author-image

投稿者:

知っておくべき重要ポイント:
 

  • 最新情報:本日、マシンラーニング用の最先端オープンソース・ライブラリーを開発するHugging Faceは、インテルのAIハードウェア・アクセラレーターが現在市場で手に入るどのGPUよりも高速に推論を実行し、Habana® Gaudi® 2 AIプロセッサーではNvidia製A100 GPUよりも20%高速に、パラメーター数1,760億の推論モデルを実行することを示すパフォーマンス結果を公開しました。この結果に加え、広く利用されているコンピューター・ビジョンのワークロードをHabana® Gaudi® 2 AIプロセッサー搭載サーバーで実行し、同等のA100搭載サーバーと比べて1.8倍の消費電力当たりスループットを示す、電力効率の面での優位性も実証しています。さらに、Gaudi2 サーバーで一般的なコンピューター・ビジョン・ワークロードを実行する際の電力効率も実証しており、同等の A100 サーバーに比べてワット当たりのスループットが 1.8 倍のメリットを示しています。1
  • 重要な理由: ChatGPTのような最近の生成型AIツールは、新たな可能性を広げ業界全体を熱狂させているものの、このAIモデルが必要とするコンピューティング需要の高まりによって、パフォーマンス、コスト、電力効率が企業にとって最大の懸念となっています。
  • 業界全体の動向: 生成AIモデルが大規模化するにつれて、データの前処理からモデルの学習、推論まで、複雑なAIワークロードで多種多様な機能の生産性を加速させるには、電力効率が重要な要素になってきます。開発者が必要としているのは、生成AIを含むあらゆる型のAIで可能性をフルに引き出せる、柔軟性、オープン性、電力効率を兼ね備えた、持続可能なソリューションによる「一度開発すればどこにでも導入できる」アプローチです。
  • 次のステップ: AIは大きく進展してはいますが、未知の発見はまだまだ尽きることはありません。 AIの真の民主化とサステナビリティーを目指すインテルの熱心な取り組みにより、オープンなエコシステムを通じて、生成AIをはじめ、このテクノロジーがもたらすメリットに幅広くアクセスできるようになるはずです。
  • 結論: 1つのオープン・エコシステムがあるからこそ、広く利用されているオープンソースのフレームワーク、ライブラリー、ツールをインテルが最適化することで、AIの開発とあらゆる場所への導入が可能になります。インテルのAIハードウェア・アクセラレーターは、第4世代インテル® Xeon® スケーラブル・プロセッサーに内蔵されたアクセラレーター群が加わり、パフォーマンスと消費電力当たりの性能を向上させ、生成AIに必要なパフォーマンス、コスト、サステナビリティーの要件を満たします。

人間が作ったコンテンツを模倣する能力を持つ生成AIは、人々の働き方や生活の多大な側面、刺激的な機会を生み出しています。しかし、この急速に進化しているテクノロジーによって、データセンターでAIを活用するためには必要不可欠な、コンピューティングの複雑さが明らかになりました。
インテルでは、誰もがこのテクノロジーを大規模かつ簡単に導入できるようになる未来に向け、多大な投資を続けています。経営陣は、信頼、透明性、選択の自由のもとに築かれるAIのオープン・エコシステムを支えるために、業界全体にわたりパートナー企業と連携しています。

卓越したパフォーマンスを発揮するオープンソースの生成AIを採用

生成AIはGPT-3やDALL-Eなどの言語モデルとして以前から利用されてはいますが、人間同士のように会話ができる生成型チャットボット「ChatGPT」の登場による圧倒的な盛り上がりから、従来のデータセンター・アーキテクチャーに存在するボトルネックに注目が集まるようになりました。これにより、AIが持つ可能性をフルに引き出すことができる、ハードウェアとソフトウェアのソリューションに対する需要も急速に高まっています。生成AIの幅広い利用と、コスト効率の高い最適なソリューションの導入を可能にしているのは、オープンなアプローチとヘテロジニアス・コンピューティングの基盤です。オープン・エコシステムは、開発者が電力効率、コスト、パフォーマンスを優先しながら、どこででもAIを開発して導入できるようにすることで、生成AIのパワーを最大限まで引き出します。

ウェビナー:インテル、データセンターと AI 事業の投資家向けにウェビナーを開催 

インテルは、広く利用されているオープンソースのフレームワーク、ライブラリー、ツールを最適化することで、複雑さを解消しつつハードウェアから最大のパフォーマンスを引き出し、インテルのテクノロジーが生成AIを実現する確実な選択肢となるように、着実なステップを踏んでいます。 マシンラーニング用の最先端オープンソース・ライブラリーを開発するHugging Faceは本日、インテルのAIハードウェア・アクセラレーターが現在市場で手に入るどのGPUよりも高速に推論を実行することを示す パフォーマンス結果を公開しました。 Transformerをベースとする多言語対応の大規模言語モデル(LLM)でパラメーター数1,760億の BLOOMZ モデルを使用した場合、インテルのHabana® Gaudi® 2 AIプロセッサーはNvidia製A100-80Gと比べて20%高速に推論を実行します。BLOOMは、46の言語と13のプログラミング言語を処理するように設計され、完全な透明性を確保して開発されました このモデルのトレーニングを背後で支えるリソースはすべて、世界中のリサーチャーやエンジニアの誰もが利用でき、ドキュメントを更新しているのもこうしたメンバーです。

パラメーター数が70億の小規模なBLOOMZモデルでは、Habana® Gaudi® 2 AIプロセッサーがA100-80Gよりも3倍高速の実行パフォーマンスを示した一方で、第1世代のHabana® Gaudi® AIプロセッサーはA100-80Gと比べてコスト効率の面で明らかな優位性を示しました。Hugging FaceのOptimum Habanaライブラリーを使用すると、Habana® Gaudi® アクセラレーターで実行するコードの変更を最小限にとどめて、このような大規模LLMを簡単に実装することができます。

また、インテルラボの研究チームでは、Habana® Gaudi® 2 AIプロセッサーを使用し、最近提案された言語モデルのベンチマーク「 LMentry 」により、ゼロショット(学習なし)設定でBLOOMZの評価を実施しました。 BLOOMZの精度は、GPT-3と同様にモデルサイズと比例して高まり、最大規模の1,760億パラメーターBLOOMZモデルでは、以下のグラフから分かるとおり、相当する同等サイズのGPT-3モデルを上回っています。 

(Habana® Gaudi® アクセラレーターを使用して10万プロンプトのLMentryベンチマークを実行し、パラメーター数が最大1,760億のBLOOMZモデルで生成された言語出力を自動測定。2

さらにHugging Faceは、テキストから画像を生成するもう1つの最先端生成AIであり、画像生成ツール「DALL-E」に代わるオープンアクセスの選択肢となるStability AIの「Stable Diffusion」が、インテル® アドバンスト・マトリクス・エクステンション(インテル® AMX)を内蔵した第4世代インテル® Xeon® スケーラブル・プロセッサーで平均3.8倍高速に動くようになったことを、本日公開しました。この高速化は、コードを一切変更することなく達成されています。加えて、インテル® PyTorch拡張パッケージ マシンラーニングに特化したカスタムのbfloat16フォーマットと併用することで、自動混合精度がさらに2倍高速化し、レイテンシーをわずか5秒に低減するという、基準値の32秒よりも6.5倍近い高速化が可能になります。 Hugging Face のウェブサイトでは、インテル® CPU(第4世代インテル® Xeon® スケーラブル・プロセッサー)で動作するStable Diffusionの評価版デモを実行し、自作プロンプトを試してみることも可能です。

Stability AIの創業者でありCEOを務めるエマード・モスターク(Emad Mostaque)氏は、次のように述べています。「Stabilityでは、AIテクノロジーを誰もが自分で開発できるようにしたいと考えています。第4世代インテル® Xeon® スケーラブル・プロセッサー(開発コード名:Sapphire Rapids)からHabana® Gaudi® アクセラレーターまで、インテルの多様なプロセッサーとアクセラレーターを実装したヘテロジニアス・システムによって、Stable Diffusionモデルは効率的に動くようになりました。そういった理由からも、インテルはともにAIの民主化を目指す素晴らしいパートナーです。言語、動画、コードをはじめとしたさまざまな次世代モデルに向けて、今後もコラボレーションを続けていけると期待しています」次世代の言語、ビデオ、コードモデルなど、彼らと協力することを楽しみにしています。」

OpenVINO™ ツールキットを活用すれば、Stable Diffusionの推論実行をさらに高速化することができます。第4世代インテル® Xeon® スケーラブル・プロセッサーと組み合わせることで、第3世代インテル® Xeon® スケーラブル・プロセッサーと比べてほぼ2.7倍の高速化が可能です。OpenVINO™ ツールキットに対応するOptimum Intel ツールは、インテルのアーキテクチャー上でエンドツーエンドのパイプラインを高速化し、平均してさらに3.5倍の高速化、つまり全体でレイテンシーをほぼ10分の1に低減します。

生成AIに立ちはだかるコンピューティングの課題に協力して取り組むインテルとHugging Face

生成AIに立ちはだかるコンピューティングの課題に協力して取り組むインテルとHugging Face
インテル コーポレーション副社長 兼 データセンターAI &クラウド戦略事業本部 事業本部長のカヴィサ・プラサード(Kavitha Prasad)、インテルフェロー 兼 インテリジェント・システム研究所ディレクターのラマ・ナクマン(Lama Nachman)は、Hugging Face製品ディレクターのジェフ・ブーディエ(Jeff Boudier)氏と業界アナリストのダニエル・ニューマン(Daniel Newman)氏を迎え、生成AIが世界のコンピューティング需要に及ぼす影響と、オープン・エコシステムが重要となる理由について、急速に進む最近のAI発展の波の中で倫理が担う役割をどう考えるべきか、ディスカッションを行いました。(Credit: Intel Corporation)

チャプター:

  1. 「ChatGPT とは?」 – 1:14
  2. 「生成AIに立ちはだかるコンピューティングの課題を解決するには」 – 3:58
  3. 「オープン・エコシステムの重要性」 – 6:42
  4. 「コンピューティング需要をますます増大させている大規模モデル」 – 8:51
  5. 「AIが及ぼす倫理的影響」 – 15:38
  6. 「Hugging Faceとともに取り組むAIの民主化」 – 20:18
  7. 「オープン・エコシステムが確立するAIの透明性」 – 27:36「オープンなエコシステムによる AI の透明性」 – 27:36
  8. 「一度の開発で、どこにでも導入」 – 30:40「一度開発してどこにでも展開」 - 30:40

コスト、パフォーマンス、 効率性の要件に対処

また、消費電力の削減という重要なニーズに応えながら、ますます高まるパフォーマンス要件を満たすためには、さらに持続可能性の高いソリューションを今すぐに利用できるようにしなければなりません。オープン・エコシステムは、進捗を妨げている要因を取り除き、開発者が作業ごとに最適なハードウェアやソフトウェアなどのツールを活用して、イノベーションを実現できるよう後押しします。

AWSクラウド上に構築する同等のNVIDIAベース・インスタンスよりもコスト効率が最大40%高い第1世代と同じ高効率アーキテクチャーを基盤とするHabana® Gaudi® 2 AIプロセッサーは、大規模ワークロードに新たなレベルのパフォーマンスと効率性をもたらします。また、AI ワークロードを実行する際の電力効率も実証しています。AIワークロードの実行では、電力効率も実証しました。Supermicroサーバーを使用して電力消費を比較評価したところ、Habana® Gaudi® 2 AIプロセッサーを搭載したサーバーの方が、広く利用されているコンピューター・ビジョンのワークロードで、A100搭載サーバーと比べて1.8倍の消費電力当たりスループットを示す結果となっています。1

 大規模AIワークロードでも同様に、より一層の電力効率を実現する柔軟かつオープンなソリューションとあわせて、「一度開発すればどこにでも導入できる」アプローチが不可欠です。また、大規模な AI ワークロードには、電力効率を高める柔軟なオープン・ソリューションを備えた、一度で導入できるビルドであらゆる場所へのアプローチが必要です。 第4世代インテル® Xeon® スケーラブル・プロセッサーは、インテル史上最もサステナブルなデータセンター向けプロセッサーとして、電力効率の向上を図り、省エネルギーを実現します。インテル® AMXをはじめとする内蔵のアクセラレーター群によって、幅広いAIワークロードとユースケースにわたり推論と学習のパフォーマンスは10倍3、さらに前世代のインテル® プロセッサーと比べて消費電力当たりの性能は最大14倍向上しました。4

倫理にかなったAIの未来をサポート

 生成AIは、人間の能力を補完して増幅する強力なツールですが、このようなシステムの開発と導入は、人間中心のアプローチから始まることを忘れてはなりません。 責任ある AI のガバナンスに従い、倫理を損なうことなく、確実にAIの可能性を最大限に引き出せるシステムを構築する必要があります.AI倫理を担保する最適な方法は、オープン・エコシステムを通じて、学習とデータセットすべてにおいて透明性を醸成していくことです。透明性が確保されたAIサプライチェーンがあれば、AIは責任を持って開発され、このチェーンの細部に至るまで倫理的な負債のリスクは軽減されます。このような透明性が確保されているからこそ、開発者はデータセットやモデルの安定性を評価して、成果を再現し、自身のコンテキストの利用について倫理的な懸念があれば明確に提示することができます。 

生成AIは、大きなAIモザイクの1つのピースにすぎません。AIの民主化を目指すインテルの熱心な取り組みは、生成AIを含め、AIのあらゆる側面に対するコンピューティング・ニーズを満たすための、独自ハードウェアを持つインテルならではの強みと、オープン・エコシステムの支援、未来への適切な投資、これらすべての融合に表れています。

コンピューティングからツールまで民主化するインテルのアプローチは、誰もが大規模言語モデルを開発できるようにして、コスト削減と公平性の向上を実現するものです。例えば、インテルでは、筋萎縮性側索硬化症(ALS)の患者が使用するLLMをパーソナライズし、コミュニケーションの負担軽減に努めています。開発者コミュニティーでこのようなモデルのチューニングを可能にし、個々の用途に利用できるようにすることで、本当に必要としている人がもっとアクセスしやすくなります。

AIは大きく進展してはいますが、未知の発見はまだまだ尽きることはありません。インテルは、信頼を築き、選択肢を提供して、業界全体で相互運用性を確保するために、オープン・エコシステムの醸成を続けています。そして、分野を横断した総合的なアプローチに注力し、電力効率の高いソリューションを提供して、AIと人間のコラボレーションを通じ、人間が持つ能力を増幅させていきたいと考えています。オープンなアプローチこそ、前進するための最適な手段です。

1Supermicro L12 Validation Report of Gaudi2 HL-225H SYS-820GH-THR2, Oct. 20, 2022

2Measured on March 24th, 2023, using Habana Gaudi2 Deep Learning Server hosted on Intel Developer Cloud featuring 8 Gaudi2 HL-225H mezzanine cards and 3rd Gen Intel Xeon Processors running with SynapseAI® software version 1.8.0, with batch_size=1.

3See [A16] and [A17] at intel.com/performanceindex in the 4th Gen Intel Xeon Scalable processors section.

4See intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors.Claim E1.

Results may vary.