デスクトップ PC で実験作業をする科学研究者のチームが、顕微鏡下で対象物を観察している。

HPC 環境で AI ワークロードを拡張

HPC 環境において、動的な AI ワークロードを導入および拡張し、新たなインサイトを引き出して成果を加速し、新しい機会を実現する方法をご覧ください。

重要ポイント

  • 大規模なデータセット、価値創造までの時間の短縮、深いインサイトを求める需要により、AI で加速された HPC のニーズが高まっています。

  • HPC における AI には、メモリー帯域幅の最大化と、データ集約型のワークロードの需要を満たすコンピューティングを実現するテクノロジーが必要です。

  • インテル® ハイパフォーマンス・ハードウェアとオープンソース・ソフトウェア・ソリューションは、科学的な発見に適した HPC を高速化するよう設計されています。

author-image

投稿者:

AI で加速された HPC の新時代へ

長年にわたり、エンドユーザー、システムビルダー、ソリューション・プロバイダー、開発者は、世界で最も困難で複雑な問題を解決するために HPC のパワーを活用してきました。しかし、データの絶え間ない増加、価値創造までの時間を短縮する必要性、科学的発見に求められる高度で深い洞察の需要、さらに時間とコストという制約が、現在のシステムの限界を押し上げています。

同時に、AI アルゴリズムは高度化が進んでおり、ここ数年よりもはるかに大規模なデータセットを処理できるようになったため、増大する科学のワークロードに対処するのに理想的となっています。AI と HPC のパワーを併用している組織は、現在と同等以上の精度を維持しながら、インサイトを得るまでの時間を短縮できます。これにより、世界で最も複雑で差し迫った問題に取り込むことが可能になるでしょう。

例えば、米国イリノイ州にある Argonne 国立研究所の Argonne Leadership Computing Facility (ALCF) は、将来的に Aurora エクサスケール HPC システムの拠点になる予定です。HPC、ハイパフォーマンス・データ分析、AI の融合を通じて、科学研究の進歩を支えることになります。ALCF で予定されている最新のプロジェクトには、AI を使用した核融合エネルギー炉の状態のモデル化、さまざまなヒト疾患の進行と局在を把握する非侵襲的な患者固有流体モデルの開発、核融合炉におけるマルチフィジックスの理解を深めるなどがあります。

お客様の成功事例をいくつか紹介します。その他の組織や研究機関が、どのように AI で加速された HPC を活用し、正確でインパクトのある科学的イノベーションを推進しているかが確認できます。

HPC における AI の課題を理解する

お客様独自の AI で加速される HPC イニシアチブの実施プロセスを始めるに当たって、生じ得る一般的な課題を理解しておくことが重要です。

 

  • AI と HPC 構成については、従来から CPU アーキテクチャー内で AI と HPC の要件にはトレードオフの関係があります。AI を多用するワークロードは、通常コア数を速度のために犠牲にしますが、HPC ワークロードは、高コア数とコアツーコアの帯域幅が大きい優れたコンピューティング・パフォーマンスを求めます。
  • モデリング、シミュレーション、AI など、データ集約型のワークロードの増加に伴い、パフォーマンスのボトルネックが生じます。このボトルネックを解消し、高速化するために設計された広帯域幅メモリーを搭載したソリューションが必要です。
  • HPC における AI の複雑性の高さは、導入を妨げる主な要因となっています。AI と HPC のスキルセットは非常に特定分野に特化しているため、両方の分野に熟練した人材を見つけるのは困難です。しかし、このような人材がなければ、AI で加速された HPC のイニシアチブは前進しない可能性があります。

 

このような障害をお客様が克服できるよう、インテルは AI 利用に関して HPC コミュニティーと緊密に連携し、専門知識やアイデアを共有すると同時に、当社の主要な HPC テクノロジーを使用した革新的なソリューションを提供します。

AI で加速された HPC の導入計画を作成する

AI で HPC プロジェクトを高速化するために不可欠なステップは、組織のニーズと要件に合わせた包括的な導入計画を作成して、研究や発見に適したテクノロジーを確実に導入することです。

お客様の HPC 環境に強力な AI 機能を追加する際に、より詳細な情報を得たうえで意思決定ができるよう、確認すべき質問を次に挙げます。

 

  • 出力に求められる時間と精度の要件は?
  • どのような種類のアルゴリズムのバイアスに注意し、避けるべきか?
  • 感度や特異性の要件を満たすために許容できる妥協点は?
  • モデルの選択肢、データセット、出力の大きさと方向性は変化するか?
  • プロジェクトのコード変更は、どこで、どのように発生するか?
  • コード変更を実行する最善の方法は?
  • ユースケースごとに大量のコード書き換えが必要になるか?
  • 実行されるワークロードの種類と数は?ワークロードの実行頻度は?ワークロードの実行は継続的か?

 

これらの質問に対する回答が、テクノロジー・パートナーと共にシステム設計の選択肢を検討する際に使用する要件の強固な基盤となります。

AI で加速される HPC の発見を実現するテクノロジーを選択する

HPC における AI の可能性を実現する鍵は、動的なワークロード・プロファイルの需要に合わせてメモリー帯域幅とコンピューティングを最大化するために、連携して動作する適切なテクノロジーを選択することです。

インテルは、オープンな標準ベースのクロスアーキテクチャー・フレームワーク上に構築された包括的な HPCAI テクノロジーのセットを提供し、導入を簡素化するだけでなく、独自のワークロードの需要を満たすために必要な、柔軟なパワーとパフォーマンスをもたらします。さらに、インテルの堅牢なオープンソース・ソフトウェア・ツールは、開発者がコードを一度書くだけで、データセンターとクラウド全体のあらゆるシステムにデプロイできるため、コード開発を加速させるのに役立ちます。

高いパフォーマンスと効率性を備えたハードウェアを選択する

AI で加速された HPC テクノロジーの独自の組み合わせを構築するには、インテル® Xeon® スケーラブル・プロセッサー搭載といった、強力なハードウェア基盤から始めることをお勧めします。こういった CPU には、インテル® アドバンスト・マトリクス・エクステンション (インテル® AMX)インテル® アドバンスト・ベクトル・エクステンション 512 (インテル® AVX-512) など、AI と HPC 向けの統合インテル® アクセラレーター・エンジンが搭載されており、卓越したパフォーマンスを発揮して要求の厳しい HPC と AI ワークロードをサポートします。

大規模なトレーニングと推論に重点を置いた、非常に複雑なワークロードを扱う場合、より高レベルのスループットを実現する、より専門的なハードウェアを検討することをお勧めします。

 

  • インテル® Gaudi® AI アクセラレーターは、データ・サイエンティストとマシンラーニング・エンジニアが、わずか数行のコードでトレーニングを高速化し、新しいモデルの構築や既存のモデルの移行を行えるよう、高効率でスケーラブルなコンピューティングを提供します。インテル® Gaudi® AI アクセラレーターは、驚異的な電力効率を実現し、コスト削減とサステナビリティーの向上にも貢献します。
  • インテル® Xeon® CPU Max® シリーズ・プロセッサーは、将来の AI HPC 機能に必要な画期的なパフォーマンスを提供すると同時に、メモリーに制約のあるワークロードのボトルネックを解消します。インテル® Xeon® CPU Max® シリーズは、実環境の HPC と AI ワークロードにおいて、競合製品と比較して最大 4.8 倍高いパフォーマンスを発揮できる、広帯域幅メモリーを搭載した最初で唯一の x86 ベース・プロセッサーです。1インテル® Max® シリーズ CPU の性能を最大限に引き出し、最も困難なワークロードに対応するために、インテル® データセンター GPU Max シリーズは、ディスクリート GPU として統合できます。1,000 億個以上のトランジスターを 1 つのパッケージに収め、高速かつコヒーレントな統合ファブリックであるインテル® Xe Link を搭載しているため、どのようなフォームファクターでも柔軟に動作し、スケールアップとスケールアウトを可能にします。

 

現在、世界中の組織が、これらのインテル® テクノロジーを使用して研究を進めています。例えば、Texas Advanced Computing Center (TACC) は、インテル® Xeon® CPU Max シリーズ、インテル® データセンター GPU Max シリーズ、インテル® Xeon® スケーラブル・プロセッサーを使用して、全米の学術研究を支援しています。一方、アルゼンチンの Servicio Meteorológico Nacional (SMN) が所有しているラテンアメリカで最も強力な学術研究用スーパーコンピューターは、インテル® Max シリーズ CPU と GPU 上に構築されています。

強力なソフトウェア・ツールで、HPC と AI プロジェクトを加速する

AI と HPC の需要が高まる中で、開発者はアーキテクチャー全体で簡単に拡張できる高速な HPC アプリを構築する方法を探索する上で、いくつかの課題に直面しています。HPC クラスターの機能にソフトウェアを移行し、ハイパフォーマンスな並列コンピューティングを効率的にプログラミングすることは、開発者にとって多大な時間が必要です。同時に、開発者は、できるだけ多くのハードウェアの種類やコンピューティング・モデルでコードが確実に動作するようにしながら、アーキテクチャー全体で特化したワークロードを高速化する必要があります。この作業にも時間とコストがかかります。

インテルは、開発者がこういった課題を克服できるように、HPC ソフトウェアと HPC 最適化に対してオープンなアプローチを採用し、異種ネットワーク間で動作するオープンな言語、インテル® oneAPI ツールキットを提供します。これにより、開発者は高性能で並列コンピューティングに最適化された、クロスアーキテクチャーのアプリケーションを迅速かつ容易に構築できます。

インテル® oneAPI ベース・ツールキットインテル® oneAPI HPC ツールキットを使用することで、開発者は複数の種類のアーキテクチャーの HPC アプリケーションを、より簡単かつ迅速に構築、分析、最適化、拡張できます。AI と分析のワークロードを扱う開発者、データ・サイエンティスト、研究者向けに、インテル® oneAPI AI アナリティクス・ツールキットを提供しています。これは、使い慣れた Python ツールと AI フレームワークを備え、AI パイプラインを加速し、パフォーマンスを最大化し、より効率的な開発を実現する相互運用性を提供します。さらに、HPC と AI のツールキット両方が、ローレベルのコンピューティング最適化のための oneAPI ライブラリーを使用して構築されています。開発者は、oneAPI で HPC アプリケーションを開発することで、独自規格に基づくプログラミング・コードのロックインを回避し、発見を最大化し、新たな機会を明らかにできます。

インテルで HPC と AI のワークロードを加速

HPC における AI 実装に向けた次のステップに進む際は、インテルの先進的なテクノロジー、広範なパートナー・エコシステム、コミュニティーとの深いつながりを通じて、お客様の取り組みを簡素化し、加速させるお手伝いをします。インテルがお客様の組織向けに提供する内容と導入に関する詳細については、インテルの担当者またはインテル® AI テクノロジー・パートナーまたは HPC テクノロジー・パートナーにお問い合わせください。