低コストで優れたパワー

Amazon Web Services (AWS) の Artificial Intelligence 担当 GM である Matt Wood 氏が、インテル® Xeon® スケーラブル・プロセッサーを活用することで AWS がいかにして顧客の生産性を高めているのか説明します。

Amazon とインテルは、10 年以上にわたって、共同で新技術の開発に取り組んできました。両社は新しい EC2 インスタンス・ファミリーを共同開発し、劇的な成果を上げています。低コストで優れたコンピューティング・パワーを実現することで、顧客の生産性を高めます。

昨年 11月に発表された新しい C5 インスタンス・ファミリーは、カスタムバージョンのインテル® Xeon® ...スケーラブル・プロセッサーをベースに、新しいマイクロアーキテクチャーや新しいハードウェア・アクセラレーション機能を統合しており、インテルの AVX-512 命令セットをサポートしています。

インテル® Xeon® スケーラブル・プロセッサーと、C5 インスタンス・ファミリーのネットワーキング機能やアクセラレーション機能を組み合わせることで、ハイパフォーマンス・コンピューティング、マシンラーニング、人工知能の世界を大きく変えます。どのようなデータ規模であっても、これまで以上に簡単かつ費用対効果に優れた方法でデータを収集し、幅広いデータベースやストレージサービスに格納して、マシンラーニングやディープラーニングのカスタムモデルを構築します。

今日のビジネスでは、マシンラーニング・ワークロードの導入先として、どのプラットフォームよりも AWS が選択されています。例えば、大手保険・資産コンサルティング企業の Aon は、AWS のマシンラーニングを活用して金融シミュレーションを実行することで、数日間かかっていたシミュレーション処理時間を数分にまで短縮することに成功しています。

また、インテル® Xeon® スケーラブル・プロセッサーのコンピューティング・パワーにより、大量のデータを処理できるようになるため、マシンラーニングに基づく革新的な製品やユーザー体験を実現できるようになります。

AWS は、インテルとのコラボレーションの下、最新バージョンのインテル® マス・カーネル・ライブラリー (インテル® MKL) を活用して、ディープラーニング・エンジンを最適化しました。また、インテル® Xeon® スケーラブル・プロセッサーと新しい C5 インスタンス・ファミリーを組み合わせることで、推論性能が 500 倍以上高まっています。

ほかにも、インテルと AWS の密接なコラボレーションの成果として、Apache Spark* や BigDL など、使い慣れたツールを使用して、AWS 上で簡単に分散型ディープラーニング・アプリケーションを開発できます。

ハイパフォーマンス・コンピューティングにより、複雑な問題や、コンピューティング要件の厳しい問題、データ集約的な問題を解決できるようになります。HPC アプリは、多くの場合、優れたネットワーク性能、高速ストレージ、大量のメモリー、高度なコンピューティング機能を必要とするため、新しい C5 をはじめとするコンピューティング最適化インスタンスにとって格好のワークロードとなります。このようなワークロードを AWS 上で実行することで、インテル® Xeon® プロセッサーを搭載した膨大な数の EC2 インスタンスに簡単にアクセスできるようになります。これにより、一般的なオンプレミス HPC 環境では到底不可能な費用対効果に優れた方法で高速調査を実現できます。

例えば、Novartis は、10,600 個の EC2 インスタンス、約 87,000 個のコンピューティング・コアを使用することで、39 年分の計算化学をわずか 9 時間で実行し、がんターゲットに対して 1,000 万の化合物をスクリーニングしました。このような劇的な改善により、医療、ライフサイエンス、金融サービス、科学調査、航空宇宙、自動車、製造、エネルギーといったさまざまな産業において、「何が実現できるのか」の常識が変わろうとしています。

AWS は、今後もインテルとのコラボレーションを継続し、顧客が最高のパフォーマンスをベースに AWS 上でイノベーションを継続できるように取り組んでいきます。

イノベーションをはじめましょう


収益を高め、次世代クラウドサービスを実現するインテルのクラウド・サービス・プロバイダー向けリソースについてご確認ください。