クラウドへの投資でより多くのことを実行
インテル® テクノロジーならば、期待どおりパワフルな 1 米ドル当たりのパフォーマンスを実現できます。インテル® アーキテクチャーを基盤とするクラウドでは、データベース、ハイパフォーマンス・コンピューティング (HPC)、ウェブなど、データ負荷の高いクリティカルなワークロードを、より高いパフォーマンスで、総保有コストを抑えて実行することが可能です。1 2 3 4 5
パフォーマンスが 2.84 倍向上
HammerDB、PostgreSQL*、MongoDB* など、データベース・ワークロードで、1 米ドル当たりのパフォーマンスが最大 2.84 倍向上。1
パフォーマンスが 1.74 倍向上
サーバーサイド Java* で 1 米ドル当たりのパフォーマンスが向上、WordPress* PHP/HHVM で 1 米ドル当たりのパフォーマンスが 1.74 倍向上。3
ハイブリッド・クラウドの注目トピック
アプリケーションのイノベーションを促進するハイブリッド・クラウド
ハイブリッド・クラウドでアプリケーションのイノベーションを促進する方法と、企業の IT 能力や開発力を向上させる方法について説明します。
ハイブリッド・クラウドで開発者を支援
各企業がどのようにハイブリッド・クラウドを活用して IT 能力を向上させ、開発者を支援しているか、Forrester Consulting による洞察を見ていきましょう。
ハイブリッド・クラウド・ワークロードの最適化
ビジネスに最適なクラウド・ソリューションを構築することは簡単ではありません。IT インフラストラクチャーの決定方法について詳細をご確認ください。
高度な分析におけるハイブリッド・クラウドの利点
ここで紹介したインテルと Forrester が提供する内容の範囲で、高度な分析におけるハイブリッド・クラウドの利点を実現する方法について説明します。
ハイブリッド・クラウド戦略に関する洞察
IT 戦略の不可欠な要素としてハイブリッド・クラウドを採用するビジネスモデルへの転換が進む中、インテルはハイブリッド・クラウドへの道を歩む企業を支援します。
1 分で誤解を解消
インテルの「1 分で誤解を解消」ビデオシリーズが、ハイブリッド・クラウドにまつわるよくある誤解を払拭します。
ハイブリッド・クラウドの採用を促す要因は?
インテルの Bill Giard と StrongArm の Bryant Eadon 氏が、ハイブリッド・クラウドの採用を後押しする要素と導入を阻む課題について、数分延長された「One-Minute Misconception (1 分で誤解を解決)」で説明します。
ハイブリッド・クラウド環境構築のためのハイブリッド・クラウド成功法と、よくある 4 つの「障壁」を成功の原動力に変える方法をご覧ください。
インテル® Select ソリューションによる IT 変革の促進
ハイブリッド・クラウド向けインテル® Select ソリューションが、イノベーションを促進し、強力なサービスの提供を実現します。
Microsoft* Azure Stack* ハイブリッド・クラウドの概要
インテル® Xeon® プロセッサーを基盤とする Microsoft* Azure* Stack ハイブリッド・クラウドにより、イノベーションが迅速化され、オンプレミスで強力なサービスを利用できるようになります。
ハイパーコンバージド・インフラストラクチャーにおけるコラボレーション
VMware vSAN* テクノロジーとインテル® Xeon® プロセッサーおよびインテル® Optane™ テクノロジーを組み合わせると、パフォーマンスが 13 倍向上します。
インテル® Optane™ DC パーシステント・メモリーでビジネス・インテリジェンスを加速
データの永続性、パフォーマンス、容量、手ごろな価格という画期的な組み合わせにより、最も価値の高いワークロードを加速させてください。
現時点での課題を解決
GoDaddy がハイブリッド・クラウドでインフラストラクチャーの TCO を削減
GoDaddy は IT インフラストラクチャーの TCO を削減しながらイノベーションを加速するために、ハイブリッド・クラウドに移行しました。
IT インフラストラクチャーの最新化
単にソフトウェアをアップグレードするだけが最新化ではありません。従来型のインフラストラクチャーが原因でビジネスが妨げられることのないようにしてください。
GDPR: 今日の脅威に対抗する厳格なデータ保護対策
インテル® アーキテクチャー基盤のソリューションは、EU 一般データ保護規則 (GDPR) に伴うさまざまな課題に効果的に対処できる柔軟性と内蔵機能を提供します。
ビジネスに最適なクラウド
ハイブリッド・クラウドの利点
プライベート・クラウドの利点
パブリック・クラウドの利点
ともに未来を築く
インテルは主要な業界パートナーと連携して、コンピューティング、分析、AI の分野で、エッジからクラウドまでソリューションを提供しています。インテルによるソフトウェア、サービス、プラットフォームの最適化の詳細をご覧ください。
クラウドリソース
インテル® クラウド・ビルダーズ
コミュニティーに参加すると、技術的なハードルを引き下げてイノベーションを加速することができます。企業やクラウド・サービス・プロバイダーは、導入の容易な、完全に最適化されたインフラストラクチャーを基盤としてクラウドの構築、運用、最適化を行う方法について洞察を獲得できます。
クラウド・サービス・プロバイダー
クラウドサービスの拡大や人工知能 (AI)、仮想現実 (VR) などのテクノロジーの出現により、ワークロードに最適化された効率的で俊敏性に優れたサービスに対する需要が増加しています。インテル® プラットフォームの高度なテクノロジーとプログラムを利用するクラウド・サービス・プロバイダー (CSP) にとって大きなチャンスが生まれています。
関連製品とテクノロジー
インテル® Xeon® スケーラブル・プロセッサー
要求の厳しいアプリケーションをサポートし、実用的な洞察を促進するために、ワークロードに最適化されています。
インテル® イーサネット製品
10/25/40 GbE 対応のインテル® イーサネット 700 シリーズは、広範な相互運用性、高い信頼性、強化された運用効率性を提供します。
免責事項
https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。
ワークロード: HammerDB* PostgreSQL*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 1.85 倍 (値が大きいほど高性能)
データベース: HammerDB* – PostgreSQL* (値が大きいほど高性能):
AWS* R5.24xlarge (インテル) インスタンス、HammerDB* 3.0 PostgreSQL* 10.2、メモリー: 768GB、ハイパーバイザー: KVM、ストレージタイプ: EBS io1、ディスク容量 200GB、ストレージ総容量 200GB、Docker* バージョン: 18.06.1-ce、RedHat* Enterprise Linux* 7.6、3.10.0-957.el7.x86_64、共有バッファー 6400MB、256 ウェアハウス、96 ユーザー。スコア「NOPM」439931、測定はインテルが2018年12月11日 ~ 2018年12月14日に実施。
AWS* R5a.24xlarge (AMD*) インスタンス、HammerDB* 3.0 PostgreSQL* 10.2、メモリー: 768GB、ハイパーバイザー: KVM、ストレージタイプ: EBS io1、ディスク容量 200GB、ストレージ総容量 200GB、Docker* バージョン: 18.06.1-ce、RedHat* Enterprise Linux* 7.6、3.10.0-957.el7.x86_64、共時バッファー 6400MB、256 ウェアハウス、96 ユーザー。スコア「NOPM」212903、測定はインテルが2018年12月20日に実施。
ワークロード: MongoDB*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 2.84 倍 (値が大きいほど高性能)
データベース: MongoDB* (値が大きいほど高性能):
AWS* R5.24xlarge (インテル) インスタンス、MongoDB* v4.0、ジャーナル無効、ファイルシステムへの同期無効、wiredTigeCache=27GB、maxPoolSize = 256、7 MongoDB* インスタンス、14 クライアント VM、1 YCSB クライアント / VM、96 スレッド / YCSB クライアント、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 1229288 ops/sec、測定はインテルが 2018年12月10日に実施。
AWS* R5a.24xlarge (AMD*) インスタンス、MongoDB* v4.0、ジャーナル無効、ファイルシステムへの同期無効、wiredTigeCache=27GB、maxPoolSize = 256、7 MongoDB* インスタンス、14 クライアント VM、1 YCSB クライアント / VM、96 スレッド / YCSB クライアント、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 388596 ops/sec、測定はインテルが 2018年12月10日に実施。
詳細については、www.intel.co.jp/benchmarks (英語) を参照してください。
結果はインテル P2CA が AWS* の価格体系 (米ドル / 時間、標準 1 年間、一括前払いなし) を使用して算出 (2019年7月12日時点)。
AWS* EC2 M5 インスタンスおよび M5a インスタンス (https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。
ワークロード: LAMMPS*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 4.15 倍 (値が大きいほど高性能)
HPC 材料科学 – LAMMPS (値が大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、LAMMPS バージョン: 2018-08-22 (コード: https://lammps.sandia.gov/download.html)、ワークロード: 水滴 – 512K 個、インテル® ICC 18.0.3.20180410、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、48 MPI ランク、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=2、スコア 137.5 タイムステップ / 秒、測定はインテルが 2018年10月31日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、LAMMPS バージョン: 2018-08-22 (コード: https://lammps.sandia.gov/download.html)、ワークロード: 水滴 – 512K 個、インテル® ICC 18.0.3.20180410、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、48 MPI ランク、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=2、スコア 55.8 タイムステップ / 秒、測定はインテルが 2018年11月7日に実施。
AMD* が AVX2 をサポートするように変更 (AMD は AVX2 しかサポートしないため、この変更は必要でした):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
ワークロード: High-performance Linpack*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 4.15 倍 (値が大きいほど高性能)
HPC Linpack (値が大きいほど高性能):
AWS* M5.24xlarge (インテル®) インスタンス、HP Linpack バージョン 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite ディレクトリー: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64)、インテル® ICC 18.0.3.20180410 (AVX512 有効)、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=24、2 MPI プロセス、スコア 3152 Gb/s、測定はインテルが 2018年10月31日に実施。
AWS* M5a.24xlarge (AMD) インスタンス、HP Linpack バージョン 2.2、(HPL ソース: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz、バージョン 2.2、icc (ICC) 18.0.2 20180210 を BLIS ライブラリー・バージョン 0.4.0 のコンパイルとリンクに使用、https://github.com/flame/blis、追加コンパイラー・フラグ: -O3 -funroll-loops -W -Wall –qopenmp、make arch=zen OMP_NUM_THREADS=8、6 MPI プロセス)、 インテル® ICC 18.0.3.20180410 (AVX2 有効)、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=8、6 MPI プロセス、スコア 677.7 Gb/s、測定はインテルが 2018年11月7日に実施。
結果はインテル® P2CA が AWS* の価格体系 (米ドル / 時間、標準 1 年間、一括前払いなし) を使用して算出 (2019年7月12日時点)。
AWS* EC2 M5 インスタンスおよび M5a インスタンス (https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。
ワークロード: サーバーサイド Java* 1 JVM
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス/米ドル = 1.74 倍 (値が大きいほど高性能)
サーバーサイド Java* (大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、Java* サーバー・ベンチマーク (NUMA バインディングなし)、2JVM、OpenJDK* 10.0.1、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 101767 トランザクション/秒、測定はインテルが 2018年11月16日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、Java* サーバー・ベンチマーク (NUMA バインディングなし)、2JVM、OpenJDK* 10.0.1、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 52068 トランザクション / 秒、測定はインテルが 2018年11月16日に実施。
ワークロード: Wordpress* PHP / HHVM*
結果: AMD EPYC* のパフォーマンス/米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス/米ドルは 1.75 倍 (値が大きいほど高性能)
ウェブ・フロント・エンド Wordpress* (値が大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、oss-performance/wordpress Ver 4.2.0、Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic、ワークロード・バージョン: 4.2.0、クライアント・スレッド数: 200、PHP 7.2.12-1、perfkitbenchmarker_version=v1.12.0-944-g82392cc、Ubuntu* 18.04、カーネル Linux* 4.15.0-1025-aws、スコア 3626.11 TPS、測定はインテルが 2018年11月16日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、oss-performance/wordpress Ver 4.2.0、Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic、ワークロード・バージョン: 4.2.0、クライアント・スレッド数: 200、PHP 7.2.12-1、perfkitbenchmarker_version=v1.12.0-944-g82392cc、Ubuntu* 18.04、カーネル Linux* 4.15.0-1025-aws、スコア 1838.48 TPS、測定はインテルが 2018年11月16日に実施。
詳細については、www.intel.co.jp/benchmarks (英語) を参照してください。
AWS* M5.4xlarge (インテル) インスタンス、McCalpin Stream (OMP バージョン)、(出典: https://www.cs.virginia.edu/stream/FTP/Code/stream.c)、インテル® ICC 18.0.3 20180410 (AVX512 有効)、-qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c、Red Hat* Enterprise Linux 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS: 8、KMP_AFFINITY: proclist=[0-7:1]、granularity=thread, explicit、スコア 81216.7 MB/s、測定はインテルが 2018年12月6日に実施。
AWS* M5a.4xlarge (AMD) インスタンス、McCalpin Stream (OMP バージョン)、(出典: https://www.cs.virginia.edu/stream/FTP/Code/stream.c)、インテル® ICC 18.0.3 20180410 (AVX2 有効)、-DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 –qopenmp -qopt-streaming-stores always -o $OUT stream.c、Red Hat* Enterprise Linux 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1]、granularity=thread,explicit、スコア 32154.4 MB/s、測定はインテルが 2018年12月6日に実施。
OpenFOAM の免責宣言。この提供物は、OpenFOAM ソフトウェアを作成して、www.openfoam.com 経由で配布し、さらに OpenFOAM* および OpenCFD* 商標を所有者している OpenCFD Limited から承認を受けたものでも保証を受けたものではありません。
リザーブド・インスタンス料金表に基づく AWS* の価格体系 (2019年1月12日時点、標準 1 年間) (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Linux / Unix の 1 時間単位のオンデマンド使用価格体系 (https://aws.amazon.com/ec2/pricing/on-demand/)。
インテル® Xeon® Platinum 9282 プロセッサーとインテル® ディープラーニング・ブースト (インテル® DL ブースト) で推論のスループットが最大 30 倍に向上: 2019年2月26日にインテルが社内で実施したテストの結果に基づきます。プラットフォーム: Dragon rock 2 ソケットインテル® Xeon® Platinum 9282 プロセッサー (ソケット当たり 56 コア)、HT 有効、ターボ有効、メモリー総容量 768GB (24 スロット / 32GB / 2933MHz)、BIOS: SE5C620.86B.0D.01.0241.112020180249、CentOS* 7 カーネル 3.10.0-957.5.1.el7.x86_64、ディープラーニング・フレームワーク: インテル® Optimization for Caffe* バージョン: https://github.com/intel/caffe d554cbf1、ICC 2019.2.187、MKL DNN バージョン: v0.17 (コミットハッシュ: 830a10059a018cd2634d94195140cf2d8790a75a)、モデル: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt、BS=64、データレイヤーなし合成データ: 3x224x224、56 インスタンス / 2 ソケット、データタイプ: INT8 vs. インテルによるテスト結果 (2017年7月11日時点): 2S インテル® Xeon® Platinum 8180 プロセッサー CPU @ 2.50GHz (28 コア)、HT 無効、ターボ無効、スケーリング・ガバナーは intel_pstate ドライバーから「performance」に設定、384GB DDR4-2666 ECC RAM 搭載。CentOS Linux* リリース 7.3.1611 (コア)、Linux* カーネル 3.10.0-514.10.2.el7.x86_64。SSD: インテル® SSD データセンター S3700 シリーズ (800GB、2.5 インチ SATA 6Gb/s、25nm、MLC)。パフォーマンスを測定時の設定: 環境変数: KMP_AFFINITY='granularity=fine, compact‘、OMP_NUM_THREADS=56、CPU 周波数設定: cpupower frequency-set -d 2.5G -u 3.8G -g performance。Caffe: (http://github.com/intel/caffe/)、リビジョン f96b759f71b2281835f690af267158b82b150b5c。推論は “caffe time --forward_only” コマンドで、トレーニングは “caffe time” コマンドで測定。“ConvNet” トポロジーには、合成データセットを使用。その他のトポロジーについては、データをローカルストレージに保存し、トレーニング前にメモリーにキャッシュ。トポロジーの仕様の詳細については、次のサイトを参照。https://github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50)。インテル® C++ コンパイラー (バージョン 17.0.2 20170213)、インテル® マス・カーネル・ライブラリー (インテル® MKL) スモール・ライブラリー (バージョン 2018.0.20170425)。Caffe は「numactl -l」で実行。