インテル® Xeon® スケーラブル・プロセッサーにより、実用的なインサイトを導き出し、ハードウェアベースのセキュリティーを活用して、ダイナミックなサービスデリバリーを展開できます。ハイブリッド・クラウド・インフラストラクチャーをサポートし、インメモリー分析、人工知能、自動運転、ハイパフォーマンス・コンピューティング (HPC)、ネットワークの変革などの極めて要求の厳しい用途に対応します。

このプラットフォームの利点を詳しく見る ›

インテル® Xeon® Platinum プロセッサー

  • 要求の厳しい、ミッション・クリティカルな AI、分析、ハイブリッド・クラウド・ワークロード
  • 最高水準の性能
  • ソケット数 2、4、8 以上に対応した優れた拡張性

インテル® Xeon® Gold プロセッサー

  • ワークロードに最適化されたパフォーマンス、高度な信頼性
  • 最高水準のメモリー速度、容量、相互接続
  • 強化された 2~4 のソケットの拡張性

インテル® Xeon® Silver プロセッサー

  • 必要不可欠なパフォーマンスと電力効率
  • メモリー速度の向上
  • 必要十分なレベルのコンピューティング、ネットワーク、ストレージ

インテル® Xeon® Bronze プロセッサー

  • 小規模ビジネスや基本的なストレージに適した手ごろなパフォーマンスを発揮
  • ハードウェア支援型セキュリティー
  • 信頼できる 2 ソケットの拡張性

クラウドへの投資でより多くのことを実行

インテル® テクノロジーならば、期待どおりパワフルな 1 米ドル当たりのパフォーマンスを実現できます。インテル® アーキテクチャーを基盤とするクラウドでは、データベース、ハイパフォーマンス・コンピューティング (HPC)、ウェブなど、データ負荷の高いクリティカルなワークロードを、より高いパフォーマンスで、総保有コストを抑えて実行することが可能です。1 2 3 4 5

パフォーマンスが 2.84 倍向上

HammerDB、PostgreSQL*、MongoDB* など、データベース・ワークロードで、1 米ドル当たりのパフォーマンスが最大 2.84 倍向上。1

詳しくはこちら

パフォーマンスが 4.15 倍向上

High Performance LINPACK および LAMMPS で 1 米ドル当たりのパフォーマンスが最大 4.15 倍向上。2

詳しくはこちら

パフォーマンスが 1.74 倍向上

サーバーサイド Java* で 1 米ドル当たりのパフォーマンスが向上、WordPress* PHP/HHVM で 1 米ドル当たりのパフォーマンスが 1.74 倍向上。3

詳しくはこちら

パフォーマンスが 2.25 倍向上

メモリー帯域幅を消費するアプリケーションで 1 米ドル当たりのパフォーマンスが最大 2.25 倍向上。4

詳しくはこちら

インテルのデータ中心ポートフォリオ

高速、

インテル® イーサネットでデータを高速送信

インテル® イーサネットにより、データを高速送信し、新しいサービスと機能を迅速に導入。

インテル® イーサネットの詳細 ›

大容量、

1 世代に 1 度のイノベーション

インテル® Optane™ DC テクノロジーなら、より大容量かつ複雑なデータセットの最適化、保存、移動が可能になります。この革新的なイノベーションは、さまざまな製品とソリューションで構成されており、パーシステント・メモリー、大容量メモリープール、高速キャッシュ、高速ストレージにより、ストレージおよびメモリーの階層構造における重大なギャップを埋めます。

インテル® Optane™ DC パーシステント・メモリー >

インテル® Optane™ DC SSD ›

すべてに対応する処理能力

インサイトを支援するパフォーマンス

インテルの業界をリードするワークロード最適化プラットフォームは、AI アクセラレーションが搭載されており、シームレスなパフォーマンス基盤となります。マルチクラウドからインテリジェントなエッジおよびバックまで、革新的な影響を及ぼすデータを迅速に取得できます。

インテル® Xeon® プロセッサー ›

インテル® FPGA ›

インテル® Xeon® スケーラブル・プラットフォーム: データ中心のイノベーションを実現するための基盤

画期的なプラットフォーム・イノベーションにより、デジタル変革を実現。

インサイトを支援するパフォーマンス

業界をリードするワークロード最適化パフォーマンスを実現する第 2 世代インテル® Xeon® スケーラブル・プロセッサーは、AI アクセラレーションが搭載されており、シームレスなパフォーマンス基盤となります。マルチクラウドからインテリジェントなエッジおよびバックまで、革新的な影響を及ぼすデータを迅速に取得できます。

プラットフォームのベンチマークを見る

ハードウェア支援型セキュリティーにより、ビジネスの復元力を向上

設計段階からデータ保護を強化。インテルのハードウェア支援型セキュリティーは、ワークロードの整合性とパフォーマンスを維持しつつ、脆弱性への悪意のある攻撃を阻止します。データの保存時 / 使用時 / 転送時の暗号化を効率化し、信頼性の高いデータサービス提供を実現します。

データセンター向けインテル® セキュリティー・ライブラリー (インテル® SecL - DC)

信頼性の高いインフラストラクチャーを構築

俊敏なサービス提供

コンピューティング、ネットワーク、ストレージにおけるプラットフォーム革新とハードウェア支援仮想化により、驚きの B to B 体験および B to C 体験を継続的に実現します。この際、コスト効率が高く、柔軟性および拡張性に優れたマルチクラウドを実現する新たな次元のメモリー・イノベーションを活用します。

インテル® インフラストラクチャー・マネジメント・テクノロジー

データ中心の主要ワークロードを変革

第 2 世代インテル® Xeon® スケーラブル・プロセッサーと、インテルの業界をリードするデータ中心ポートフォリオが、インフラストラクチャーの最新化、および AI、分析、クラウド、HPC の詳細情報の迅速な取得にどう役立つかについてご説明します。

詳しくはこちら

インテル® Select ソリューションにより、価値創出までの時間を短縮

ベンチマーク・テストと検証が厳格に実施され、実環境でのパフォーマンス向けに最適化されたソリューションにより、データセンターの導入を簡素化します。インテル® Xeon® プロセッサーを基盤にしており、今日の重要なワークロードに対応できるインフラストラクチャーを短期間で構築できるソリューションです。

詳しくはこちら

インテルのデータ中心型プラットフォームの詳細

こちらのビデオでは、データを中心に据えたインテルの製品ポートフォリオが、データセンターの中心からエッジに至るまでさまざまなメリットを引き出すことについてご紹介しています。

免責事項

1

結果はインテル® P2CA が AWS* の価格体系 (米ドル / 時間、標準 1 年間、一括前払いなし) を使用して算出 (2019年7月12日時点)。
AWS* EC2 R5 インスタンスおよび R5a インスタンス (https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。

ワークロード: HammerDB* PostgreSQL*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 1.85 倍 (値が大きいほど高性能)
データベース: HammerDB* – PostgreSQL* (値が大きいほど高性能):
AWS* R5.24xlarge (インテル) インスタンス、HammerDB* 3.0 PostgreSQL* 10.2、メモリー: 768GB、ハイパーバイザー: KVM、ストレージタイプ: EBS io1、ディスク容量 200GB、ストレージ総容量 200GB、Docker* バージョン: 18.06.1-ce、RedHat* Enterprise Linux* 7.6、3.10.0-957.el7.x86_64、共有バッファー 6400MB、256 ウェアハウス、96 ユーザー。スコア「NOPM」439931、測定はインテルが2018年12月11日 ~ 2018年12月14日に実施。
AWS* R5a.24xlarge (AMD*) インスタンス、HammerDB* 3.0 PostgreSQL* 10.2、メモリー: 768GB、ハイパーバイザー: KVM、ストレージタイプ: EBS io1、ディスク容量 200GB、ストレージ総容量 200GB、Docker* バージョン: 18.06.1-ce、RedHat* Enterprise Linux* 7.6、3.10.0-957.el7.x86_64、共時バッファー 6400MB、256 ウェアハウス、96 ユーザー。スコア「NOPM」212903、測定はインテルが2018年12月20日に実施。

ワークロード: MongoDB*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 2.84 倍 (値が大きいほど高性能)
データベース: MongoDB* (値が大きいほど高性能):
AWS* R5.24xlarge (インテル) インスタンス、MongoDB* v4.0、ジャーナル無効、ファイルシステムへの同期無効、wiredTigeCache=27GB、maxPoolSize = 256、7 MongoDB* インスタンス、14 クライアント VM、1 YCSB クライアント / VM、96 スレッド / YCSB クライアント、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 1229288 ops/sec、測定はインテルが 2018年12月10日に実施。
AWS* R5a.24xlarge (AMD*) インスタンス、MongoDB* v4.0、ジャーナル無効、ファイルシステムへの同期無効、wiredTigeCache=27GB、maxPoolSize = 256、7 MongoDB* インスタンス、14 クライアント VM、1 YCSB クライアント / VM、96 スレッド / YCSB クライアント、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 388596 ops/sec、測定はインテルが 2018年12月10日に実施。
詳細については、www.intel.co.jp/benchmarks (英語) を参照してください。

2

結果はインテル P2CA が AWS* の価格体系 (米ドル / 時間、標準 1 年間、一括前払いなし) を使用して算出 (2019年7月12日時点)。
AWS* EC2 M5 インスタンスおよび M5a インスタンス (https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。

ワークロード: LAMMPS*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 4.15 倍 (値が大きいほど高性能)
HPC 材料科学 – LAMMPS (値が大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、LAMMPS バージョン: 2018-08-22 (コード: https://lammps.sandia.gov/download.html)、ワークロード: 水滴 – 512K 個、インテル® ICC 18.0.3.20180410、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、48 MPI ランク、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=2、スコア 137.5 タイムステップ / 秒、測定はインテルが 2018年10月31日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、LAMMPS バージョン: 2018-08-22 (コード: https://lammps.sandia.gov/download.html)、ワークロード: 水滴 – 512K 個、インテル® ICC 18.0.3.20180410、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、48 MPI ランク、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=2、スコア 55.8 タイムステップ / 秒、測定はインテルが 2018年11月7日に実施。
AMD* が AVX2 をサポートするように変更 (AMD は AVX2 しかサポートしないため、この変更は必要でした):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

ワークロード: High-performance Linpack*
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス / 米ドルは 4.15 倍 (値が大きいほど高性能)
HPC Linpack (値が大きいほど高性能):
AWS* M5.24xlarge (インテル®) インスタンス、HP Linpack バージョン 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite ディレクトリー: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64)、インテル® ICC 18.0.3.20180410 (AVX512 有効)、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=24、2 MPI プロセス、スコア 3152 Gb/s、測定はインテルが 2018年10月31日に実施。
AWS* M5a.24xlarge (AMD) インスタンス、HP Linpack バージョン 2.2、(HPL ソース: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz、バージョン 2.2、icc (ICC) 18.0.2 20180210 を BLIS ライブラリー・バージョン 0.4.0 のコンパイルとリンクに使用、https://github.com/flame/blis、追加コンパイラー・フラグ: -O3 -funroll-loops -W -Wall –qopenmp、make arch=zen OMP_NUM_THREADS=8、6 MPI プロセス)、 インテル® ICC 18.0.3.20180410 (AVX2 有効)、インテル® MPI ライブラリー Linux* OS 版、バージョン 2018 アップデート 3 ビルド 20180411、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS=8、6 MPI プロセス、スコア 677.7 Gb/s、測定はインテルが 2018年11月7日に実施。

3

結果はインテル® P2CA が AWS* の価格体系 (米ドル / 時間、標準 1 年間、一括前払いなし) を使用して算出 (2019年7月12日時点)。
AWS* EC2 M5 インスタンスおよび M5a インスタンス (https://aws.amazon.com/ec2/instance-types/) 上で実施したパフォーマンス / 米ドル・テスト、96 基の vCPU インテル® Xeon® スケーラブル・プロセッサーの 1 米ドル当たりのパフォーマンスを AMD EPYC* プロセッサーの数値と比較。

ワークロード: サーバーサイド Java* 1 JVM
結果: AMD EPYC* のパフォーマンス / 米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス/米ドル = 1.74 倍 (値が大きいほど高性能)
サーバーサイド Java* (大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、Java* サーバー・ベンチマーク (NUMA バインディングなし)、2JVM、OpenJDK* 10.0.1、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 101767 トランザクション/秒、測定はインテルが 2018年11月16日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、Java* サーバー・ベンチマーク (NUMA バインディングなし)、2JVM、OpenJDK* 10.0.1、RedHat* Enterprise Linux* 7.5、カーネル 3.10.0-862.el7.x86_64、スコア 52068 トランザクション / 秒、測定はインテルが 2018年11月16日に実施。

ワークロード: Wordpress* PHP / HHVM*
結果: AMD EPYC* のパフォーマンス/米ドルをベースラインの 1 とすると、インテル® Xeon® スケーラブル・プロセッサーのパフォーマンス/米ドルは 1.75 倍 (値が大きいほど高性能)
ウェブ・フロント・エンド Wordpress* (値が大きいほど高性能):
AWS* M5.24xlarge (インテル) インスタンス、oss-performance/wordpress Ver 4.2.0、Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic、ワークロード・バージョン: 4.2.0、クライアント・スレッド数: 200、PHP 7.2.12-1、perfkitbenchmarker_version=v1.12.0-944-g82392cc、Ubuntu* 18.04、カーネル Linux* 4.15.0-1025-aws、スコア 3626.11 TPS、測定はインテルが 2018年11月16日に実施。
AWS* M5a.24xlarge (AMD*) インスタンス、oss-performance/wordpress Ver 4.2.0、Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic、ワークロード・バージョン: 4.2.0、クライアント・スレッド数: 200、PHP 7.2.12-1、perfkitbenchmarker_version=v1.12.0-944-g82392cc、Ubuntu* 18.04、カーネル Linux* 4.15.0-1025-aws、スコア 1838.48 TPS、測定はインテルが 2018年11月16日に実施。
詳細については、www.intel.co.jp/benchmarks (英語) を参照してください。

4

AWS* M5.4xlarge (インテル) インスタンス、McCalpin Stream (OMP バージョン)、(出典: https://www.cs.virginia.edu/stream/FTP/Code/stream.c)、インテル® ICC 18.0.3 20180410 (AVX512 有効)、-qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c、Red Hat* Enterprise Linux 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS: 8、KMP_AFFINITY: proclist=[0-7:1]、granularity=thread, explicit、スコア 81216.7 MB/s、測定はインテルが 2018年12月6日に実施。
AWS* M5a.4xlarge (AMD) インスタンス、McCalpin Stream (OMP バージョン)、(出典: https://www.cs.virginia.edu/stream/FTP/Code/stream.c)、インテル® ICC 18.0.3 20180410 (AVX2 有効)、-DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 –qopenmp -qopt-streaming-stores always -o $OUT stream.c、Red Hat* Enterprise Linux 7.5、カーネル 3.10.0-862.el7.x86_64、OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1]、granularity=thread,explicit、スコア 32154.4 MB/s、測定はインテルが 2018年12月6日に実施。
OpenFOAM の免責宣言。この提供物は、OpenFOAM ソフトウェアを作成して、www.openfoam.com 経由で配布し、さらに OpenFOAM* および OpenCFD* 商標を所有者している OpenCFD Limited から承認を受けたものでも保証を受けたものではありません。
リザーブド・インスタンス料金表に基づく AWS* の価格体系 (2019年1月12日時点、標準 1 年間) (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Linux / Unix の 1 時間単位のオンデマンド使用価格体系 (https://aws.amazon.com/ec2/pricing/on-demand/)。

5

インテル® Xeon® Platinum 9282 プロセッサーとインテル® ディープラーニング・ブースト (インテル® DL ブースト) で推論のスループットが最大 30 倍に向上: 2019年2月26日にインテルが社内で実施したテストの結果に基づきます。プラットフォーム: Dragon rock 2 ソケットインテル® Xeon® Platinum 9282 プロセッサー (ソケット当たり 56 コア)、HT 有効、ターボ有効、メモリー総容量 768GB (24 スロット / 32GB / 2933MHz)、BIOS: SE5C620.86B.0D.01.0241.112020180249、CentOS* 7 カーネル 3.10.0-957.5.1.el7.x86_64、ディープラーニング・フレームワーク: インテル® Optimization for Caffe* バージョン: https://github.com/intel/caffe d554cbf1、ICC 2019.2.187、MKL DNN バージョン: v0.17 (コミットハッシュ: 830a10059a018cd2634d94195140cf2d8790a75a)、モデル: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt、BS=64、データレイヤーなし合成データ: 3x224x224、56 インスタンス / 2 ソケット、データタイプ: INT8 vs. インテルによるテスト結果 (2017年7月11日時点): 2S インテル® Xeon® Platinum 8180 プロセッサー CPU @ 2.50GHz (28 コア)、HT 無効、ターボ無効、スケーリング・ガバナーは intel_pstate ドライバーから「performance」に設定、384GB DDR4-2666 ECC RAM 搭載。CentOS Linux* リリース 7.3.1611 (コア)、Linux* カーネル 3.10.0-514.10.2.el7.x86_64。SSD: インテル® SSD データセンター S3700 シリーズ (800GB、2.5 インチ SATA 6Gb/s、25nm、MLC)。パフォーマンスを測定時の設定: 環境変数: KMP_AFFINITY='granularity=fine, compact‘、OMP_NUM_THREADS=56、CPU 周波数設定: cpupower frequency-set -d 2.5G -u 3.8G -g performance。Caffe: (http://github.com/intel/caffe/)、リビジョン f96b759f71b2281835f690af267158b82b150b5c。推論は “caffe time --forward_only” コマンドで、トレーニングは “caffe time” コマンドで測定。“ConvNet” トポロジーには、合成データセットを使用。その他のトポロジーについては、データをローカルストレージに保存し、トレーニング前にメモリーにキャッシュ。トポロジーの仕様の詳細については、次のサイトを参照。https://github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50)。インテル® C++ コンパイラー (バージョン 17.0.2 20170213)、インテル® マス・カーネル・ライブラリー (インテル® MKL) スモール・ライブラリー (バージョン 2018.0.20170425)。Caffe は「numactl -l」で実行。