インテル、第 4 世代インテル® Xeon® スケーラブル・プロセッサー・ファミリー、インテル® マックス・シリーズ CPU / GPU を発売

すべての主要なCSP、OEM、ODM、ISVにわたる業界内での幅広い採用を強調するとともに、AI、 ネットワーキング、ハイパフォーマンス・コンピューティング分野でのパフォーマンス向上を実証

ニュースハイライト

  • AWS、Cisco、Cloudera、CoreWeave、Dell Technologies、Dropbox、Google Cloud、Ericsson、富士通、Google Cloud、Hewlett Packard Enterprise、IBM Cloud、Inspur、IONOS、Lenovo、ロスアラモス国立研究所、Microsoft Azure、NVIDIA、Oracle Cloud、OVH Cloud、PhoenixNAP、RedHat、SAP、SuperMicro、Telefonica、VMwareを筆頭に、顧客企業とパートナー企業による採用が拡大
  • AI、アナリティクス、ネットワーキング、ストレージ、ハイパフォーマンス・コンピューティング(HPC)といった主要ワークロードを動かす世界中のCPUの中で最多のアクセラレーターを内蔵する第4世代インテル® Xeon® スケーラブル・プロセッサーとインテル® マックス・シリーズ製品ファミリー。特定用途に合わせて設計されたワークロード優先のアプローチで、トップクラスのパフォーマンスを実現
  • インテルで最もサステナブルなデータセンター向けプロセッサーとなる第4世代インテル® Xeon® スケーラブル・プロセッサー。多種多様な機能により電力と性能を管理し、CPUリソースを最大限に活用して、顧客企業のサステナビリティー目標達成をサポート
  • 第4世代インテル® Xeon® プラットフォームを導入する顧客企業は、内蔵アクセラレーター群を有効活用することで、目的のワークロードに対し前世代と比べて消費電力当たり平均2.9倍高い性能を見込むことができ*1、最適化電力モードでは性能損失を最小限に抑えながらCPU当たり最大70ワット*2の省電力化が可能になり、52%から66%の総保有コスト(TCO)を削減*3

インテル コーポレーション(米国カリフォルニア州サンタクララ)は本日、インテル史上で最も重要な製品リリースの1つとして、第4世代インテル® Xeon® スケーラブル・プロセッサー(開発コード名:Sapphire Rapids)、インテル® Xeon® CPUマックス・シリーズ(開発コード名:Sapphire Rapids HBM)、インテル® データセンターGPUマックス・シリーズ(開発コード名:Ponte Vecchio)を発表しました。AIからクラウド、ネットワークとエッジ、世界で最も強力なスーパーコンピューターまで、データセンターの性能、効率性、セキュリティーをさらに躍進させる、多彩な新機能を提供します。

インテルは、顧客やパートナー企業との密な連携を通じて誕生した第4世代インテル® Xeon® プラットフォームにより、差別化を図ったソリューションとシステムを大規模に展開し、多くの企業が直面している非常に難しいコンピューティングの課題に取り組んでいきます。専用に設計されたワークロード優先のアクセラレーターと、特定ワークロードに合わせ高度に最適化したソフトウェアを提供するためのインテル独自のアプローチにより、最も効率の良い消費電力で最適なパフォーマンスを発揮し、全体的な総保有コスト(TCO)を最適化することが可能になっています。

プレスキット: 第 4 世代インテル® Xeon® スケーラブル・プロセッサー・ファミリー

また、第4世代インテル® Xeon® スケーラブル・プロセッサーは、インテルで最もサステナブルなデータセンター向けプロセッサーとして、多種多様な機能により電力と性能を管理し、CPUの機能を最大限に活用して、顧客企業のサステナビリティー目標達成をサポートします。

インテル コーポレーション 上席副社長 兼 データセンター&AI事業本部 本部長のサンドラ・リベラ(Sandra Rivera)は「第4世代インテル® Xeon® スケーラブル・プロセッサーとインテル® マックス・シリーズ製品ファミリーの発表は、データセンター分野でのリーダーシップを再び活性化し、新たな領域での採用を拡大していくために、インテルの革新を加速するうえで重要な瞬間と言えます。第4世代インテル® Xeon® スケーラブル・プロセッサーとインテル® マックス・シリーズ製品ファミリーは、顧客が期待している、セキュアな環境で実際の使用環境での必要十分なトップクラスのパフォーマンスと信頼性を提供し、短期間で価値を引き出し、イノベーションを加速します」と述べています。

第4世代インテル® Xeon® プロセッサー・ファミリーは、すでに市場に出荷され、現在利用されているどのデータセンター向けプロセッサーとも異なる製品で、インテルが特定用途に設計したワークロード優先の戦略とアプローチに基づいて展開していきます。

史上最多の内蔵アクセラレーター搭載がもたらすトップレベルのパフォーマンスとサステナビリティーのメリット

現時点ですべてのインテル® Xeon® プロセッサーの導入数は1億を超え、その市場はITサービスを運営するオンプレミスのサーバーから、インターネットのトラフィックを制御するネット機器、エッジでの無線基地局コンピューティング、新しいas a Serviceビジネスモデルを提供するクラウドサービスまで、多岐にわたります。

データセンター、ネットワーク、インテリジェント・エッジなど、数十年にも及びイノベーションを率いてきたリーダーシップを基盤に構築されたこの最新の第4世代インテル® Xeon® プロセッサーは、世界中のあらゆるCPUの中で最多のアクセラレーターを内蔵し、トップレベルのパフォーマンスを実現して、AI、アナリティクス、ネットワーキング、ストレージ、HPCと幅広い用途にわたり、顧客企業が最も重視するコンピューティングの課題を解決します。

サステナビリティー

第4世代インテル® Xeon® プロセッサーに内蔵アクセラレーターを増やしたことで、インテルはプラットフォーム・レベルでの省電力化を実現し、ディスクリート型のアクセラレーターを追加する必要はなくなり、顧客のサステナビリティー目標達成を後押しします。さらに、新しい最適化電力モードでは、ソケットの消費電力を最大20%削減しながら、一部のワークロードで性能への影響を5%未満に抑えることができます*11。これに加え、空冷/水冷の新たなイノベーション技術が、データセンターの総エネルギー消費量を削減。第4世代インテル® Xeon® プロセッサーの製造には、最新の水資源再生設備を備えたインテルの工場拠点で90%以上再生可能電力が利用されます。

人工知能(AI)

AIの分野では、インテル® アドバンスト・マトリクス・エクステンション(インテル® AMX)対応のアクセラレーターを内蔵した第4世代インテル® Xeon® プロセッサーでPyTorchを実行し、リアルタイムの推論と学習処理で最大10倍*5,6のパフォーマンスを達成しました。第4世代インテル® Xeon® プロセッサーは、広範なAIワークロードにわたり推論と学習処理パフォーマンスの限界をさらに数レベル引き上げます。インテル® Xeon® CPUマックス・シリーズは、こうした可能性を自然言語処理(NLP)の領域へも広げ、大規模な言語処理モデルを最大20倍*12高速化すると見込まれています。インテル® AI ソフトウェア・スイートの提供により、開発者は最適なAIツールを活用して生産性を向上しながら、AI開発を短期化できるようになります。このスイートはワークステーションからの移植性が高く、クラウド内でもあるいはエッジまでもスケールアウトが可能です。また、さまざまなビジネス分野を横断して広く普及しているAIユースケースを対象に、マシンラーニングやディープラーニングの400を超えるAIモデルで検証済みです。

ネットワーキング

第4世代インテル® Xeon® プラットフォームは、高性能かつ低レイテンシーのネットワークとエッジ・ワークロードに特化して最適化したプロセッサー・ファミリーを展開します。このプロセッサー・ファミリーは、ソフトウェア・デファインドの未来に向け、通信はもちろん、小売、製造、スマートシティーと幅広い業界を加速するうえで基盤となる不可欠な要素です。5Gコア・ワークロードでは、内蔵のアクセラレーター群がスループット拡大とレイテンシー低減を図りながら、高度な電力管理によってプラットフォームの応答性と効率性の両方を強化します。また第4世代インテル® Xeon® プロセッサーは、電力消費量を増加することなく、仮想無線アクセス・ネットワーク(vRAN)の容量を前世代と比べて最大2倍に拡大します。これにより通信サービス・プロバイダーは消費電力当たり性能を倍増させ、パフォーマンス、拡張性、エネルギー効率といった重要な要件を満たすことができます。

ハイパフォーマンス・コンピューティング

第4世代インテル® Xeon® プロセッサーとインテル® マックス・シリーズ製品ファミリーでは、HPCやAIなどの要求の厳しい演算ワークロードに対して、世界が直面する最難関の課題を解決すべく、oneAPIのオープン・ソフトウェア・エコシステムを通じ、CPUとGPUを統合する拡張性の高いバランスのとれたアーキテクチャーを取り入れました。

インテル® Xeon® CPUマックス・シリーズは、広帯域幅メモリーを内蔵した初の、そして唯一の、x86ベース・プロセッサーです。コード変更の必要なく、多くのHPCワークロードを高速化します。インテルの最高集積度プロセッサーとなるインテル® データセンターGPUマックス・シリーズは、さまざまな顧客からの幅広いニーズに応え、複数のフォームファクターで展開される予定です。

インテル® Xeon® CPUマックス・シリーズは、64ギガバイトの広帯域幅メモリー(HBM2e)をパッケージ上に実装し、HPCとAIのワークロードでデータ・スループットを大幅に拡大します。第3世代インテル® Xeon® スケーラブル・プロセッサーの最上位モデルと比べて、エネルギーや地球システムのモデリングなど実環境のアプリケーションで平均して最大3.7倍*10のパフォーマンス向上が確認されました。

さらにインテル® データセンターGPUマックス・シリーズは、1,000億を超えるトランジスターを47タイルのパッケージに組み込み、スループットを新たに数レベル引き上げ、物理学、金融サービス、ライフサイエンスなど高負荷ワークロードにも対応します。インテル® Xeon® CPUマックス・シリーズと組み合わせ、この統合プラットフォームで分子動力学シミュレーターLAMMPSを実行し、前世代と比べて最大12.8倍*13のパフォーマンスを達成しました。

これまでで最も多機能かつセキュアなインテル® Xeon® プラットフォーム

第4世代インテル® Xeon® プラットフォームは、インテルがこれまで実現してきた中でも最大級のプラットフォーム・トランスフォーメーションです。驚異的なアクセラレーションだけでなく、1つのパッケージにIntel 7プロセス技術で構築したタイルを最大4つ組み込み、インテルのEMIBパッケージング技術を用いた接続を採用し、製造においても躍進を示しました。DDR5によるメモリー帯域幅の拡大、PCIe5.0とCompute Express Link(CXL)1.1インターコネクト対応によるI/O帯域幅の拡大を含め、多彩な新機能を提供します。

その基盤となるのがセキュリティーです。インテルは、第4世代インテル® Xeon® プラットフォームによってコンフィデンシャル・コンピューティングの極めて包括的なポートフォリオを業界に投入し、データ・セキュリティーを強化して、規制コンプライアンスに準拠したデータ主権を確立します。インテルは、インテル® ソフトウェア・ガード・エクステンションズ(インテル® SGX)によりアプリケーションを隔離して保護する、今なお唯一無二の半導体プロバイダーであり、プライベート、パブリックを問わず、クラウドからエッジまであらゆる環境でコンフィデンシャル・コンピューティングの攻撃面を可能な限り縮小します。さらに、仮想マシン(VM)を隔離する新しいインテル® トラスト・ドメイン・エクステンションズ(インテル® TDX)も加わりました。これは、既存のアプリケーションを機密性が確保された環境へ移植するのに最適なテクノロジーで、まずはMicrosoft Azure、Alibaba Cloud、Google Cloud、IBM Cloudに導入される予定となっています。

最後に、第4世代インテル® Xeon® プラットフォームのモジュール型アーキテクチャーがあるからこそ、メインストリームの汎用SKUから、クラウド、データベース、アナリティクス、ネットワーキング、ストレージ、シングルソケットのエッジ機器と多岐にわたるユースケース専用のSKUまで、インテルは50近くの顧客ニーズに応える多種多様なプロセッサーを提供することができます。第4世代インテル® Xeon® プロセッサー・ファミリーは、オンデマンドで対応でき、コア数と動作周波数の異なるモデルを揃え、多様なアクセラレーターを組み合わせた製品で、電力枠とメモリー・スループットなど顧客が実環境で求めるさまざまな要件を満たし、目的のユースケースに合った相応しいフォームファクターを提供します。

SKUテーブル: 第 4 世代インテル® Xeon® およびインテル Xeon CPU Max シリーズ向け SKU

¹ Geomean of following workloads: RocksDB (IAA vs ZTD), ClickHouse (IAA vs ZTD), SPDK large media and database request proxies (DSA vs out of box), Image Classification ResNet-50 (AMX vs VNNI), Object Detection SSD-ResNet-34 (AMX vs VNNI), QATzip (QAT vs zlib)

² 1-node, Intel Reference Validation Platform, 2x Intel® Xeon 8480+ (56C, 2GHz, 350W TDP), HT On, Turbo ON, Total Memory: 1 TB (16 slots/ 64GB/ 4800 MHz), 1x P4510 3.84TB NVMe PCIe Gen4 drive, BIOS: 0091.D05, (ucode:0x2b0000c0), CentOS Stream 8, 5.15.0-spr.bkc.pc.10.4.11.x86_64, Java Perf/Watt w/ openjdk-11+28_linux-x64_bin, 112 instances, 1550MB Initial/Max heap size, Tested by Intel as of Oct 2022.

³ ResNet50 Image Classification

New Configuration: 1-node, 2x pre-production 4th Gen Intel® Xeon® Scalable 8490H processor (60 core) with Intel® Advanced Matrix Extensions (Intel AMX), on pre-production SuperMicro SYS-221H-TNR with 1024GB DDR5 memory (16x64 GB), microcode 0x2b0000c0, HT On, Turbo On, SNC Off, CentOS Stream 8, 5.19.16-301.fc37.x86_64, 1x3.84TB P5510 NVMe, 10GbE x540-AT2, Intel TF 2.10, AI Model=Resnet 50 v1_5, best scores achieved: BS1 AMX 1 core/instance (max. 15ms SLA), using physical cores, tested by Intel November 2022. Baseline: 1-node, 2x production 3rd Gen Intel Xeon Scalable 8380 Processor ( 40 cores) on SuperMicro SYS-220U-TNR , DDR4 memory total 1024GB (16x64 GB), microcode 0xd000375, HT On, Turbo On, SNC Off, CentOS Stream 8, 5.19.16-301.fc37.x86_64, 1x3.84TB P5510 NVMe, 10GbE x540-AT2, Intel TF 2.10, AI Model=Resnet 50 v1_5, best scores achieved: BS1 INT8 2 cores/instance (max. 15ms SLA), using physical cores, tested by Intel November 2022.

2022年11月時点で推定される第 3 世代インテル® Xeon® 8380 (DLBoost 搭載 RN50) の 50 サーバーフリートの場合:

CapEx costs: $1.64M

OpEx costs (4 year, includes power and cooling utility costs, infrastructure and hardware maintenance costs): $739.9K

Energy use in kWh (4 year, per server): 44627, PUE 1.6

Other assumptions: utility cost $0.1/kWh, kWh to kg CO2 factor 0.42394

For a 17 server fleet of 4th Gen Xeon 8490H (RN50 w/AMX), estimated as of November 2022:

CapEx costs: $799.4K

OpEx costs (4 year, includes power and cooling utility costs, infrastructure and hardware maintenance costs): $275.3K

Energy use in kWh (4 year, per server): 58581, PUE 1.6

AI -- 55% lower TCO by deploying fewer 4th Gen Intel® Xeon® processor-based servers to meet the same performance requirement. See [E7] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.

Database -- 52% lower TCO by deploying fewer 4th Gen Intel® Xeon® processor-based servers to meet the same performance requirement. See [E8] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.

HPC -- 66% lower TCO by deploying fewer Intel® Xeon® CPU Max processor-based servers to meet the same performance requirement. See [E9] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable processors. Results may vary.

4 Geomean of HP Linpack, Stream Triad, SPECrate2017_fp_base est, SPECrate2017_int_base est. See [G2, G4, G6] at intel.com/processorclaims: 4th Gen Intel Xeon Scalable.

5 Up to 10x higher PyTorch real-time inference performance with built-in Intel® Advanced Matrix Extensions (Intel® AMX) (BF16) vs. the prior generation (FP32)

PyTorch geomean of ResNet50, Bert-Large, MaskRCNN, SSD-ResNet34, RNN-T, Resnext101.

6 Up to 10x higher PyTorch training performance with built-in Intel® Advanced Matrix Extensions (Intel® AMX) (BF16) vs. the prior generation (FP32)

PyTorch geomean of ResNet50, Bert-Large, DLRM, MaskRCNN, SSD-ResNet34, RNN-T.

7 Estimated as of 8/30/2022 based on 4th generation Intel® Xeon® Scalable processor architecture improvements vs 3rd generation Intel® Xeon® Scalable processor at similar core count, socket power and frequency on a test scenario using FlexRAN™ software. Results may vary.

8 Up to 95% fewer cores and 2x higher level 1 compression throughput with 4th Gen Intel Xeon Platinum 8490H using integrated Intel QAT vs. prior generation.

8490H: 1-node, pre-production platform with 2x 4th Gen Intel® Xeon Scalable Processor (60 core) with integrated Intel QuickAssist Accelerator (Intel QAT), QAT device utilized=8(2 sockets active), with Total 1024GB (16x64 GB) DDR5 memory, microcode 0xf000380, HT On, Turbo Off, SNC Off, Ubuntu 22.04.1 LTS, 5.15.0-47-generic, 1x 1.92TB Intel® SSDSC2KG01, QAT v20.l.0.9.1 , QATzip v1.0.9 , ISA-L v2.3.0, tested by Intel September 2022.

8380: 1-node, 2x 3rd Gen Intel Xeon Scalable Processors( 40 cores) on Coyote Pass platform, DDR4 memory total 1024GB (16x64 GB), microcode 0xd000375, HT On, Turbo Off, SNC Off, Ubuntu 22.04.1 LTS, 5.15.0-47-generic, 1x 1.92TB Intel SSDSC2KG01,QAT v1.7.l.4.16, QATzip v1.0.9 , ISA-L v2.3.0, tested by Intel October 2022.

9 Up to 3x higher RocksDB performance with 4th Gen Intel Xeon Platinum 8490H using integrated Intel IAA vs. prior generation.

8490H: 1-node, pre-production Intel platform with 2x 4th Gen Intel Xeon Scalable Processor (60 cores) with integrated Intel In-Memory Analytics Accelerator (Intel IAA), HT On, Turbo On, Total Memory 1024GB (16x64GB DDR5 4800), microcode 0xf000380, 1x 1.92TB INTEL SSDSC2KG01, Ubuntu 22.04.1 LTS, 5.18.12-051812-generic, QPL v0.1.21,accel-config-v3.4.6.4, ZSTD v1.5.2, RocksDB v6.4.6 (db_bench), tested by Intel September 2022.

8380: 1-node, 2x 3rd Gen Intel Xeon Scalable Processors( 40 cores) on Coyote Pass platform, HT On, Turbo On, SNC Off, Total Memory 1024GB (16x64GB DDR4 3200), microcode 0xd000375, 1x 1.92TB INTEL SSDSC2KG01, Ubuntu 22.04.1 LTS, 5.18.12-051812-generic, ZSTD v1.5.2, RocksDB v6.4.6 (db_bench), tested by Intel October 2022.

10 Intel® Xeon® 8380: Test by Intel as of 10/7/2022. 1-node, 2x Intel® Xeon® 8380 CPU, HT On, Turbo On, Total Memory 256 GB (16x16GB 3200MT/s DDR4), BIOS Version SE5C620.86B.01.01.0006.2207150335, ucode revision=0xd000375, Rocky Linux 8.6, Linux version 4.18.0-372.26.1.el8_6.crt1.x86_64, YASK v3.05.07

Intel® Xeon® CPU Max Series: Test by Intel as of ww36’22. 1-node, 2x Intel® Xeon® CPU Max SeriesHT On, Turbo On, SNC4, Total Memory 128 GB (8x16GB HBM2 3200MT/s), BIOS Version SE5C7411.86B.8424.D03.2208100444, ucode revision=0x2c000020, CentOS Stream 8, Linux version 5.19.0-rc6.0712.intel_next.1.x86_64+server, YASK v3.05.07.

11 Up to 20% system power savings utilizing 4th Gen Xeon Scalable with Optimized Power mode on vs off on select workloads including SpecJBB, SPECINT and NIGNX key handshake.

12 AMD Milan: Tested by Numenta as of 11/28/2022. 1-node, 2x AMD EPYC 7R13 on AWS m6a.48xlarge, 768 GB DDR4-3200, Ubuntu 20.04 Kernel 5.15, OpenVINO 2022.3, BERT-Large, Sequence Length 512, Batch Size 1

Intel® Xeon® 8480+: Tested by Numenta as of 11/28/2022. 1-node, 2x Intel® Xeon® 8480+, 512 GB DDR5-4800, Ubuntu 22.04 Kernel 5.17, OpenVINO 2022.3, Numenta-Optimized BERT-Large, Sequence Length 512, Batch Size 1

Intel® Xeon® Max 9468: Tested by Numenta as of 11/30/2022. 1-node, 2x Intel® Xeon® Max 9468, 128 GB HBM2e 3200 MT/s, Ubuntu 22.04 Kernel 5.15, OpenVINO 2022.3, Numenta-Optimized BERT-Large, Sequence Length 512, Batch Size 1

13 Intel® Xeon® 8380: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® 8380 CPU, HT On, Turbo On, Total Memory 256 GB (16x16GB 3200MT/s, Dual-Rank), BIOS Version SE5C6200.86B.0020.P23.2103261309, ucode revision=0xd000270, Rocky Linux 8.6, Linux version 4.18.0-372.19.1.el8_6.crt1.x86_64

Intel® Xeon® CPU Max Series HBM: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 128 GB HBM2e, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0

Intel® Data Center GPU Max Series with DDR Host: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 1024 GB DDR5-4800 + 128 GB HBM2e, Memory Mode: Flat, HBM2e not used, 6x Intel® Data Center GPU Max Series, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, Agama pvc-prq-54, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0

Intel® Data Center GPU Max Series with HBM Host: Test by Intel as of 10/28/2022. 1-node, 2x Intel® Xeon® Max 9480, HT On, Turbo On, Total Memory 128 GB HBM2e, 6x Intel® Data Center GPU Max Series, BIOS EGSDCRB1.DWR.0085.D12.2207281916, ucode 0xac000040, Agama pvc-prq-54, SUSE Linux Enterprise Server 15 SP3, Kernel 5.3.18, oneAPI 2022.3.0