AI サーバーとは
サーバーとは、簡単に言うと、インターネットやその他の接続方法を介したデータベースやアプリケーションへのアクセスなど、ユーザーや企業に特定のサービスを提供するコンピューターです。AI サーバーという用語は、AI ワークロードの要求を処理するために特別に構築されたサーバーを指します。
コンポーネントの観点から、AI サーバーには、以下を含むさまざまなディスクリート・ハードウェア要素が組み込まれています。
- 汎用 CPU を含む AI プロセッサー
- FPGA、GPU、専用 AI ハードウェアなどの AI アクセラレーター
- イーサネットや Wi-Fi などのネットワーキング・テクノロジー
- 必要な周辺機器をサポートする USB や Thunderbolt™ ポートなどの I/O
- ファンレス設計など、アプリケーションのニーズに対応するためにいくつかの形状を取ることができるサーバー筐体
AI パイプライン全体の幅広いワークロードをサポートするために、AI サーバーはさまざまな要件を満たすように構築されています。これには、次のような考慮事項が含まれます。
- 処理能力: AI ハードウェアの選択は、対象のワークロードが必要とするコンピューティング性能の程度によって異なります。一部の AI サーバーは、特に統合 AI アクセラレーション機能を活用する場合、スタンドアロン CPU アーキテクチャーを使用して役割を果たすことができます。負荷の大きいワークロードでは、GPU や FPGA などのディスクリート・アクセラレーター・ハードウェアの導入が必要になる場合があります。
- ネットワーキングと I/O: ネットワーキングと I/O 機能は、AI サーバーのユースケースに不可欠な接続を提供します。必要な機能は、AI ワークロードが必要とする接続性の種類、ハイパフォーマンス・ネットワーキングが必要か否か、そしてサポートが必要な場合 IoT センサーなどの周辺機器デバイスの種類と数によって異なります。
- フットプリントと環境: AI サーバーはさまざまな場所に導入でき、その場所によってフォームファクターと環境要件が決まります。例えば、エッジでの AI サーバーは、小型で経済的、物理的フットプリントに厳しい要件があることが多く、熱、温度、湿気、ほこりなどの厳しい物理的条件に耐える必要があります。
AI のパワーを活用しようとする多くの組織にとって、コスト効率、適正化は重要な懸念事項です。AI サーバーは、ROI を最大化し、ビジネス要件を満たし、スケーラビリティーを促進するために、可能な限り最も効率的なハードウェア構成でワークロードの要件を満たす必要があります。
AI サーバーと AI PC の違いに注意することも重要です。AI PC は、AI タスクに取り組んだり、AI アプリケーションとのインターフェイスに使用するエンドユーザー・コンピューティング・デバイスです。一方、AI サーバーは、AI PC を含むほかのデジタルデバイスと主に接続され、サービスとアプリケーションを実現します。
AI サーバーの役割
AI サーバーは、AI テクノロジーの勢力図に不可欠であり、その使用は業界、ユースケース、テクノロジーのあらゆる場所に広がっています。必要に応じて、トレーニングから導入まで AI ワークロードをサポートします。
エッジでは、無駄のない効率的な AI サーバーが導入され、データソースに近いコンピューター・ビジョンなどの AI 運用を実行します。効率と導入の柔軟性を最大限に高めるために、エッジ AI サーバーは多くの場合、ディスクリート AI アクセラレーション・ハードウェアなしで設計されます。エッジ AI ワークロードは、通常、導入ワークロードであり、トレーニングや微調整よりもコンピューティング・ニーズが低いことがよくあります。AI プロセッサーとアクセラレーターの一種である FPGA は、エッジ AI サーバーに特に適しています。これは、FPGA が、電力効率と容易な再構成性を提供するとともに、主な AI 機能のパフォーマンスを加速させるためです。
オンプレミスとクラウドの両方のデータセンターにおいて、ディープラーニング・サーバーを含む AI サーバーは、高度なコンピューティング機能を提供することで、AI の微調整とトレーニングをサポートします。また、これらの環境では、コンピューター・ビジョン、チャットボット、生成 AI (GenAI) などの導入ワークロードをサポートするために使用されます。ハイパフォーマンス・コンピューティング (HPC) 環境に導入されるものを含む AI サーバーは、AI のニーズをサポートするため、GPU、FPGA などのディスクリート・ハードウェア・アクセラレーター、専用アクセラレーター製品を頻繁に組み込むことができます。
AI サーバーのメリット
AI ワークロードのニーズに合わせてハードウェア・コンポーネントで構築された AI サーバーは、企業にとって次のようなさまざまなメリットをもたらします。
- 最適化されたパフォーマンス: すべての AI ワークロードは、コンピューティングの要件が異なります。AI サーバー・アーキテクチャーをこれらのニーズに適合させることは、コスト効率の高い結果を得るために非常に重要です。とはいえ、AI ワークロードは、必要なレイテンシーとスループットを達成するために、要求の厳しいシステム要件を導入します。AI サーバーは、これらのニーズを満たすために意図的に構築され、多くの場合、AI アクセラレーター・テクノロジーを使用してニーズを満たすことができます。
- スケーラビリティー: 多くの場合、AI サーバーは、特に分散型エッジの導入や HPC 用途において、アプリケーション要件を満たすために大規模に必要とされます。AI サーバー・アーキテクチャーを慎重に構築し、サーバー管理プラットフォームなどのソフトウェア・ツールを活用することで、特定の AI ワークロード向けに AI サーバーのスケーラビリティーを向上できます。
- 消費電力を最適化: AI サーバーは、AI を活用した産業オペレーション、スマートシティー構想、金融予測や科学シミュレーションなどの非常に複雑な運用などのユースケースをサポートするために、非常に大規模に導入されることがよくあります。このような大規模な導入は、AI パイプラインの大幅な処理の必要性と相まって、一部の AI サーバーの導入に、大量かつ高価なエネルギーを消費させる可能性があります。AI サーバーのハードウェア・コンポーネントにより、組織はエネルギー支出をより適切に管理できます。統合 AI アクセラレーションと最適化は、特殊なハードウェア・アクセラレーターを必要とせずに、一部の AI ユースケースを強化するのにも役立ちます。
AI サーバー・ソリューション
業種やユースケースを問わず、ほぼすべての AI アプリケーションには、何らかのサーバーが関与しています。同様に、サーバーは AI ワークフローのあらゆる段階で中心的な役割を果たします。そのため、AI サーバー・ソリューションはワークロードのニーズに応じて異なります。
組織の AI サーバー・ソリューションの調達には、OEM からサーバーを直接購入する、ソリューション・プロバイダーと連携する、DIY で構築する、現在利用可能な多数のプロバイダーを通じてクラウド AI サーバーにアクセスするなど、いくつかの形態があります。最適なアプローチは、チームのスキルセット、予算、タイミング要件、ユースケースの全体的な複雑さとスケーラビリティーの要件によって異なります。
AI の導入には、大規模なサーバーのネットワークが必要になることが多いため、サーバー管理テクノロジーは、効果的な AI サーバー戦略を確立する上で重要な役割を果たします。幅広いサーバー管理ツールとプラットフォームを導入することで、深い可視性、リアルタイムの監視、自動運用を実現できます。