AI at the Edge の役割
最終目標が医用画像処理ワークフローの自動化による診断の迅速化であっても、金属製造工場での作業効率の向上であっても、エッジにおける AI の役割は同じです。つまり、データを活用してより迅速な対応を図ることです。AI の領域内では、これは推論と呼ばれるタスクを通じて実現します。
推論中に、意思決定、アラートの送信、インサイトの提供、画像のソートなどのタスクの実行等、事前に学習済みの AI モデルにリアルタイムの入力データがフィードバックされます。
エッジ AI は、カメラ、データソース、センサーなどのモノのインターネット (IoT) デバイスを頻繁に使用し、現実世界のデータを収集して分析します。エネルギー会社や公益事業会社が、タワー、パイプライン、グリッドを悪意のある攻撃者から保護したいと考えているとします。セキュリティー動画とセンサーデータをエッジで処理し、脅威をほぼリアルタイムで自動的にオペレーターに警告します。データをほぼ瞬時に収集して処理する機能により、エッジ AI は組織の機能を大幅に拡大し、さまざまな AI ベースのアプリケーションと体験をエッジで実現します。銀行のセルフサービス端末で稼働するチャットボットから、自動車線支援機能と衝突回避機能を搭載した自動車、街路や工場で発生する安全上の危険や事故のほぼリアルタイムな警告まで、エッジ AI のユースケースはさまざまな業界で非常に幅広く見られます。
エッジ AI と従来のエッジ AI
従来、AI は主にクラウドベースで行われてきました。データセンターに送信され、そこで処理されて分析後に返却されます。このようなクラウド中心のコンピューティング・インフラストラクチャー・モデルは、時間的制約が大きい企業でのプロセスや業務には最適ではありません。
多くの企業向け推論のユースケースには、データを非常に素早く分析できるメリットがあります。多くの場合、リアルタイムのデータ処理が必要で、レイテンシー要件が厳格化しています。多くの場合、接続性が低い場所に導入する必要があります。そのため、クラウドとの間で送信される際のデータパケット損失による遅延やエラーが発生しやすくなっています。
これらのニーズと課題に対応するために、エッジ AI は、工場、病院、店舗などのデータが発生する場所でデータ分析を実行します。アルゴリズムは現場で展開され、データは中央のハブまたは内蔵プロセッサーを搭載したエッジデバイスで直接処理されます。
ハイブリッド・エッジ AI
エッジ AI とクラウド AI という 2 つのアプローチは、相互に排他的なものではありません。AI at the Edge が進歩するにつれて、推論ワークロードをエッジとクラウド間に分散させるハイブリッド・エッジ・アプローチが広く採用されることが予想されます。このアイデアは、エッジにおける軽量でほぼリアルタイムのインサイトは、クラウドのより深いコンテキストによって強化されるという考え方です。
ハイブリッド・エッジは、エッジの速度・効率性とスケーラブルなクラウドベースのリソースを組み合わせることで、多様な導入環境とパフォーマンス要件に対応する最先端のアプリケーションを容易にします。ハイブリッド・アプローチにより、企業は複数のモデルからの入力を自社のプロセスに集約することも可能になります。
エッジ AI はコンピューター・ビジョンと関連付けられることが多く、エッジ AI の環境は急速に拡大しており、生成 AI (生成 AI)、自然言語 (テキスト音声合成、チャットボット)、ロボット工学などのマルチモデル・アプリケーションが含まれています。これらの新たなユースケースは、業界に革命を起こすことが期待されています。製造業では、生成 AI を活用したソフトウェアが、俊敏でダイナミックなサプライチェーンを推進するほか、自動運転車とスマート・インフラストラクチャーは、スマートシティーの環境への負担軽減と交通の流れの最適化に役立つ可能性があります。
エッジ AI のメリット
エッジ AI は、企業が複雑な課題への取り組みを幾度となく支援し、現実世界の問題を解決します。AI をエッジに導入するメリットは次のとおりです:
- 運用速度と効率: イノベーションに不可欠な AI ベースのエッジにおけるオートメーションは、クラウドベースのプロセシングに関連する遅延を排除し、ほぼリアルタイムの自律型運用を可能にします。レイテンシーとネットワークのボトルネックを最小限に抑え、データ転送速度を向上させます。
- コスト効率: センサーとデバイスからのデータ量が増加しているため、エッジ・コンピューティングはクラウドにデータを送ることに比べて、コスト効率が高くなっています。消費する帯域幅を削減し、必要なクラウドベースのリソースを削減することで、運用コストの削減に貢献します。
- 省エネルギー: 省電力のエッジ AI デバイスは、低消費電力コンピューティングを促進するために設計されており、クラウドベースの処理よりも大幅に効率化できます。一方、ルーターやスイッチなどのネットワーキング・ハードウェアは、データセンターとの間で往来するトラフィックを最小限に抑えるため、消費電力が少なくなります。
- セキュリティーとデータ支配権: エッジで機密データを保持することで、ローカルでの制御、自律性、規制へのコンプライアンスが確保され、セキュリティーとプライバシーのリスクの軽減に役立ちます。
エッジ AI に関する考慮事項
パブリッククラウドやプライベート・クラウドで AI を実行する場合と比較して、AI をエッジ環境に導入する際には、次のような新しい課題が生まれます:
- 既存の投資に AI を追加: 多くのエッジ環境では、さまざまな独自機器とソフトウェアを活用した、従来型の固定機能インフラが主に使用されています。互換性のないフォーマットを使用している独自のテクノロジーは、エッジ・ソリューションと統合する際に技術的課題となる場合があります。
- モデルのトレーニングと微調整: エッジ AI モデルは独自のものであり、特定の業界やユースケースに合わせて調整する必要があります。こうしたケースでは、多くの場合、人的な領域の知識が重要になります。企業は、データ・サイエンティスト以外の専門家が持つ専門知識を AI 機能に変換するためのシンプルなツールを必要としています。
- ハードウェアの多様性への対応: エッジネイティブ・アプリケーションは、さまざまなノード、オペレーティング・システム、接続プロトコル、コンピューティングとストレージのニーズ、エネルギーとコストの制約、コンプライアンスの懸念事項など、さまざまな分野に渡る可能性があります。開発者は、この複雑性に対処し、分散型ヘテロジニアス・コンピューティング環境をサポートする方法を模索しています。
- 分散アプリケーションの保護と管理: 企業は、高度な AI at the Edge への対応を模索する中で、新しい課題に直面しています。管理機能は、AI を大規模に適用するために不可欠であり、セキュリティーは、そのためのあらゆる段階で必須要素です。
- 過酷な条件や制約のある条件に備えた計画: エッジ環境は、熱、湿度、振動など、AI ハードウェアにさまざまな種類のストレスを課します。トラフィック監視や品質保証などのユースケース向けのエッジ AI ソリューションは、多くの場合、物理的な施設が少ないエリアに設置する必要があります。消費電力が低い方法ですべてを実現することも、コストを制御し、持続可能性を推進する上で重要です。
エッジ AI ソリューション
エッジ AI テクノロジーを活用してビジネス運用を最新化する方法は、深く、多面的なトピックです。製造業や産業分野などの一部の組織は、ほぼリアルタイムのデータを活用して価値を提供するデジタル・エンタープライズへと進化する中で、従来の運用機器にエッジ・テクノロジーと「インテリジェンス」を追加しようとしています。金融や医療などの他の業界では、大規模なデータ中心の運用を展開していますが、これは人による監視や分析ではあまりに広範だったり、多様化している場合があります。これらの組織は、パターンとインサイトをより迅速に発見し、効率性、コンプライアンス、データ・セキュリティーを向上させるために、データ処理のデジタル化と自動化に着手しています。
組織が対応しようとしている課題に関係なく、AI の有効化に段階的に取り組むことが推奨されます。最も高度で幅広いユースケースでは、エッジからクラウドまでのテクノロジーの AI テクノロジー・スタックが必要ですが、エッジ AI は大規模なインフラストラクチャー投資なしで開始できます。現在のエッジ環境を活用している企業は、AI を今すぐ活用する準備が整っているようです。POS システム、産業用 PC、医療機関のローカルサーバーなど、既存のエッジ・コンピューティング・リソースは、コンピューター・ビジョンをはじめとするさまざまな AI ワークロードをサポートできます。
統合に関する考慮事項
エッジ AI ソリューションを実装するための主な課題は、コンピューティング・インフラストラクチャー、IoT デバイス、レガシー機器など、ソリューションを構成するさまざまな要素の調整に伴う複雑さを克服することです。統合されたテクノロジー・プラットフォームは、この複雑さを軽減し、複数の AI 環境間の相互運用性を促進し、ヘテロジニアス・インフラストラクチャー全体で標準化することで、エッジツークラウドまで統合された基盤を構築します。
ハードウェアに関する考慮事項
クラウドでのモデルのトレーニング、微調整、エッジへの導入など、あらゆる分野で、適切な AI ハードウェアを選択することで、企業が投資規模を適切に調整し、パフォーマンス要件をサポートできるよう支援します。
AI プロセッサーは、非常に複雑なモデルのトレーニングから、エンドユーザー・デバイスへの AI の統合など、よりシンプルな AI ニーズまで、AI パイプライン全体をサポートします。
- アクセラレーター・エンジンを内蔵した中央演算装置 (CPU) は、専用のハードウェアを必要とせずに、多くの高度なエッジ AI ワークロードを強化します。
- グラフィックス・プロセシング・ユニット (GPU) ソリューションは、データセンター、エッジ、またはエンドユーザーのデバイスにおいて、最も要求の厳しいワークロードを処理するのに役立ちます。
- FPGA は、エッジツークラウドの AI ワークロードを実現する AI アクセラレーターや AI プロセッサー・ファミリーとして頻繁に使用されます。CPU や GPU と比較して、FPGA はより汎用性が高く、さまざまなユースケースに合わせて再構成できます。FPGA は、速度、プログラマビリティー、フレキシビリティーを組み合わせて提供し、カスタムチップの開発コストを削減し、複雑さを伴わずに優れたパフォーマンスを実現します。
導入アプローチの選択
AI アプリケーションをエッジに拡張しようとしている組織は、一般的に、専用の AI ソリューションまたはアプリケーションの購入を目指す組織、独自の AI アプリケーションを構築しようとする組織、この 2 つのアプローチを組み合わせることで AI の目標を達成しようとする組織の 3 つのカテゴリーに分類されます。
AI ソリューションの構築: 独自のエッジ AI ソリューションをゼロから構築しようとしている企業向けに、ベンダーに依存しないエッジネイティブのソフトウェア・プラットフォームは、AI ワークフローの構築、導入、反復を支援し、幅広い相互運用性とプロトコルのサポートを特徴としています。導入後のエッジネイティブ・プラットフォームにより、すべての分散型エッジ環境において AI ソフトウェアの管理とアップデートがより簡単にできます。
プラットフォームを検討する際は、次のものを確認することが重要です:
- エッジ全体でよく見られるヘテロジニアス・コンピューティング環境のサポート
- 将来を見据えた AI の取り組みを支援するオープン・スタンダード
- プロフェッショナル向けとローコード開発のオプション
- 既存のアプリケーションをインポートする機能
- 適切なサイズのハードウェアを支援し、アプリケーションを最適化する統合型のテレメトリー・ダッシュボード
- 統合型のセキュリティー機能
- クラウドのような自動スケーリングとコンテナ化機能
既製の AI ソリューションの購入: 企業はソリューション・プロバイダーやシステム・インテグレーターから AI ソリューションを購入することもできます。これらのベンダーは、特定の業界のユースケースとニーズに合わせてカスタマイズされた統合型ハードウェアとソフトウェア・システムを提供します。相互運用可能な AI 機能と、業界およびドメイン固有の導入に関して成功実績のある、市場対応のソリューションを選択することが重要です。
組み合わせたアプローチ: 多くの組織は、自社の開発努力と事前構築済みコンポーネントを組み合わせることが、AI を成功させるための最も効率的な方法だと考えています。エッジ AI のユースケースを実証するさまざまなチュートリアルとリソースが利用可能で、価値創出までの時間を短縮し、開発を簡素化します。さらに、フレームワーク、ツールキット、業界固有の開発ツール、リファレンス・アーキテクチャー、リファレンス実装など、開発を容易にするためのソフトウェア・リソースを幅広く用意しています。