既存のインフラストラクチャーを活用することにより、AI のリスクを削減して、導入のハードルを低減することができます。
マシンラーニングやディープラーニングによってデータからさらに多くの価値を引き出すことができますが、正確にどれだけ多くの価値を引き出せるかというと、それはユースケースによって異なります。また、新たな技術の採用に向けた組織の意欲にも依存します。
組織によって、人工知能 (AI) への取り組みのどの段階にいるかはさまざまですが、既存のインフラストラクチャーを利用して着手すると、実験的な導入リスクは軽減されます。これを支援するため、インテルは、TensorFlow*、Theano など、多数の一般的なディープラーニング・フレームワーク (英語) をインテル® アーキテクチャー上で動作するよう最適化しました。
さらに、ディープラーニングをビッグデータにも応用しようと、インテルは BigDL (英語) を作成しました。BigDL は、既存の Spark* または Apache* Hadoop* クラスター上で直接動作可能な Apache Spark* 向けの分散ディープラーニング・ライブラリー (Apache Spark* 向け DL ライブラリー) です。これによって、開発チームはディープラーニング・アプリケーションを Scala または Python* プログラムとして記述できます。
BigDL は、Spark* の各処理で、インテル® マス・カーネル・ライブラリー (英語) (インテル® MKL) とマルチスレッドのプログラミングを使用します。これによって高性能を達成でき、単一ノードのインテル® Xeon® プロセッサー上で、すぐに使えるオープンソースの Torch や TensorFlow* に比べてディープラーニングのパフォーマンスを向上できます。
既存のデータセンター・インフラストラクチャーを使用して着手できるので、AI の実験的な導入リスクは低減されます。
ほぼすべての業界で影響を与える 3 つの AI ユースケース
企業が現行のデータセンター・インフラストラクチャー上で AI による実験的な導入を行っている主な分野は、画像認識、自然言語処理 (NLP)、予測メンテナンス の 3 つであるとインテルは見ています。そして、これらを拡張するタイミングに、既存のデータセンター・アーキテクチャー上でオープンソースのフレームワークを活用することによって、組織全体で AI 採用を簡素化するうえで大きな違いが生まれます。
画像認識アプリケーションは現在、品質管理 (製品の欠陥の検出)、セキュリティー (顔やナンバープレートのスキャニング)、および医療 (腫瘍の識別) などに導入されています。
各企業で共通の課題となっているのが、画像分類 / 画像認識アルゴリズムのトレーニングに十分な量のデータを収集することで、画像の前処理が問題解決までの合計時間のうち半分以上を占める場合もあります。インテル® Xeon® プロセッサーは、この課題を解決できるよう、データ拡張アプリケーションに対応しています。これらのアプリケーションは、画像を回転 / 拡大縮小して、色を調整します。つまり、画像認識アルゴリズムを効果的にトレーニングするには、画像数を少なくする必要があるということです (ユースケースに依存)。
CPU は、電力効率と高メモリー帯域幅 (最大 100 Gbs) によりデータ拡張ワークロードの処理に優れています。これは特にインテル® Xeon® プロセッサー・スケーラブル・ファミリーに当てはまります。このプロセッサーは、インテル® アドバンスト・ベクトル・エクステンション 512 (インテル® AVX-512) 命令セットにより強化されています。
CPU は、電力効率と高メモリー帯域幅 (最大 100 Gbs) によりデータ拡張ワークロードの処理に優れています。
2) 自然言語処理
音声で起動する仮想アシスタントは、正確に要求を処理するだけではありません。クエリーの性質を理解して、継続的に仮想アシスタント自体を向上します。同様に、顧客体験や顧客満足度を変革しているのが、コールセンターの録音や手書きのフォームを処理できるシステムです。これらには今まで発見されていない洞察が含まれており、この宝の山を利用して、よくある苦情を識別したり、顧客の問題に素早く対処したりすることができます。
NLP では、再帰型ニューラル・ネットワーク (RNN) と呼ばれる技術と 長短期記憶 (LSTM) を使用します。これらの演算の特徴であるループや依存関係を処理するときには、インテル® アドバンスト・ベクトル・エクステンション 512 (インテル® AVX-512) 命令セットもその真価を発揮します。
3) 予測メンテナンス
予測メンテナンスが画像認識や NLP と異なるのは、エッジで状態を監視するセンサーによって情報を収集するので、一般にかなり低いデータレートに基づいているという点です。理想としては、演算もできる限りエッジで行ってから、クラウドに移動して分析や意思決定を行う必要があります。VPU を搭載したインテル® Movidius™ ニューラル・コンピュート・スティック (英語) は、エッジでの高速ディープラーニング開発に最適です。
動画: 人工知能によって、基幹インフラストラクチャーの整備に企業はますます予測メンテナンスを使用するようになっています。ぜひ視聴してご確認ください。
今すぐ AI に着手する
AI のパフォーマンスは、