AI 開発を加速する OpenVINO™ ツールキットとは

AI 推論を活用するアプリケーション開発を手軽に始められる汎用的な推論エンジン。

  

インテル® Xeon® プロセッサーを活用した AI ソリューション、および 内蔵 AI アクセラレーターの概要とその開発方法について解説します。さらに NEC 様の FireDucks による AI のデータ準備を高速化する取り組みについても紹介します。

  

インテル® Gaudi® AI アクセラレーターの概要、および生成 AI と大規模言語モデル (LLM) の開発手法について解説。さらに、次世代製品であるインテル® Gaudi® 3 AI アクセラレーターの最新情報を紹介します。

  

Articul8 AI では、生成 AI の可能性を活用することで、企業に計り知れない価値をもたらすと考えており、そのためにはリスクとセキュリティの懸念を慎重に考慮する必要があります。私たちの使命は、プロセスの簡素化、コストの削減、制御とセキュリティーを重視することで、責任ある生成 AI の導入を支援します。この講演では各導入企業独自のニーズや価値観に合わせて、生成 AI の可能性を最大限に引き出す方法を紹介します。

  

  

インテル® AMX とインテル® エクステンション・トランスフォーマーによる CPU ファイン・チューニング高速化

ファイン・チューニングは、既存の大規模言語モデル (LLM) に、追加のデータセットを学習させることで、独自性や専門性の高い生成 AI を作成するテクニックです。動画では、インテル® Xeon® プロセッサーを利用したファイン・チューニングの方法とデモを紹介します。

  

AI の活用と進展と共に、サーバー CPU の AI ワークロード処理能力も重要性を増してきており、インテル® Xeon® プロセッサーは AI を高速化する拡張命令、インテル® AMX を搭載しています。サーバー向け CPU の新機能は、クラウドで利用可能な環境が増加しています。ここでは、インテル® Tiber™ デベロッパー・クラウド上で、インテル® AMX を利用した簡単なコードを実行するデモンストレーションを紹介します。

  

大規模言語モデル (LLM) の用途全てにおいて高価な GPU が唯一の選択肢なのでしょうか?用途やコストによっては汎用的なインテル® Xeon® プロセッサーがバランスの良さで最適な選択肢になります。このセッションでは、インテル® Xeon® プロセッサーでの LLM 運用を実現するために有効な、PyTorch 向けインテル® エクステンションがサポートしている LLM 向けの最適化について紹介します。

  

インテル® Xeon® プロセッサーは AI ワークロード処理を高速に行える拡張命令、インテル® AMX が搭載されています。このビデオでは、なぜインテル® AMX 命令で AI 処理が高速化されるのか、インテル® AMX 命令を利用して推論を高速化する方法などについてご紹介いたします。

  

インテル® Gaudi® 2 AI アクセラレーターって本当に動くの?移植大変そう、パフォーマンス出るの?といった疑問にお応えするため、LLM の推論を動かしてみました。想像以上に簡単に始められて、ハイパフォーマンスな推論結果がえられることを紹介します。

  

エッジ推論を高速化する、OpenVINO™ ツールキットの最近のアップデートをまとめて紹介します。また、盛り上がりを見せているローカル LLM を OpenVINO™ ツールキットを使用して実現する方法についても紹介します。

  

OpenVINO™ ツールキット+産業用 PC を活用した実際の採用事例をもとに、ベンチマーク結果や組み込み用の AI 推論用ハードウェアとしてインテルの CPU を使用するメリットについてご紹介します。

  

OpenVINO™ ツールキットには推論エンジン以外にもさまざまな周辺ツールが用意されています。学習ソリューションや推論サーバーなどのツールから、OpenVINO™ ツールキットを活用したソリューションまで幅広くご紹介いたします。

  

製造業からスマートシティーまで、OpenVINO™ ツールキットを活用した CPU セントリックでの開発事例をパートナーの AI リーディング・カンパニーより紹介します。建築現場での大サイズ画像 AI 推論を CPU 活用により分割なくハイパフォーマンスを実現。トンネル採掘におけるビデオ解析で OpenVINO™ ツールキットを活用して 8 倍のパフォーマンス向上。

  

パフォーマンスと生産性を高め、異種システムに対応する革新的なソリューションの oneAPI を紹介します。インテルのソフトウェア・ツールや開発ツール、実際の事例をはじめ、CUDA から SYCL への移行デモも紹介します。

  

インテル® oneAPI コレクティブ・コミュニケーション・ライブラリー

巨大化している AI モデルを手持ちのサーバー群を利用して学習を行う手段として分散学習があります。このセッションでは分散学習の仕組みと性能の鍵となる通信ライブラリーとしてインテル® oneAPI コレクティブ・コミュニケーション・ライブラリーを紹介します。

  

エッジ AI 向け AI ポートフォリオの概要を紹介します。オープンソースの oneAPI とインテル・ディストリビューションのインテル® oneAPI ベース・ツールキットの AI ツールについて説明します。CUDA から SYCL への移行デモをご覧ください。

  

  

  

  

コンフィデンシャル AI について

AI の利用拡大によって、個人のプライバシー情報や企業秘密などの機密情報の漏えいリスクに対しての懸念も広がってきています。今回の動画では、AI 利用における情報漏洩リスクに対しての一つの対策である、コンフィデンシャル AI という技術について説明します。