環境構築(Windows編)

本記事は、https://docs.openvinotoolkit.org/latest/_docs_install_guides_installing_openvino_windows.html を元に記述しています。元のページも参照してください。

インストールされるコンポーネント

コンポーネント説明
Model Optimizerこのツールは、人気のあるフレームワークでトレーニングされたモデルを、Intelツール、特に推論エンジンで使用可能な形式にインポート、変換、および最適化します。 注:人気のあるフレームワークには、Caffe *、TensorFlow *、MXNet *、およびONNX *などのフレームワークが含まれます。
Inference Engine
ディープラーニングエンジン
アプリケーション組み込みライブラリ
OpenCVIntel Hardware用にコンパイルされたOpenCV
Inference Engine Samples推論エンジンを使用するためのコンソールデモアプリケーション
Demos特定のユースケースを解決するためにアプリケーションで推論エンジンを使用する方法を示す複数のコンソールアプリケーション
Additional Toolsモデルを操作するための一連のツール
Documentation for Pre-Trained ModelsOpen Model Zooリポジトリで利用可能な事前トレーニング済みモデルのドキュメント

プラットフォーム

ハードウェアの制限

  • 6th-10th Generation Intel® Core™ processors
  • Intel® Xeon® v5 family
  • Intel® Xeon® v6 family
  • Intel® Movidius™ Neural Compute Stick
  • Intel® Neural Compute Stick 2
  • Intel® Vision Accelerator Design with Intel® Movidius™ VPUs

OS

  • Microsoft Windows* 10 64-bit

ソフトウェア


インストール手順

Install the Intel® Distribution of OpenVINO™ toolkit Core Components

  1. Intel® Distribution of OpenVINO™ toolkitを未だダウンロードしていない場合は、 最新版をダウンロードしてください。デフォルトではダウンロードフォルダにw_openvino_toolkit_p_<version>.exeというファイル名で保存されます。
  2. ダウンロードフォルダに移動します。
  3. w_openvino_toolkit_p_<version>.exeをダブルクリックします。インストール先とコンポーネントの選択のウィンドウが表示されます。デフォルトのインストール先は、C:\Program Files (x86)\IntelSWTools\openvino_<version>です。C:\Program Files (x86)\IntelSWTools\openvinoのショートカットも作成されます。
  4. Nextを選択します。
  5. 情報収集に関する選択が聞かれるので選択します。その後、Nextを選択します。
  6. 動作に必要なコンポーネントが不足している場合、画面上に表示されますが、ここでは何もしなくても大丈夫です。OpenVINO™ toolkit コアコンポーネントをインストール後、不足しているコンポーネントをインストールしてください。※不足のコンポーネントが複数ある場合、忘れないためにメモや写真を撮っておくと良いかもしれません。
  7. Nextを選択します。
  8. コアコンポーネントのインストール完了の画面が表示されます。
  9. Finishを選択し、インストールウィザードを終了します。
  10. 不足しているコンポーネントがある場合、次のステップに進む前に必ずインストールしてください。全てのコンポーネントのインストールが終わったら、次のステップに進みます。

Pythonのインストール

ここでは、Python 3.6.8 x86-64のインストーラを利用しました。

環境変数の設定(一時的)

OpenVINO™アプリケーションをコンパイルおよび実行する前に、環境変数の設定が必要です。コマンドラインを開き、setupvars.batを実行すると、環境変数に一時的に設定されます。永続的に環境変数に設定する場合は、後述の手順が必要です。

cd C:\Program Files (x86)\IntelSWTools\openvino\bin\

setupvars.bat

この画面ではpythonのバージョンを確認後、バッチファイルを実行して環境変数を設定しています。

Model Optimizerの構成

Model Optimizerは、Intel® Distribution of OpenVINO™ toolkitの主要コンポーネントです。Model Optimizerを使用してモデルを実行しないと、トレーニング済みモデルで推論を行うことはできません。モデルオプティマイザーを使用して事前トレーニング済みのモデルを実行すると、ネットワークの中間表現(IR)を出力します。IRはモデル全体を記述するファイルのペアです:

  • .xml: ネットワークトポロジが記載されているファイル
  • .bin: バイナリデータが含まれているファイル

推論エンジンは、CPU、GPU、またはVPUハードウェア全体で共通のAPIを使用して、IRファイルを読み取り、ロードし、推測します。

Model OptimizerはPython *ベースのコマンドラインツール(mo.py)で、C:\ Program Files(x86)\ IntelSWTools \ openvino \ deployment_tools \ model_optimizerにあります。 Caffe *、TensorFlow *、MXNet *、ONNX *などの一般的なディープラーニングフレームワークでトレーニングされたモデルでこのツールを使用して、推論エンジンが使用できる最適化されたIR形式に変換します。

このセクションでは、スクリプトを使用して、Model Optimizerを、サポートされているすべてのフレームワークに対して同時に、または個々のフレームワークに対して構成する方法について説明します。スクリプトを使用する代わりにModel Optimizerを手動で構成する場合は、「Model Optimizerの構成Configuring the Model Optimizer」ページの「手動構成プロセスの使用」セクションを参照してください。

Model Optimizerの詳細については、Model Optimizer開発者ガイドModel Optimizer Developer Guideを参照してください。

Model Optimizer 構成手順

Model Optimizerは1回でサポートするフレームワークを全て構成するか、その都度構成するかを選択できます。必要に応じて方法を選択してください。ここでは全てのフレームワークを構成する手順を示します。

インストールの確認

インストールが完了した事を確認するために、2つのサンプルのコンパイルと実行を行います。

  1. コマンドラインを開きます。
  2. Inference Engine demo ディレクトリを開きます。
    cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo\
  3. 次の手順で説明する検証用スクリプトを実行します。

Image Classification Verification Scriptの実行

スクリプトを実行するには、demo_squeezenet_download_convert_run.batファイルを開始します。

このスクリプトは、SqueezeNetモデルをダウンロードし、Model Optimizerを使用して、モデルを.‍binおよび.‍xml中間表現(IR)ファイルに変換します。推論エンジンはこのモデル変換を必要とするため、IRを入力として使用し、Intelハードウェアで最適なパフォーマンスを実現できます。 この検証スクリプトは、Image Classification Sample AsyncアプリケーションImage Classification Sample Async をビルドし、demoディレクトリのcar.pngイメージを使用して実行します。中間表現の簡単な説明については、Model Optimizerの構成Configuring the Model Optimizerを参照してください。

検証スクリプトが完了すると、トップ10カテゴリのラベルと信頼度が得られます。

実行結果。スポーツカーとして認識されている事が確認できます。

Inference Pipeline Verification Scriptの実行

コンソールでdemo_security_barrier_camera.batファイルを開始します。
このスクリプトは、事前にトレーニングされた3つのモデルIRをダウンロードし、セキュリティバリアカメラデモアプリケーションSecurity Barrier Camera Demoをビルドし、ダウンロードしたモデルとデモディレクトリからcar_1.bmpイメージを使用して実行し、推論パイプラインを表示します。検証スクリプトは、車両属性を相互に構築する車両認識を使用して、特定の属性に絞り込みます。

最初に、オブジェクトが車両として識別されます。この識別は、ナンバープレートを含む特定の車両属性を識別する次のモデルへの入力として使用されます。最後に、ナンバープレートとして識別された属性は、ナンバープレート内の特定の文字を認識する3番目のモデルへの入力として使用されます。

デモが完了すると、次の2つのウィンドウが開きます。

  • デモによって実行されたタスクに関する情報を表示するコンソールウィンドウ
  • 次のような検出結果が境界ボックスとしてレンダリングされた結果のフレームを表示する画像ビューアーウィンドウ。
inference_pipeline_script_win.png

ウィンドウを閉じてデモを終了します。

検証スクリプトの詳細については、C:\ Program Files(x86)\ IntelSWTools \ openvino \ deployment_tools \ demoのREADME.txtを参照してください。

OpenVINO™事前トレーニング済みオブジェクト検出およびオブジェクト認識モデルの詳細な説明については、OpenVINO™ツールキット事前トレーニング済みモデルの概要ページ Overview of OpenVINO™ toolkit Pre-Trained Models を参照してください。

このセクションで、OpenVINO™ツールキットの概要を理解頂けたと思います。以上でインストール、構成が完了です。

もし、Intel® Processor graphics (GPU), Intel® Movidius™ Neural Compute Stickや、Intel® Neural Compute Stick 2 or Intel® Vision Accelerator Design with Intel® Movidius™ (VPU)を使いたい場合、また、CMake* and Python*をWindows環境変数に追加したい場合は、オプションの手順を行ってください。

続けてイメージの分類サンプルアプリケーションを実行したい場合は、Run the Image Classification Sample Application を参照してください。

オプションの手順

場合に応じて、追加設定を行います。詳細は英語のドキュメントを参照してください。

Intel® Vision Accelerator Design with Intel® Movidius™ VPUs上での推論

  1. <OpenVINOインストール先>\deployment_tools\inference-engine\external\MovidiusDriver 配下にある、Movidius_VSC_Device.infを右クリックしてMovidius™ VSC driverをインストールします。
  2. 次に、Visual C++ Redistributable for Visual Studio 2015 をインストールします。既にインストールされている場合はその旨メッセージが表示されます。


お疲れ様でした。インストールはこれで完了です。

もっとサンプルが実行したい!って場合は、次の記事もお試しください。

環境構築(RaspberryPi編)

本記事は、https://docs.openvinotoolkit.org/latest/_docs_install_guides_installing_openvino_raspbian.html を元に記述しています。元のページも参照してください。

※2020.06.04追記:OpenVINO 2020.3 LTS Release も同様の手順で入る事を確認済です。

※2021.02.19追記:OpenVINO 2021.2 も同様の手順で入る事を確認済です。

インストールの前に

  • Intel® Movidius™ Neural Compute Stick (Intel® NCS) 又は、Intel® Neural Compute Stick 2 が必要です
  • インターネット環境

インストールされるコンポーネント

コンポーネント説明
Inference Engine
ディープラーニングエンジン
アプリケーション組み込みライブラリ
OpenCVIntel Hardware用にコンパイルされたOpenCV
Sample Applications推論エンジンを使用するためのコンソールデモアプリケーション

プラットフォーム

ハードウェアの制限

  • ARMv7-A CPUアーキテクチャのRaspberry Pi 。uname -mを実行し、armv7lが返ってくる事を確認
  • Intel® Movidius™ Neural Compute Stick (Intel® NCS) 又は、Intel® Neural Compute Stick 2

OS

  • Raspbian* Buster, 32-bit
  • Raspbian* Stretch, 32-bit

ソフトウェアのインストール

必要なソフトウェア

  • CMake 3.7.2 以上
  • Python 3.5, 32-bit

Install the OpenVINO™ Toolkit for Raspbian* OS Package

  1. 最新のOpenVINO toolkit for Raspbian OSをIntel® Open Source Technology Centerからダウンロードしてください。ファイル名はl_openvino_toolkit_runtime_raspbian_p_<version>.tgzです。
  2. ターミナルを開きます
  3. ダウンロード先フォルダに移動します。
      cd ~/Downloads/
      デフォルトでは、パッケージのファイル名はl_openvino_toolkit_runtime_raspbian_p_<version>.tgzで保存されます。
  4. インストール先のフォルダを作成します
      sudo mkdir -p /opt/intel/openvino
  5. パッケージを展開します。
      sudo tar -xf l_openvino_toolkit_runtime_raspbian_p_<version>.tgz --strip 1 -C /opt/intel/openvino
  6. 以上でOpenVINO toolkitはインストールされました。追加設定が必要なので、次のステップに進んでください。

Install External Software Dependencies

  1. Inference Engineのサンプルアプリケーションをビルドするために、CMake(バージョン3.7.2 以上)が必要です。ターミナルを開き、以下のコマンドを実行してください。
    • sudo apt install cmake
  2. 以上でCMakeはインストールされました。次のステップに進んでください。

Set the Environment Variables

OpenVINO Toolkitアプリケーションをコンパイルする前や、実行する前に、環境変数を必ず更新する必要があります。

    source /opt/intel/openvino/bin/setupvars.sh
このコマンドによって、OpenVINOの環境が設定されます
このコマンドはログインごとに行う必要がありますが、
.bash_profileに書き込めば、その必要はありません
    echo "source /opt/intel/openvino/bin/setupvars.sh" >> ~/.bashrc

新規にターミナルを開き、以下が表示されていればOKです。

    [setupvars.sh] OpenVINO environment initialized

Add USB Rules

  1. 現在のユーザをusersグループに追加します。
      sudo usermod -a -G users "$(whoami)"
    ログアウト、ログインで有効になります。
  2. もし.bashrcを更新していない場合、setupvar.shを実行してください。
      source /opt/intel/openvino/bin/setupvars.sh
  3. Intel® Movidius™ Neural Compute Stick 又は Intel® Neural Compute Stick 2を使うために、以下のスクリプトを実行してください。

      sh /opt/intel/openvino/install_dependencies/install_NCS_udev_rules.sh
  4. Intel® Movidius™ Neural Compute Stick 又は Intel® Neural Compute Stick 2を挿してください。


お疲れ様でした。インストールはこれで完了です。引き続きサンプルの実行をご確認ください。

環境構築(MacOS編)

インストールの前に

  • macOS 10.14.4(Mojave) 以上
  • インターネット環境

※2020.06.05追記:OpenVINO 2020.3 LTS Release も同様の手順で入る事を確認済です。

インストールされるコンポーネント

コンポーネント説明
Model OptimizerThis tool imports, converts, and optimizes models, which were trained in popular frameworks, to a format usable by Intel tools, especially the Inference Engine.
Popular frameworks include Caffe*, TensorFlow*, MXNet*, and ONNX*.
Inference Engine
ディープラーニングエンジン
アプリケーション組み込みライブラリ
OpenCVIntel Hardware用にコンパイルされたOpenCV
Sample Applications推論エンジンを使用するためのコンソールデモアプリケーション
DemosA set of console applications that demonstrate how you can use the Inference Engine in your applications to solve specific use-cases
Additional ToolsA set of tools to work with your models
Documentation for PreTrained ModelsDocumentation for the pre-trained models available in the Open Model Zoo repo

プラットフォーム

ハードウェアの制限

  • 6th-10th Generation Intel® Core™
  • Intel® Xeon® v5 family
  • Intel® Xeon® v6 family
  • Intel® Neural Compute Stick 2

ソフトウェアのインストール

必要なソフトウェア

  • CMake 3.4 or higher
  • Python 3.5 or higher
  • Apple Xcode* Command Line Tools
  • (Optional) Apple Xcode* IDE (not required for OpenVINO, but useful for development)

CMakeのインストール

CMake のページでMacOS用のcmakeをダウンロードする

dmg形式の場合、Applicationsフォルダにコピー

Terminalで下記コマンドを実行するとシンボリックリンクを作成してくれる
sudo “/Applications/CMake.app/Contents/bin/cmake-gui” –install

Pythonのインストール


Python3.5〜3.7が必要となりますが、Macには2系がインストールされているので、Python のページでダウンロード

今回は、3.7.6をインストールします
インストールは、pkg形式でクリックのみでインストール可能です

Apple Xcode Command Line Tools のインストール

XcodeはCommand Line Toolsのみでのインストールが可能です
Apple Developer ページにアクセスし、Apple Xcode Command Line Toolsをダウンロードします


OpenVINOのインストール・設定

OpenVino toolkitのダウンロード

こちらよりユーザー情報を登録後、最新版のOpenVino toolkit for macOSをダウンロードします
ダウンロード後は、dmgとなるので実行

クリックして表示し、m_openvino_toolkitアイコンクリックで、インストール画面へ移行します

CMake2.8 以上がインストールされていない、と表示があります
依存するツールがない場合はこちらに表示されます

これでインストール完了です
次は環境設定に移ります

OpenVINO 環境設定

Terminalから環境設定を行います


source /opt/intel/openvino/bin/setupvars.sh
このコマンドによって、OpenVINOの環境が設定されます
このコマンドはログインごとに行う必要がありますが、
.bash_profileに書き込めば、その必要はありません

Model Optimizer 設定

cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
sudo ./install_prerequisites.sh

NEURAL COMPUTE STICK2 の使用

MacでNCS2を使用する場合は、下記のコマンドで使用することが可能です

brew install libusb

お疲れ様でした
インストールはこれで完了です