物体検出,姿勢推定の実行(YOLOv7,PyTorch,Python を使用)(Windows 上)

Windows でYOLOv7をインストール,動作確認する手順は以下のとおりである.まず,pycocotoolsのインストールを行う.次に YOLOv7 のソースコードと学習済みモデルをダウンロードする.画像やカメラからの物体検出は,コマンドで可能である.このとき学習済みモデルを指定できる.姿勢推定は,公式ページで配布されているプログラムを利用できる.以上で,YOLOv7のインストールと動作確認ができる.Average PrecisionとAverage Recallの値を取得したいときは,COCO 2017データセットのダウンロード,展開し,test.pyを実行.詳細な手順は公式ドキュメントを参照.

目次

  1. 前準備
  2. YOLOv7 のインストール(Windows 上)
  3. test.py の実行により Average Precision,Average Recall の値を得る
  4. 物体検出の実行(YOLOv7 を使用)(Windows 上)
  5. 姿勢推定の実行(YOLOv7 を使用)(Windows 上)

YOLOv7

文献】 Wang, Chien-Yao and Bochkovskiy, Alexey and Liao, Hong-Yuan Mark, YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors, arXiv preprint arXiv:2207.02696, 2022.

https://openaccess.thecvf.com/content/CVPR2023/papers/Wang_YOLOv7_Trainable_Bag-of-Freebies_Sets_New_State-of-the-Art_for_Real-Time_Object_Detectors_CVPR_2023_paper.pdf

関連する外部ページ

前準備

Build Tools for Visual Studio 2022 (ビルドツール for Visual Studio 2022)または Visual Studio 2022 のインストール(Windows 上)

インストールの判断Build Tools for Visual Studio は,開発ツールセットである. Visual Studio は統合開発環境であり,いくつかの種類があり,Build Tools for Visual Studioの機能を含むか連携して使用するものである.インストールは以下の基準で判断してください:

不明な点がある場合は,Visual Studio 全体をインストール を行う方が良い.

Build Tools for Visual Studio 2022 のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    次のコマンドを実行

    次のコマンドは,Build Tools for Visual Studio 2022と VC2015 再配布可能パッケージをインストールするものである.

    winget install --scope machine Microsoft.VisualStudio.2022.BuildTools
    winget install --scope machine Microsoft.VCRedist.2015+.x64
    
  2. Build Tools for Visual Studio 2022 での C++ によるデスクトップ開発,CLI,ATL,MFC のインストール(Windows 上)
    1. Visual Studio Installer の起動

      起動方法: スタートメニューの「Visual Studio Installer」を選ぶ.

    2. Visual Studio Build Tools 2022 で「変更」を選ぶ.
    3. C++ によるデスクトップ開発」をクリック.そして,画面右側の「インストール」の詳細で「v143 ビルドツール用 C++/CLI サポート(最新)」,「ATL」,「MFC」をチェックする.その後,「変更」をクリック.

Visual Studio のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    次のコマンドを実行

    1. コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)
    2. インストールコマンドの実行
      winget install Microsoft.VisualStudio.2022.Community --scope machine --override "--add Microsoft.VisualStudio.Workload.NativeDesktop Microsoft.VisualStudio.ComponentGroup.NativeDesktop.Core Microsoft.VisualStudio.Component.VC.CLI.Support Microsoft.VisualStudio.Component.CoreEditor Microsoft.VisualStudio.Component.NuGet Microsoft.VisualStudio.Component.Roslyn.Compiler Microsoft.VisualStudio.Component.TextTemplating Microsoft.VisualStudio.Component.Windows.SDK.Latest Microsoft.VisualStudio.Component.VC.Tools.x86.x64 Microsoft.VisualStudio.Component.VC.ATL Microsoft.VisualStudio.Component.VC.ATLMFC"
      winget install Microsoft.VisualStudio.2022.Community --scope machine Microsoft.VCRedist.2015+.x64
      

      インストールされるコンポーネントの説明:

      • NativeDesktop:C++によるデスクトップアプリケーション開発のためのワークロード一式
      • NativeDesktop.Core:C++デスクトップ開発に必要な基本コンポーネント群
      • VC.CLI.Support:マネージドコードとネイティブコードの統合開発を可能にするC++/CLIサポート
      • CoreEditor:コード編集,デバッグ,検索などの基本機能を提供するVisual Studioのコアエディタ
      • NuGet:.NETライブラリの依存関係を管理するパッケージ管理システム
      • Windows.SDK.Latest:Windows 向けアプリケーション開発用SDK(Software Development Kit)
      • VC.Tools.x86.x64:32ビット及び64ビット向けC++コンパイラとビルドツール
      • VC.ATL:Windowsコンポーネント開発用のActive Template Library
      • VC.ATLMFC:デスクトップアプリケーション開発用のMicrosoft Foundation Class Library

      システム要件と注意事項:

      • 管理者権限でのインストールが必須
      • 必要ディスク容量:10GB以上
      • 推奨メモリ:8GB以上のRAM
      • インストール過程でシステムの再起動が要求される可能性がある
      • 安定したインターネット接続環境が必要

      追加のコンポーネントが必要な場合は,Visual Studio Installerを使用して個別にインストールすることが可能である.

    3. インストール完了の確認
      winget list Microsoft.VisualStudio.2022.Community
      

      トラブルシューティング:

      インストール失敗時は,以下のログファイルを確認:

      %TEMP%\dd_setup_<timestamp>.log
      %TEMP%\dd_bootstrapper_<timestamp>.log
  2. Visual Studio での C++ によるデスクトップ開発,CLI のインストール(Windows 上)
    1. Visual Studio Installer の起動

      起動方法: スタートメニューの「Visual Studio Installer」を選ぶ.

    2. Visual Studio Community 2022 で「変更」を選ぶ.
    3. C++ によるデスクトップ開発」をチェック.そして,画面右側の「インストール」の詳細で「v143 ビルドツール用 C++/CLI サポート(最新)」をチェックする.その後,「インストール」をクリック.

Python 3.10,Git のインストール(Windows 上)

Pythonは,プログラミング言語の1つ. Gitは,分散型のバージョン管理システム.

手順

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    次のコマンドを実行

    次のコマンドは,Python ランチャーとPython 3.10とGitをインストールし,Gitパスを通すものである.

    次のコマンドでインストールされるGitは 「git for Windows」と呼ばれるものであり, Git,MinGW などから構成されている.

    winget install --scope machine Python.Launcher
    winget install --scope machine Python.Python.3.10
    winget install --scope machine Git.Git
    powershell -command "$oldpath = [System.Environment]::GetEnvironmentVariable(\"Path\", \"Machine\"); $oldpath += \";c:\Program Files\Git\cmd\"; [System.Environment]::SetEnvironmentVariable(\"Path\", $oldpath, \"Machine\")"
    

関連する外部ページ

サイト内の関連ページ

関連項目Python, Git バージョン管理システム, Git の利用

Build Tools for Visual Studio 2022,NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8,NVIDIA cuDNN 8.9.7 のインストール(Windows 上)

サイト内の関連ページNVIDIA グラフィックスボードを搭載しているパソコンの場合には, NVIDIA ドライバNVIDIA CUDA ツールキットNVIDIA cuDNN のインストールを行う.

関連する外部ページ

PyTorch のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)
  2. PyTorch のページを確認

    PyTorch の公式ページ: https://pytorch.org/index.html

  3. 次のようなコマンドを実行(実行するコマンドは,PyTorch のページの表示されるコマンドを使う).

    次のコマンドを実行することにより, PyTorch 2.3 (NVIDIA CUDA 11.8 用)がインストールされる. 但し,Anaconda3を使いたい場合には別手順になる.

    事前に NVIDIA CUDA のバージョンを確認しておくこと(ここでは,NVIDIA CUDA ツールキット 11.8 が前もってインストール済みであるとする).

    PyTorch で,GPU が動作している場合には,「torch.cuda.is_available()」により,True が表示される.

    python -m pip install -U --ignore-installed pip
    python -m pip uninstall -y torch torchvision torchaudio torchtext xformers
    python -m pip install -U torch torchvision torchaudio numpy --index-url https://download.pytorch.org/whl/cu118
    
    python -c "import torch; print(torch.__version__, torch.cuda.is_available())"
    

    Anaconda3を使いたい場合には, Anaconda プロンプト (Anaconda Prompt)管理者として実行し, 次のコマンドを実行する. (PyTorch と NVIDIA CUDA との連携がうまくいかない可能性があるため,Anaconda3を使わないことも検討して欲しい).

    conda install -y pytorch torchvision torchaudio pytorch-cuda=11.8 cudnn -c pytorch -c nvidia
    py -c "import torch; print(torch.__version__, torch.cuda.is_available())"
    

    サイト内の関連ページ

    関連する外部ページ

YOLOv7のインストール(Windows上)

公式のGitHubページ https://github.com/WongKinYiu/yolov7 に従ってインストールを行う.以下の手順で実施する.

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    コマンドプロンプトを管理者として実行する方法は別ページ »で詳しく説明しています.

  2. pycocotools のインストールを実施
    python -m pip install -U cython
    python -m pip install "git+https://github.com/philferriere/cocoapi.git#egg=pycocotools&subdirectory=PythonAPI"
    

  3. YOLOv7のダウンロードとインストール作業
    cd /d c:%HOMEPATH%
    rmdir /s /q yolov7
    git clone --recursive https://github.com/WongKinYiu/yolov7
    cd yolov7
    python -m pip install -r requirements.txt
    
  4. 学習済みモデルファイルのダウンロード

    詳細は公式ページ: https://github.com/WongKinYiu/yolov7 を参照

    cd /d c:%HOMEPATH%\yolov7
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7x.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-w6.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-e6.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-d6.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-e6e.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-w6-pose.pt
    curl -O -L https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7-mask.pt
    

test.pyの実行によるAverage Precision,Average Recallの評価

Average Precision,Average Recallの値の確認が不要な場合は,この手順は省略可能です.

Windows環境でのCOCO 2017データセットのダウンロードと展開手順

WindowsにおけるCOCO 2017のダウンロードと展開は以下の手順で行います.

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    コマンドプロンプトを管理者として実行する方法は別ページ »で詳しく説明しています.

  2. 7-Zipのインストール(Windows環境)

    7-Zipは高機能なファイル圧縮・展開ツールです.

    1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

      コマンドプロンプトを管理者として実行する方法は別ページ »で詳しく説明しています.

    2. 以下のコマンドを実行

      次のコマンドにより,7-Zip圧縮・展開ツールをインストールします.

      winget install --scope machine 7zip.7zip
      powershell -command "$oldpath = [System.Environment]::GetEnvironmentVariable(\"Path\", \"Machine\"); $oldpath += \";c:\Program Files\7-Zip\"; [System.Environment]::SetEnvironmentVariable(\"Path\", $oldpath, \"Machine\")"
      

    関連する外部ページ

  3. COCOデータセットの公式サイトから2017 Train images,2017 Val images,2017 Train/Val annotationsをダウンロード

    コマンドプロンプトを管理者として起動し, 以下のコマンドでダウンロードと展開を実行します.

    cd /d c:%HOMEPATH%
    mkdir coco2017
    mkdir coco2017\coco
    mkdir coco2017\coco\images
    cd /d c:%HOMEPATH%\coco2017
    ECHO labels
    curl -O -L https://github.com/ultralytics/yolov5/releases/download/v1.0/coco2017labels-segments.zip
    ECHO 19G, 118k images
    curl -O http://images.cocodataset.org/zips/train2017.zip
    ECHO 1G, 5k images
    curl -O http://images.cocodataset.org/zips/test2017.zip
    ECHO 7G, 41k images (optional)
    curl -O http://images.cocodataset.org/zips/val2017.zip
    ECHO unlabeled
    curl -O http://images.cocodataset.org/zips/unlabeled2017.zip
    ECHO
    curl -O http://images.cocodataset.org/annotations/annotations_trainval2017.zip
    curl -O http://images.cocodataset.org/annotations/stuff_annotations_trainval2017.zip
    curl -O http://images.cocodataset.org/annotations/image_info_test2017.zip
    curl -O http://images.cocodataset.org/annotations/image_info_unlabeled2017.zip
    REM curl -O http://images.cocodataset.org/annotations/stuff_annotations_trainval2017.zip
    ECHO
    cd /d c:%HOMEPATH%\coco2017
    "c:\Program Files\7-Zip\7z.exe" x coco2017labels-segments.zip
    cd /d c:%HOMEPATH%\coco2017\coco\images
    "c:\Program Files\7-Zip\7z.exe" x ..\..\train2017.zip
    "c:\Program Files\7-Zip\7z.exe" x ..\..\test2017.zip
    "c:\Program Files\7-Zip\7z.exe" x ..\..\val2017.zip
    "c:\Program Files\7-Zip\7z.exe" x ..\..\unlabeled2017.zip
    REM cd /d c:%HOMEPATH%\coco2017\coco
    REM "c:\Program Files\7-Zip\7z.exe" x ..\stuff_annotations_trainval2017.zip
    
  4. ファイル構成は以下のようになります.
     └─%HOMEPATH%\coco2017\coco
       ├── annotations/
          ├── captions_train2017.json
          ├── captions_val2017.json
          ├── image_info_test-dev2017.json
          ├── image_info_test2017.json
          ├── image_info_unlabeled2017.json
          ├── instances_train2017.json
          ├── instances_val2017.json
          ├── person_keypoints_train2017.json
          ├── person_keypoints_val2017.json
          ├── stuff_train2017.json
          └── stuff_val2017.json
       ├── images/
          ├─test2017/
          ├─train2017/
          ├─unlabeled2017/
          └─val2017/
       ├── labels/
          ├─train2017/
          └─val2017/
       ├─test-dev2017.txt
       ├─train2017.txt
       └─val2017.txt
    

関連する外部ページ

COCOデータセットの公式サイト: https://cocodataset.org/#home

test.pyの実行手順

  1. Windows で,コマンドプロンプト管理者権限で起動する(例:Windowsキーを押し,「cmd」と入力し,「管理者として実行」を選択)

    コマンドプロンプトを管理者として実行する方法は別ページ »で詳しく説明しています.

  2. データセットへのジャンクション作成
    cd /d c:%HOMEPATH%\yolov7
    mklink /J coco ..\coco2017\coco
    
  3. test.py の実行
    python test.py --data data/coco.yaml --img 640 --batch 32 --conf 0.001 --iou 0.65 --device 0 --weights yolov7.pt --name yolov7_640_val
    
  4. 動作確認の結果,エラーメッセージが出ていないことを確認する.

物体検出の実行(YOLOv7 を使用)(Windows 上)

画像ファイルについて物体検出を行い,確認表示する.

  1. Windows で,コマンドプロンプトを実行
  2. 次のコマンドにより,物体検出を実行

    「source='https://media.roboflow.com/notebooks/examples/dog.jpeg'」のところは,ファイル名やURLを指定. yolov7.pt は COCO データセットで学習済みのモデルである. COCO データセットで学習済みの他のモデルもある. 詳しくは公式ページの https://github.com/WongKinYiu/yolov7

    cd /d c:%HOMEPATH%
    cd yolov7
    python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg
    
  3. 実行の結果,物体検出の結果が保存されたファイル名が表示される.
  4. 画像を表示する
    runs\detect\exp\horses.jpg
    
パソコンのカメラについて物体検出を行う場合

次のコマンドを実行.

python detect.py --weights yolov7.pt --conf 0.25 --img-size 1024 --source 0

姿勢推定の実行(YOLOv7 を使用)(Windows 上)

https://github.com/WongKinYiu/yolov7/blob/main/tools/keypoint.ipynb に記載のプログラムを使用.

「image = cv2.imread('./person.jpg')」の行は画像ファイル名を設定する.

Python プログラムの実行

Python プログラムの実行: 別ページ »で説明

Python のまとめ: 別ページ »にまとめ

コマンドプロンプトで次を実行

cd /d c:%HOMEPATH%\yolov7
python

次の Python プログラムを実行する

https://github.com/WongKinYiu/yolov7/blob/main/tools/keypoint.ipynb に記載のプログラムを書き換えて使用.

import matplotlib.pyplot as plt
import torch
import cv2
from torchvision import transforms
import numpy as np
from utils.datasets import letterbox
from utils.general import non_max_suppression_kpt
from utils.plots import output_to_keypoint, plot_skeleton_kpts
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
weigths = torch.load('yolov7-w6-pose.pt', map_location=device)
model = weigths['model']
_ = model.float().eval()

if torch.cuda.is_available():
    model.half().to(device)

v = cv2.VideoCapture(0)
while(v.isOpened()):
    r, f = v.read()
    if ( r == False ):
        break
    image = letterbox(f, 960, stride=64, auto=True)[0]
    image_ = image.copy()
    image = transforms.ToTensor()(image)
    image = torch.tensor(np.array([image.numpy()]))

    if torch.cuda.is_available():
        image = image.half().to(device)

    output, _ = model(image)
    output = non_max_suppression_kpt(output, 0.25, 0.65, nc=model.yaml['nc'], nkpt=model.yaml['nkpt'], kpt_label=True)
    with torch.no_grad():
        output = output_to_keypoint(output)

    nimg = image[0].permute(1, 2, 0) * 255
    nimg = nimg.cpu().numpy().astype(np.uint8)
    nimg = cv2.cvtColor(nimg, cv2.COLOR_RGB2BGR)
    for idx in range(output.shape[0]):
        plot_skeleton_kpts(nimg, output[idx, 7:].T, 3)

    cv2.imshow("", nimg)
    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

v.release()
cv2.destroyAllWindows()