Grounding DINO のインストールと動作確認(ゼロショットの物体検出とセグメンテーション) (Python,PyTorch を使用)(Windows 上)

要約

Grounding DINOは、Zero-Shot TransferとReferring Object Detectionに対応した高度な物体検出モデルである。このモデルはDINOとGrounded Pre-Trainingを組み合わせている。現在の実装では、Swin-TやSwin-Lをバックボーンとして使用している。Windows環境でのインストールは、GitHubからのリポジトリクローンと必要なパッケージのインストールで完了する。訓練済みモデルもダウンロード可能である。動作確認はPythonを用いて行い、指定したプロンプトに基づいての動作が可能である。さらに、画像選択ダイアログで画像を選択し、プロンプトも実行時にユーザーが指定できるPythonプログラムを示している。このページの手順により、Grounding DINOの基本的なセットアップと動作確認が簡単に行える。詳細は公式のGitHubページで確認できる。

テキストのプロンプトとして,「building . car . signal . traffic sign」を指定したときの実行結果は次の通り.

目次

  1. 前準備
  2. Grounding DINO のインストール(Windows 上)
  3. Grounding DINO の動作確認(Windows 上)
  4. Grounding DINO を使う Python プログラムの実行(Windows 上)

Grounding DINO

Grounding DINO は,Zero-Shot TransferとReferring Object Detectionという二つの物体検出タスクに対応している。精度向上のために、DINO(自己教師あり学習手法)とGrounded Pre-Trainingが組み合わされています。Grounding DINO の実験では、バックボーンとして、Swin-TやSwin-Lが採用された。実験結果では、Zero-Shot Transferのタスクで、Grounding DINOはDINOとGLIPを上回る高い精度を達成していることが示されている。

文献

Liu, Shilong and Zeng, Zhaoyang and Ren, Tianhe and Li, Feng and Zhang, Hao and Yang, Jie and Li, Chunyuan and Yang, Jianwei and Su, Hang and Zhu, Jun and others, Grounding dino: Marrying dino with grounded pre-training for open-set object detection, arXiv preprint arXiv:2303.05499, 2023.

https://arxiv.org/pdf/2303.05499v4.pdf

関連する外部ページ

前準備

Build Tools for Visual Studio 2022 (ビルドツール for Visual Studio 2022)または Visual Studio 2022 のインストール(Windows 上)

インストールの判断Build Tools for Visual Studio は,開発ツールセットである. Visual Studio は統合開発環境であり,いくつかの種類があり,Build Tools for Visual Studioの機能を含むか連携して使用するものである.インストールは以下の基準で判断してください:

不明な点がある場合は,Visual Studio 全体をインストール を行う方が良い.

Build Tools for Visual Studio 2022 のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

    次のコマンドを実行

    次のコマンドは,Build Tools for Visual Studio 2022と VC2015 再配布可能パッケージをインストールするものである.

    winget install --scope machine Microsoft.VisualStudio.2022.BuildTools 
    winget install --scope machine Microsoft.VCRedist.2015+.x64
    
  2. Build Tools for Visual Studio 2022 での C++ によるデスクトップ開発,CLI,ATL,MFC のインストール(Windows 上)
    1. Visual Studio Installer の起動

      起動方法: スタートメニューの「Visual Studio Installer」を選ぶ.

    2. Visual Studio Build Tools 2022 で「変更」を選ぶ.
    3. C++ によるデスクトップ開発」をクリック.そして,画面右側の「インストール」の詳細で「v143 ビルドツール用 C++/CLI サポート(最新)」,「ATL」,「MFC」をチェックする.その後,「変更」をクリック.

Visual Studio のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

    次のコマンドを実行

    次のコマンドは,Visual Studio Community 2022と VC2015 再配布可能パッケージをインストールするものである.

    winget install --scope machine Microsoft.VisualStudio.2022.Community
    winget install --scope machine Microsoft.VCRedist.2015+.x64
    
  2. Visual Studio での C++ によるデスクトップ開発,CLI のインストール(Windows 上)
    1. Visual Studio Installer の起動

      起動方法: スタートメニューの「Visual Studio Installer」を選ぶ.

    2. Visual Studio Community 2022 で「変更」を選ぶ.
    3. C++ によるデスクトップ開発」をチェック.そして,画面右側の「インストール」の詳細で「v143 ビルドツール用 C++/CLI サポート(最新)」をチェックする.その後,「インストール」をクリック.

Python 3.10,Git のインストール(Windows 上)

Pythonは,プログラミング言語の1つ. Gitは,分散型のバージョン管理システム.

手順

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

    次のコマンドを実行

    次のコマンドは,Python ランチャーとPython 3.10とGitをインストールし,Gitパスを通すものである.

    次のコマンドでインストールされるGitは 「git for Windows」と呼ばれるものであり, Git,MinGW などから構成されている.

    winget install --scope machine Python.Launcher
    winget install --scope machine Python.Python.3.10
    winget install --scope machine Git.Git
    powershell -command "$oldpath = [System.Environment]::GetEnvironmentVariable(\"Path\", \"Machine\"); $oldpath += \";c:\Program Files\Git\cmd\"; [System.Environment]::SetEnvironmentVariable(\"Path\", $oldpath, \"Machine\")"
    

関連する外部ページ

サイト内の関連ページ

関連項目Python, Git バージョン管理システム, Git の利用

Build Tools for Visual Studio 2022,NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8,NVIDIA cuDNN 8.9.7 のインストール(Windows 上)

サイト内の関連ページNVIDIA グラフィックスボードを搭載しているパソコンの場合には, NVIDIA ドライバNVIDIA CUDA ツールキットNVIDIA cuDNN のインストールを行う.

関連する外部ページ

PyTorch のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. PyTorch のページを確認

    PyTorch の公式ページ: https://pytorch.org/index.html

  3. 次のようなコマンドを実行(実行するコマンドは,PyTorch のページの表示されるコマンドを使う).

    次のコマンドを実行することにより, PyTorch 2.3 (NVIDIA CUDA 11.8 用)がインストールされる. 但し,Anaconda3を使いたい場合には別手順になる.

    事前に NVIDIA CUDA のバージョンを確認しておくこと(ここでは,NVIDIA CUDA ツールキット 11.8 が前もってインストール済みであるとする).

    PyTorch で,GPU が動作している場合には,「torch.cuda.is_available()」により,True が表示される.

    python -m pip install -U --ignore-installed pip
    python -m pip uninstall -y torch torchvision torchaudio torchtext xformers
    python -m pip install -U torch torchvision torchaudio numpy --index-url https://download.pytorch.org/whl/cu118
    
    python -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    Anaconda3を使いたい場合には, Anaconda プロンプト (Anaconda Prompt)管理者として実行し, 次のコマンドを実行する. (PyTorch と NVIDIA CUDA との連携がうまくいかない可能性があるため,Anaconda3を使わないことも検討して欲しい).

    conda install -y pytorch torchvision torchaudio pytorch-cuda=11.8 cudnn -c pytorch -c nvidia
    py -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    サイト内の関連ページ

    関連する外部ページ

Grounding DINO のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. ダウンロードとインストール,訓練済みモデルのダウンロード
    cd /d c:%HOMEPATH%
    rmdir /s /q GroundingDINO
    git clone --recursive https://github.com/IDEA-Research/GroundingDINO.git
    cd GroundingDINO
    python -m pip install -r requirements.txt
    python setup.py develop
    mkdir weights
    cd weights
    curl -L -O https://media.roboflow.com/notebooks/examples/dog.jpeg
    curl -L -O https://media.roboflow.com/notebooks/examples/dog-2.jpeg
    curl -L -O https://media.roboflow.com/notebooks/examples/dog-3.jpeg
    curl -L -O https://media.roboflow.com/notebooks/examples/dog-4.jpeg
    curl -L -O https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth
    
  3. 終了の確認

    エラーメッセージが出ていないこと.

Grounding DINO の動作確認(Windows 上)

Grounding DINO を用いて画像のアノテーションを行う.

  1. Windows で,コマンドプロンプトを実行
  2. エディタを起動
    cd /d c:%HOMEPATH%\GroundingDINO
    notepad c.py
    
  3. エディタで,次のプログラムを保存

    プロンプトとして,「TEXT_PROMPT = "chair . person . dog ."」のようにしている.

    このプログラムは, 公式の GitHub のページ: https://github.com/idea-research/groundingdinoで公開されていたものを使用している.

    from groundingdino.util.inference import load_model, load_image, predict, annotate
    import cv2
    
    model = load_model("groundingdino/config/GroundingDINO_SwinT_OGC.py", "weights/groundingdino_swint_ogc.pth")
    IMAGE_PATH = "weights/dog-3.jpeg"
    TEXT_PROMPT = "chair . person . dog ."
    BOX_TRESHOLD = 0.35
    TEXT_TRESHOLD = 0.25
    
    image_source, image = load_image(IMAGE_PATH)
    
    boxes, logits, phrases = predict(
        model=model,
        image=image,
        caption=TEXT_PROMPT,
        box_threshold=BOX_TRESHOLD,
        text_threshold=TEXT_TRESHOLD
    )
    
    annotated_frame = annotate(image_source=image_source, boxes=boxes, logits=logits, phrases=phrases)
    cv2.imwrite("annotated_image.jpg", annotated_frame)
    
  4. Python プログラムの実行

    Python プログラムの実行

    【サイト内の関連ページ】 Python のまとめ: 別ページ »

    プログラムを c.pyのようなファイル名で保存したので, 「python c.py」のようなコマンドで行う.

    python c.py
    
  5. 結果の確認
    annotated_image.jpg
    

Grounding DINO を使う Python プログラムの実行(Windows 上)

手元の画像ファイルで実行してみる

実行時に画像ファイルを選択する.画像ファイルは複数選択可能である.

  1. Windows で,コマンドプロンプトを実行
  2. エディタを起動
    cd /d c:%HOMEPATH%\GroundingDINO
    notepad d.py
    
  3. エディタで,次のプログラムを保存

    このプログラムは, 公式の GitHub のページ: https://github.com/idea-research/groundingdinoで公開されていたものを変更して使用している.

    from groundingdino.util.inference import load_model, load_image, predict, annotate
    import cv2
    from PIL import Image
    
    model = load_model("groundingdino/config/GroundingDINO_SwinT_OGC.py", "weights/groundingdino_swint_ogc.pth")
    TEXT_PROMPT = "building . car . signal . traffic sign"
    BOX_TRESHOLD = 0.35
    TEXT_TRESHOLD = 0.25
    
    import tkinter as tk
    from tkinter import filedialog
    
    root = tk.Tk()
    root.withdraw()
    fpaths = filedialog.askopenfilenames()
    
    for fpath in root.tk.splitlist(fpaths):
        print("file name: ", fpath)
        image_source, image = load_image(fpath)
        boxes, logits, phrases = predict(
            model=model,
            image=image,
            caption=TEXT_PROMPT,
            box_threshold=BOX_TRESHOLD,
            text_threshold=TEXT_TRESHOLD
        )
        annotated_frame = annotate(image_source=image_source, boxes=boxes, logits=logits, phrases=phrases)
        Image.fromarray(cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB)).show()
    
  4. Python プログラムの実行

    Python プログラムの実行

    【サイト内の関連ページ】 Python のまとめ: 別ページ »

    プログラムを d.pyのようなファイル名で保存したので, 「python d.py」のようなコマンドで行う.

    python d.py
    

    ファイル選択画面が出るので,画像ファイルを選択する.ファイルは複数選択可能である.

  5. 結果の確認

実行時にプロンプトも指定する.

実行時に画像ファイルを選択する.画像ファイルは複数選択可能である. プロンプトも指定できる. プロンプトは,「building . car . signal . traffic sign」のように入れること.英語のみ.

  1. Windows で,コマンドプロンプトを実行
  2. エディタを起動
    cd /d c:%HOMEPATH%\GroundingDINO
    notepad e.py
    
  3. エディタで,次のプログラムを保存

    このプログラムは, 公式の GitHub のページ: https://github.com/idea-research/groundingdinoで公開されていたものを変更して使用している.

    from groundingdino.util.inference import load_model, load_image, predict, annotate
    import cv2
    from PIL import Image
    
    model = load_model("groundingdino/config/GroundingDINO_SwinT_OGC.py", "weights/groundingdino_swint_ogc.pth")
    BOX_TRESHOLD = 0.35
    TEXT_TRESHOLD = 0.25
    
    import tkinter as tk
    from tkinter import filedialog
    
    root = tk.Tk()
    root.withdraw()
    fpaths = filedialog.askopenfilenames()
    
    print("please input text prompt")
    print("for example, building . car . signal . traffic sign")
    TEXT_PROMPT = input()
    
    for fpath in root.tk.splitlist(fpaths):
        print("file name: ", fpath)
        image_source, image = load_image(fpath)
        boxes, logits, phrases = predict(
            model=model,
            image=image,
            caption=TEXT_PROMPT,
            box_threshold=BOX_TRESHOLD,
            text_threshold=TEXT_TRESHOLD
        )
        annotated_frame = annotate(image_source=image_source, boxes=boxes, logits=logits, phrases=phrases)
        Image.fromarray(cv2.cvtColor(annotated_frame, cv2.COLOR_BGR2RGB)).show()
    
  4. Python プログラムの実行

    Python プログラムの実行

    【サイト内の関連ページ】 Python のまとめ: 別ページ »

    プログラムを e.pyのようなファイル名で保存したので, 「python e.py」のようなコマンドで行う.

    python e.py
    

    ファイル選択画面が出るので,画像ファイルを選択する.ファイルは複数選択可能である.

    テキストのプロンプトは,「building . car . signal . traffic sign」のように入れること.英語のみ.

  5. 結果の確認