< セマンティック・セグメンテーションの実行(MMSegmentation,PyTorch,Python を使用)(Windows 上)

金子邦彦研究室人工知能Windows で動く人工知能関係 Pythonアプリケーション,オープンソースソフトウエア)セマンティック・セグメンテーションの実行(MMSegmentation,PyTorch,Python を使用)(Windows 上)

セマンティック・セグメンテーションの実行(MMSegmentation,PyTorch,Python を使用)(Windows 上)

目次

  1. 前準備
  2. MMDetection,MMSegmentation のインストール(Windows 上)
  3. MMSegmentation を用いたセグメンテーションの実行(Windows 上)

MMSegmentation

MMSegmentation は, OpenMMLab の構成物で,セグメンテーションの機能を提供する.

文献

MMSegmentation Contributors, MMSegmentation: OpenMMLab Semantic Segmentation Toolbox and Benchmark, https://github.com/open-mmlab/mmsegmentation, 2020.

関連する外部ページ

関連項目OpenMMLab, MMCV, MMSelfSup

前準備

Git のインストール(Windows 上)

Gitは,バージョン管理システム.ソースコードの管理や複数人での共同に役立つ.

サイト内の関連ページ

Windows での Git のインストール: 別ページ »で説明している.

関連する外部ページ

Git の公式ページ: https://git-scm.com/

Python のインストール(Windows 上)

サイト内の関連ページ

関連する外部ページ

Python の公式ページ: https://www.python.org/

Build Tools for Visual Studio 2022,NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8,NVIDIA cuDNN 8.6 のインストール(Windows 上)

サイト内の関連ページ

NVIDIA グラフィックスボードを搭載しているパソコンの場合には, NVIDIA ドライバNVIDIA CUDA ツールキットNVIDIA cuDNN のインストールを行う.

関連する外部ページ

PyTorch のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. PyTorch のページを確認

    PyTorch のページ: https://pytorch.org/index.html

  3. 次のようなコマンドを実行(実行するコマンドは,PyTorch のページの表示されるコマンドを使う).

    次のコマンドは, PyTorch 2.0 (NVIDIA CUDA 11.8 用) をインストールする. 但し,Anaconda3を使いたい場合には別手順になる.

    事前に NVIDIA CUDA のバージョンを確認しておくこと(ここでは,NVIDIA CUDA ツールキット 11.8 が前もってインストール済みであるとする).

    PyTorch で,GPU が動作している場合には,「torch.cuda.is_available()」により,True が表示される.

    python -m pip install -U --ignore-installed pip
    python -m pip install -U torch torchvision torchaudio numpy --index-url https://download.pytorch.org/whl/cu118
    python -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    [image]

    Anaconda3を使いたい場合には, Anaconda プロンプト (Anaconda Prompt)管理者として実行し, 次のコマンドを実行する. (PyTorch と NVIDIA CUDA との連携がうまくいかない可能性があるため,Anaconda3を使わないことも検討して欲しい).

    conda install -y pytorch torchvision torchaudio pytorch-cuda=11.8 cudnn -c pytorch -c nvidia
    py -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    サイト内の関連ページ

    関連する外部ページ

MMDetection,MMSegmentation のインストール(Windows 上)

インストールの方法は複数ある. ここでは, NVIDIA CUDA ツールキットを使うことも考え, インストールしやすい方法として,ソースコードからビルドしてインストールする方法を案内している.

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. MIM,MMDetection のインストール

    インストール手順は, https://mmdetection.readthedocs.io/en/latest/get_started.html による.

    「mim install -e .」でエラーメッセージが出たときは, 「mim install -e .」の代わりに「pip install -e .」を実行.

    python -m pip install -U --ignore-installed pip
    python -m pip uninstall -y openmim mmcv mmcv-full opencv-python opencv-python-headless
    python -m pip install -U openmim opencv-python
    cd %HOMEPATH%
    rmdir /s /q mmdetection
    git clone https://github.com/open-mmlab/mmdetection.git
    cd mmdetection
    mim uninstall -y mmdet
    pip install -r requirements.txt
    mim install -e .
    mim list
    

    (途中省略)
    [image]
  3. MMSegmentation のインストール

    https://mmdetection.readthedocs.io/en/latest/get_started.html による.

    cd %HOMEPATH%
    rmdir /s /q mmsegmentation
    git clone https://github.com/open-mmlab/mmsegmentation.git
    cd mmsegmentation
    mim uninstall -y mmseg
    pip install -r requirements.txt
    mim install -e .
    python -c "import mmseg; print(mmseg.__version__)"
    

    (途中省略)
    [image]

MMSegmentation を用いたセグメンテーションの実行(Windows 上)

セマンティック・セグメンテーション(CityScapes, DeepLabV3, R-50-D8 を使用)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. 事前学習済みモデルのダウンロード

    Cityscapes データセットを用いての事前学習済みモデルを使用している.

    MMSegmentation の model zoo のページ: https://github.com/open-mmlab/mmsegmentation/blob/master/docs/en/model_zoo.md

    ここではCityScapes, DeepLabV3, R-50-D8 を選ぶことにする. Cityscapes データセットで学習済みのモデルである.

    • configs/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes.py
    • https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth

    次のコマンドを実行する.

    cd %HOMEPATH%\mmsegmentation
    mkdir checkpoints
    cd checkpoints
    curl -O https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth
    dir /w
    

    [image]
  3. Python プログラムの実行

    Python プログラムの実行

    Python 開発環境(Jupyter Qt Console, Jupyter ノートブック (Jupyter Notebook), Jupyter Lab, Nteract, Spyder, PyCharm, PyScripterなど)も便利である.

    Python のまとめ: 別ページ »にまとめ

    セマンティック・セグメンテーションを行う.

    プログラムは,公式ページ https://mmsegmentation.readthedocs.io/en/latest/get_started.html のものを書き換えて使用.

    下図では,Python プログラムの実行のため,jupyter qtconsole を使用している.

    import os
    import torch
    from mmseg.apis import inference_model, init_model
    import mmcv
    
    os.chdir((os.getenv('HOMEPATH') + '\\' + 'mmsegmentation'))
    config_file = 'configs/deeplabv3/deeplabv3_r50-d8_4xb2-80k_cityscapes-512x1024.py'
    checkpoint_file = 'checkpoints/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth'
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    model = init_model(config_file, checkpoint_file, device=device)
    img = 'demo/demo.png'  # or img = mmcv.imread(img), which will only load it once
    
    from mmseg.registry import VISUALIZERS
    visualizer = VISUALIZERS.build(model.cfg.visualizer)
    visualizer.dataset_meta = model.dataset_meta
    
    result = inference_model(model, img)
    image = mmcv.imconvert(mmcv.imread(img), 'bgr', 'rgb')
    visualizer.add_datasample('result', image, data_sample=result, show=False, draw_gt=False)
    mmcv.imshow(visualizer.get_image())
    

    [image]
  4. 結果が表示される

    エラーメッセージが出ないことを確認.

    [image]

動画ファイルのセマンティック・セグメンテーション

  1. 動画ファイル video.mp4 を %HOMEPATH%\mmsegmentation に置く
  2. 動画ファイルのセグメンテーションを行う Python プログラム

    次の Python プログラムを実行する.mmcv を用いた表示を行うので,Jupyter QtConsoleJupyter ノートブック (Jupyter Notebook) の利用が便利である.

    import os
    import torch
    from mmseg.apis import inference_model, init_model, show_result_pyplot
    import mmcv
    
    os.chdir((os.getenv('HOMEPATH') + '\\' + 'mmsegmentation'))
    config_file = 'configs/deeplabv3/deeplabv3_r50-d8_4xb2-80k_cityscapes-512x1024.py'
    checkpoint_file = 'checkpoints/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth'
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    model = init_model(config_file, checkpoint_file, device=device)
    video = mmcv.VideoReader(os.getenv('HOMEPATH') + '\\' + 'mmdetection' + '\\' + 'demo' + '\\' + 'demo.mp4')
    
    from mmseg.registry import VISUALIZERS
    visualizer = VISUALIZERS.build(model.cfg.visualizer)
    visualizer.dataset_meta = model.dataset_meta
    
    for frame in video:
        result = inference_model(model, frame)
        image = mmcv.imconvert(frame, 'bgr', 'rgb')
        visualizer.add_datasample('result', image, data_sample=result, show=False, draw_gt=False)
        mmcv.imshow(visualizer.get_image(), wait_time=100)
    

    [image]
  3. 結果が表示される

    エラーメッセージが出ないことを確認.

    [image]

パソコンのカメラのセマンティック・セグメンテーション

  1. 事前学習済みモデルのダウンロード

    Cityscapes データセットを用いての事前学習済みモデルを使用している.

    MMSegmentation の model zoo のページ: https://github.com/open-mmlab/mmsegmentation/blob/master/docs/en/model_zoo.md

    ここではCityScapes, DeepLabV3, R-50-D8 を選ぶことにする. Cityscapes データセットで学習済みのモデルである.

    • configs/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes.py
    • https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth

    次のコマンドを実行する.

    cd %HOMEPATH%\mmsegmentation
    mkdir checkpoints
    cd checkpoints
    curl -O https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3/deeplabv3_r50-d8_512x1024_80k_cityscapes/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth
    dir /w
    

    [image]
  2. 動画ファイルのセグメンテーションを行う Python プログラム

    次の Python プログラムを実行する.mmcv を用いた表示を行うので,Jupyter QtConsoleJupyter ノートブック (Jupyter Notebook) の利用が便利である.

    import os
    import torch
    import cv2
    from mmseg.apis import inference_model, init_model, show_result_pyplot
    import mmcv
    
    os.chdir((os.getenv('HOMEPATH') + '\\' + 'mmsegmentation'))
    config_file = 'configs/deeplabv3/deeplabv3_r50-d8_4xb2-80k_cityscapes-512x1024.py'
    checkpoint_file = 'checkpoints/deeplabv3_r50-d8_512x1024_80k_cityscapes_20200606_113404-b92cfdd4.pth'
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    model = init_model(config_file, checkpoint_file, device=device)
    video = mmcv.VideoReader(os.getenv('HOMEPATH') + '\\' + 'mmdetection' + '\\' + 'demo' + '\\' + 'demo.mp4')
    
    from mmseg.registry import VISUALIZERS
    visualizer = VISUALIZERS.build(model.cfg.visualizer)
    visualizer.dataset_meta = model.dataset_meta
    
    v = cv2.VideoCapture(0)
    while(v.isOpened()):
        r, f = v.read()
        if ( r == False ):
            break
        result = inference_model(model, f)
        image = mmcv.imconvert(f, 'bgr', 'rgb')
        visualizer.add_datasample('result', image, data_sample=result, show=False, draw_gt=False)
        mmcv.imshow(visualizer.get_image(), wait_time=100)
    

    [image]
  3. 結果が表示される

    エラーメッセージが出ないことを確認.

    [image]
  4. 事前学習済みモデルのダウンロード

    Pascal VOC データセットを用いての事前学習済みモデルを使用している.

    MMSegmentation の model zoo のページ: https://github.com/open-mmlab/mmsegmentation/blob/master/docs/en/model_zoo.md

    ここではPascal VOC, DeepLabV3, R-50-D8 を選ぶことにする. Cityscapes データセットで学習済みのモデルである.

    • configs/deeplabv3plus/deeplabv3plus_r50-d8_4xb4-80k_ade20k-512x512.py
    • https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3plus/deeplabv3plus_r50-d8_512x512_80k_ade20k/deeplabv3plus_r50-d8_512x512_80k_ade20k_20200614_185028-bf1400d8.pth

    次のコマンドを実行する.

    cd %HOMEPATH%\mmsegmentation
    mkdir checkpoints
    cd checkpoints
    curl -O https://download.openmmlab.com/mmsegmentation/v0.5/deeplabv3plus/deeplabv3plus_r50-d8_512x512_80k_ade20k/deeplabv3plus_r50-d8_512x512_80k_ade20k_20200614_185028-bf1400d8.pth
    dir /w
    

    [image]
  5. 動画ファイルのセグメンテーションを行う Python プログラム

    次の Python プログラムを実行する.mmcv を用いた表示を行うので,Jupyter QtConsoleJupyter ノートブック (Jupyter Notebook) の利用が便利である.

    import os
    import torch
    import cv2
    from mmseg.apis import inference_model, init_model, show_result_pyplot
    import mmcv
    
    os.chdir((os.getenv('HOMEPATH') + '\\' + 'mmsegmentation'))
    config_file = 'configs/deeplabv3plus/deeplabv3plus_r50-d8_4xb4-80k_ade20k-512x512.py'
    checkpoint_file = 'checkpoints/deeplabv3plus_r50-d8_512x512_80k_ade20k_20200614_185028-bf1400d8.pth'
    device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    model = init_model(config_file, checkpoint_file, device=device)
    video = mmcv.VideoReader(os.getenv('HOMEPATH') + '\\' + 'mmdetection' + '\\' + 'demo' + '\\' + 'demo.mp4')
    
    from mmseg.registry import VISUALIZERS
    visualizer = VISUALIZERS.build(model.cfg.visualizer)
    visualizer.dataset_meta = model.dataset_meta
    
    v = cv2.VideoCapture(0)
    while(v.isOpened()):
        r, f = v.read()
        if ( r == False ):
            break
        result = inference_model(model, f)
        image = mmcv.imconvert(f, 'bgr', 'rgb')
        visualizer.add_datasample('result', image, data_sample=result, show=False, draw_gt=False)
        mmcv.imshow(visualizer.get_image(), wait_time=100)
    

    [image]
  6. 結果が表示される

    エラーメッセージが出ないことを確認.

    [image]