金子邦彦研究室人工知能Windows で動く人工知能関係 Pythonアプリケーション,オープンソースソフトウエア)asteroid のインストールと動作確認(音源分離)(Python,PyTorch を使用)(Windows 上)

asteroid のインストールと動作確認(音源分離)(Python,PyTorch を使用)(Windows 上)

asteroid は,音源分離(audio source separation)のツールキット.

目次

  1. 前準備
  2. asteroid のインストール
  3. 音源分離の実行
[image]

文献

Ryosuke Sawata, Stefan Uhlich, Shusuke Takahashi, Yuki Mitsufuji, All for One and One for All: Improving Music Separation by Bridging Networks, CoRR, abs/2010.04228v4, 2021.

PDF: https://arxiv.org/pdf/2010.04228v4.pdf

関連する外部ページ

前準備

Git のインストール(Windows 上)

Gitは,バージョン管理システム.ソースコードの管理や複数人での共同に役立つ.

サイト内の関連ページ

Windows での Git のインストール: 別ページ »で説明している.

関連する外部ページ

Git の公式ページ: https://git-scm.com/

Python のインストール(Windows 上)

サイト内の関連ページ

関連する外部ページ

Python の公式ページ: https://www.python.org/

Build Tools for Visual Studio 2022,NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8,NVIDIA cuDNN 8.6 のインストール(Windows 上)

サイト内の関連ページ

NVIDIA グラフィックスボードを搭載しているパソコンの場合には, NVIDIA ドライバNVIDIA CUDA ツールキットNVIDIA cuDNN のインストールを行う.

関連する外部ページ

PyTorch のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. PyTorch のページを確認

    PyTorch のページ: https://pytorch.org/index.html

  3. 次のようなコマンドを実行(実行するコマンドは,PyTorch のページの表示されるコマンドを使う).

    次のコマンドは, PyTorch 2.0 (NVIDIA CUDA 11.8 用) をインストールする. 但し,Anaconda3を使いたい場合には別手順になる.

    事前に NVIDIA CUDA のバージョンを確認しておくこと(ここでは,NVIDIA CUDA ツールキット 11.8 が前もってインストール済みであるとする).

    PyTorch で,GPU が動作している場合には,「torch.cuda.is_available()」により,True が表示される.

    python -m pip install -U --ignore-installed pip
    python -m pip install -U torch torchvision torchaudio numpy --index-url https://download.pytorch.org/whl/cu118
    python -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    [image]

    Anaconda3を使いたい場合には, Anaconda プロンプト (Anaconda Prompt)管理者として実行し, 次のコマンドを実行する. (PyTorch と NVIDIA CUDA との連携がうまくいかない可能性があるため,Anaconda3を使わないことも検討して欲しい).

    conda install -y pytorch torchvision torchaudio pytorch-cuda=11.8 cudnn -c pytorch -c nvidia
    py -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    サイト内の関連ページ

    関連する外部ページ

asteroid のインストール

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. ダウンロードとインストール

    cd %HOMEPATH%
    rmdir /s /q asteroid
    git clone --recursive https://github.com/asteroid-team/asteroid
    cd asteroid
    python -m pip install -r requirements.txt
    python setup.py develop
    

    [image]
    (以下省略)

音源分離の実行

コマンドによる実行

https://github.com/asteroid-team/asteroid/blob/master/notebooks/00_GettingStarted.ipynb に記載の手順による.

  1. Windows で,コマンドプロンプトを実行
  2. 次のコマンドを実行することにより,音源分離を実行.
    cd %HOMEPATH%
    cd asteroid
    curl -O https://www.merl.com/demos/deep-clustering/media/female-female-mixture.wav
    asteroid-infer "mpariente/DPRNNTasNet-ks2_WHAM_sepclean" --files female-female-mixture.wav
    

    [image]
  3. 次のコマンドを実行することにより,結果の音声を再生する.
    female-female-mixture_est1.wav
    

    [image]
  4. 次のコマンドを実行することにより,結果の音声を再生する.
    female-female-mixture_est2.wav
    

    [image]
  5. 次のコマンドを実行することにより,元の音声を再生する.
    female-female-mixture_est.wav
    

    [image]

Python プログラムによる実行

https://github.com/asteroid-team/asteroid/blob/master/notebooks/00_GettingStarted.ipynb に記載の手順による.

  1. Windows で,コマンドプロンプトを実行
  2. 音源分離とスペクトログラムの表示を行う Python プログラム

    次のコマンドを実行

    cd %HOMEPATH%
    cd asteroid
    python -m jupyter qtconsole
    

    Python プログラムを実行する

    Python プログラムの実行: 別ページ »で説明

    Python のまとめ: 別ページ »にまとめ

    from asteroid.models import BaseModel
    import soundfile as sf
    
    # 'from_pretrained' automatically uses the right model class (asteroid.models.DPRNNTasNet).
    model = BaseModel.from_pretrained("mpariente/DPRNNTasNet-ks2_WHAM_sepclean")
    
    # You can pass a NumPy array:
    mixture, _ = sf.read("female-female-mixture.wav", dtype="float32", always_2d=True)
    # Soundfile returns the mixture as shape (time, channels), and Asteroid expects (batch, channels, time)
    mixture = mixture.transpose()
    mixture = mixture.reshape(1, mixture.shape[0], mixture.shape[1])
    out_wavs = model.separate(mixture)
    
    # Or simply a file name:
    model.separate("female-female-mixture.wav")
    
    import numpy as np
    import matplotlib.pyplot as plt
    import librosa
    import librosa.display
    
    
    def show_magspec(waveform, **kw):
        return librosa.display.specshow(
            librosa.amplitude_to_db(np.abs(librosa.stft(waveform))),
            y_axis="log", x_axis="time",
            **kw
        )
    
    
    est1 = sf.read("female-female-mixture_est1.wav")[0]
    est2 = sf.read("female-female-mixture_est2.wav")[0]
    
    fig, ax = plt.subplots(1, 2, figsize=(15, 5))
    show_magspec(est1, sr=8000, ax=ax[0])
    show_magspec(est2, sr=8000, ax=ax[1])
    

    [image]