金子邦彦研究室人工知能Windows で動く人工知能関係 Pythonアプリケーション,オープンソースソフトウエア)text-generation-webui のインストール,日本語言語モデルを用いた対話(LLM,公開日本語モデルを利用)(Python,PyTorch を使用)(Windows 上)

text-generation-webui のインストール,日本語言語モデルを用いた対話(LLM,公開日本語モデルを利用)(Python,PyTorch を使用)(Windows 上)

目次

  1. 前準備
  2. text-generation-webui のインストールと動作確認(Windows 上)
  3. text-generation-webui の実行結果例

前準備

Python のインストール(Windows 上)

サイト内の関連ページ

関連する外部ページ

Python の公式ページ: https://www.python.org/

Build Tools for Visual Studio 2022,NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8,NVIDIA cuDNN 8.6 のインストール(Windows 上)

サイト内の関連ページ

NVIDIA グラフィックスボードを搭載しているパソコンの場合には, NVIDIA ドライバNVIDIA CUDA ツールキットNVIDIA cuDNN のインストールを行う.

関連する外部ページ

PyTorch のインストール(Windows 上)

  1. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  2. PyTorch のページを確認

    PyTorch のページ: https://pytorch.org/index.html

  3. 次のようなコマンドを実行(実行するコマンドは,PyTorch のページの表示されるコマンドを使う).

    次のコマンドは, PyTorch 2.0 (NVIDIA CUDA 11.8 用) をインストールする. 但し,Anaconda3を使いたい場合には別手順になる.

    事前に NVIDIA CUDA のバージョンを確認しておくこと(ここでは,NVIDIA CUDA ツールキット 11.8 が前もってインストール済みであるとする).

    PyTorch で,GPU が動作している場合には,「torch.cuda.is_available()」により,True が表示される.

    python -m pip install -U --ignore-installed pip
    python -m pip install -U torch torchvision torchaudio numpy --index-url https://download.pytorch.org/whl/cu118
    python -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    [image]

    Anaconda3を使いたい場合には, Anaconda プロンプト (Anaconda Prompt)管理者として実行し, 次のコマンドを実行する. (PyTorch と NVIDIA CUDA との連携がうまくいかない可能性があるため,Anaconda3を使わないことも検討して欲しい).

    conda install -y pytorch torchvision torchaudio pytorch-cuda=11.8 cudnn -c pytorch -c nvidia
    py -c "import torch; print(torch.__version__, torch.cuda.is_available())" 
    

    サイト内の関連ページ

    関連する外部ページ

text-generation-webui のインストールと動作確認(Windows 上)

  1. https://github.com/oobabooga/text-generation-webui にアクセス
  2. Web ページに記載されているインストールの手順を確認

    [image]
  3. Windows で,コマンドプロンプト管理者として実行

    コマンドプロンプトを管理者として実行: 別ページ »で説明

  4. oobabooga-windows.zip をダウンロード
    cd %HOMEPATH%
    curl -L -O https://github.com/oobabooga/text-generation-webui/releases/download/installers/oobabooga_windows.zip
    

    [image]
  5. インストール

    zip ファイルを展開(解凍)し,start_windows.bat を実行.

    cd %HOMEPATH%
    powershell -command "Expand-Archive -Path oobabooga_windows.zip"
    cd oobabooga_windows
    cd oobabooga_windows
    start_windows.bat
    

    [image]
  6. NVIDIA グラフィックスボードを使う場合には A, CPU モードで動かす場合には D

    [image]
  7. インストールが終わると 「Running on local URL: http://127.0.0.1:7860」のように表示されるので確認する

    [image]
  8. 次で公開されているモデルを使うことにする(モデルはhttps://huggingface.coで検索できる)

  9. Web ブラウザで http://127.0.0.1:7860 を開く

    http://127.0.0.1:7860

  10. ダウンロード

    「Model」のタブで,「Download custom model or LoRA」に「cyberagent/open-calm-3b」を入れて,「Download」をクリック.ダウンロードの終了を待つ.

    [image]
  11. ダウンロードが終了すると「Done!」と表示される.

    [image]
  12. 「Model」の右横のボタンをクリックして,モデルのリストを更新

    [image]
  13. 「Model」の下のリストで,使用したいモデルを選ぶ

    [image]
  14. 対話を行ってみる

    [image]

text-generation-webui の実行結果例

cyberagent/open-calm-3b, 2.7B, https://huggingface.co/cyberagent/open-calm-3b

[image]

cyberagent/open-calm-1b, 1.4B, https://huggingface.co/cyberagent/open-calm-1b

[image]

cyberagent/open-calm-large, 830M, https://huggingface.co/cyberagent/open-calm-large

[image]

cyberagent/open-calm-medium, 400M, https://huggingface.co/cyberagent/open-calm-medium を使用

[image]