Dockerを使ったローカルWebUI構築

未分類

以前Dockerを使わない方法でWebUIを実装したのですが、最新のPythonにすると起動しないので、Dockerを使ってWebUIを実行するように変更しました。
 10分もかからず構築できます。

準備

環境

 Windows 11 Home
  LLMサーバ Ollama version 0.5.4
  GPU RTX4060 VRAM(8GB)

Dockerの準備

 Dockerは、あらかじめ必要とされる環境を構築してあるVMのようなもの(コンテナ型仮想化技術を提供するプラットフォームと表現される)だと思っています。
 DockerはホストOSのカーネルを使って、アプリケーションとその依存環境を「コンテナ」という単位で動作させます。
 現在のプログラム開発では、さまざまな言語やフレームワークが複雑に組み合わされることが一般的ですので、開発や実行に必要な環境をあらかじめ構築したコンテナを作成し、Docker上でコンテナを共有することで、環境構築の手間を省き、開発効率を上げるのに使われています。
 Dockerは、公式サイト(ウィンドウズ |Dockerのドキュメント)ここからダウンロードして、実行するだけでインストールできます。
 本日のDocker最新バージョンは
  docker 27.4.0
でした。

実行

Dockerの実行 

デスクトップのアイコンをダブルクリックしてDockerを起動します

アイコンをダブルクリックするだけです

職場で使っているアカウントでログインを求められますが、使っていないのでSKIP

 簡単なログインアンケートに答えると起動します。

WebUIの実行

WebUIの公式サイト(🏡 ホーム |WebUIを開く)に起動方法が書かれているので、起動コマンドを入力します。

# CUDA を使わない方法で起動
c:\ > docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

# CUDA を使用する方法で起動
c:\ > docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

私はCUDAを使用する方を使いました。

コンテナのダウンロードは、5分くらいで完了しました。
すべてがcompleteになると準備完了です。
3000ポートが解放されていることがわかりますね。

Web-UIにアクセスする

次のURL(http://localhost:3000)からWeb-UIにアクセスできます

GetStandardを選択すると管理者の登録を行うことができます

データはローカルに保存されているのですが、管理者名とパスワードは使いまわさないことが重要です。
ローカル環境でWebUIが使えるようになります。

日本語で質問したところ、ちゃんと稼働していることがわかります。

最後に

Dockerのインストールは本当に簡単です。
本当に簡単に環境構築ができるのは素晴らしいと思います。
今後はこういうものが求められるのではないでしょうか。