画像生成AI環境を簡単に構築!InstallerStableDiffusionWebUIの使い方

AI

今回はより簡単に画像生成AI環境を構築できる「InstallerStableDiffusionWebUI」を紹介します。

GitやPyhton等も全て自動でインストールされ、数クリックで簡単に構築可能です。
動作が確認されているのはNvidiaのGPUが搭載されているWindowsのみなので注意して下さい。

今回はインストールから日本語化、またStableDiffusion2.1や主なモデルの導入方法まで解説します。
ただ、WebUI自体の操作は多くの機能があり解説するとキリがないので他所のサイトにお任せします。
予めご了承下さい。

ダウンロード

下記サイトから最新版のソフトをインストールします。

Releases · EmpireMediaScience/A1111-Web-UI-Installer
Complete installer for Automatic1111's infamous Stable Diffusion WebUI - EmpireMediaScience/A1111-Web-UI-Installer
赤い部分をクリックするとダウンロードされます

アクセスすると「A1111.Web.UI.Autoinstaller.v~.exe」のリンクがあるのでクリックしてダウンロードします。

インストール

ダウンロードした「A1111.Web.UI.Autoinstaller.v~.exe」を右クリックから管理者として実行します。

管理者として実行

おそらく画像のようにWindowsが保護すると思いますが左下の「詳細」をクリックし実行を押します。

詳細を押して「実行」をクリック

次に「NEXT」を押すとGitやPythonをダウンロードするか確認します。

既にダウンロードしてる場合は必要ないですが、よく分からない場合やダウンロードしてない人はそのまま「NEXT」を押してダウンロードしてください。

暫く待つと以下の表示がされます。

最初の部分はどこにインストールするか決めます。
後々フォルダ内にファイルを移動させたりするので覚えやすい場所にする事をおすすめします。

自分はC直下に「StableDiffusion」というフォルダを作成しました。

「CleanInstall」や「InstallSD~」の部分はチェックを付けたまま、「I Understand」にチェックを付けて「Install」を押します。

それなりに時間が掛かるのでのんびり待ちましょう。

この画面が表示されれば終了です。

起動時の設定

先程選択したフォルダに移動して「A1111 WebUI (Pin to Taskbar)」をダブルクリックして起動します。

このショートカットは移動させても大丈夫なので、デスクトップやタスクバーに置くと使いやすくなります。

起動前の設定

起動すると以下の表示がされます。

Auto-Update WebUI Auto-Update Extensions

WebUI起動時にアップデートを行うか設定できます。
下にある「LAUNCH WEBUI」を押すまで実行されません。

右側にある「Force」をクリックするとその場で更新を行います。

Clear Generated Images

起動時にこれまで作成した画像(outputフォルダーなど)を全て消去します。
「Force」を押すとその場で消去されるので注意して下さい。

Low VRAM(medvram) EnableXformers

起動時にメモリを節約するオプション等を使用するか決められます。

Low VRAMではGT16XXシリーズなどで画像生成すると黒くなる問題に対処出来ます。
その分色々な制約が課されるので基本的には使用しない事をおすすめします。

Xformerは画像生成を高速化する機能になります。
後で紹介するSD2.1はSD1.5等と比べて黒い画像が生成される可能性が高く、Xformer等を使用しないと動かない場合があります

デメリットとして同じプロンプト、同じシードでも微妙に違う画像が生成される事があり再現性が低いです。

Additional Launch Options

起動時に付けたいオプションを記入できます。
オプションを入力後「SAVE」を押すと保存されます。

最後に「LAUNCH WEBUI」をクリックすると起動します。

このソフトから起動すると自動でブラウザが開くので楽になります。

WebUIの設定

起動すると以下の用になります。
取り敢えず、一度左上の「Stable Diffusion Checkpoint」をクリックしてSD1.5を選択、適当な画像を生成して動くか試します。

「Prompt」と書いてある部分に今回は「forest」と入力して右側の「Generate」をクリックします。

以下のように画像が生成されたら無事導入完了です。

同じ画像が生成される訳ではないので注意

日本語化

タブの一番右側「Extensions」をクリックして「Available」を選択して「Load from」をクリックします。

更新されたら「localization」以外にチェックをつけます。
その中に日本語用のファイルがあるのでインストールを押します。

囲っている部分をインストール

次に「Settings」タブに移動して中間にある「Localization」タブから「ja_JP」を選びます。
もし表示されない場合は右側にあるマークをクリックして更新して下さい。

青い部分

選択したら上に戻って「Apply settings」を必ずクリックします。

Apply settingsをクリック

最後に一番下に行き「Restart Gradio~」をクリックして再起動します。

オレンジ色の部分をクリック

成功すると画像のように日本語化が完了します。

便利な設定

「設定」タブ中間にある「クイック設定」の部分に下記コードを加えます。

sd_model_checkpoint,sd_vae,sd_hypernetwork
クイック設定に上記コードを記載

上の方にある「設定を適用」を必ず押してから一番下の「Gradioを再起動」を押します。

成功すると画像の用にVAEやHyperNetworkを手軽に変更できるようになります。

後々非常に便利になるのでやることをオススメします。

ダークモードについて

WebUIは端末の設定に従ってダークモードに変わります。

Windows11の場合はスタート右クリック→「設定」から「個人用設定」の「色」を選択します。

「モードを選ぶ」からダーク、もしくはカスタムを選択して「規定のアプリモード」をダークにすると黒いUIが表示されます。

また、ブラウザ自体をダークモードに変更することでもWebUIをダークモードにすることも可能です。

古い画像なので旧世代のGUIになっています

画像生成モデルのダウンロード

今の状態では最初にダウンロードしたSD1.5しか使えません。

今回はStableDiffusion2.1、TrinArt、WaifuDiffusionを導入します。

なお、SD2.1は特殊なので最後に説明します。

WaifuDiffusion

下記サイトにアクセスして4つのファイルをダウンロードします。

hakurei/waifu-diffusion-v1-4 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

表示されている「wd-1-4-anime_e1.ckpt」「wd-1-4-anime_e1.yaml」をダウンロードします。

↓をクリックするとダウンロードできる

次に「model」フォルダに移動して「wd-1-3-5_80000-fp32.ckpt」をダウンロードします。

最後に「vae」フォルダに移動して「kl-f8-anime.ckpt」「kl-f8-anime2.ckpt」をダウンロードします。

こちらのファイルは拡張子を「.pt」に変更しておきます。

拡張子はエクスプローラーの「表示」→「表示」→「ファイル名拡張子」にチェックを入れると見れます。

ファイル名拡張子にチェックを入れる

後でフォルダに移動します。

TrinArt

下記サイトにアクセスして「derrida_final.ckpt」と「autoencoder_fix~」をダウンロードします。

naclbit/trinart_derrida_characters_v2_stable_diffusion at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

「autoencoder_fix~」の方は拡張子を.ptに変えておきます。

StableDiffusion

下記サイトにアクセスして「v2-1_768-ema-pruned.ckpt」をダウンロードします。

stabilityai/stable-diffusion-2-1 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

次に下記リンクを右クリックから「名前を付けてリンク先を保存」を選択します。

https://raw.githubusercontent.com/Stability-AI/stablediffusion/main/configs/stable-diffusion/v2-inference-v.yaml
名前を付けてリンク先を保存をクリック

保存するファイルが.yamlか確認したら名前を「v2-1_768-ema-pruned.yaml」にします。

ファイル名を変更

これで必要なファイルのダウンロードが完了しました。

次はフォルダにそれぞれ移動させます。

モデルの移動

先程ダウンロードしたファイルを移動させていきます。

最初に本ソフトをインストールしたフォルダを開き「Stable-Diffusion-webui」→「models」を開きます。

modelsフォルダを開く

次に先程ダウンロードした.ckptファイルと.yamlファイルを「Stable-diffusion」フォルダに入れます。

入れた状態

次に残った.ptファイルを「VAE」フォルダに入れます。

入れた状態

これでファイルの移動は終わりました。

WebUIを起動してる場合は一度閉じて(コマンドプロンプトを消す)再度実行します。

成功すると他のモデルを選択できるようになります。

Checkpoint
VAE

WaifuDiffusion1.4を使用する場合は「kl-f8-anime2」の使用を推奨します。

現在のWaifuDiffusion1.4 Animeはキャラクターの名前をプロンプトに指定してもキャラは作成されないので注意して下さい。

参考になるサイト

AIアートの作り方・工程の解説【Stable Diffusion web UI(AUTOMATIC1111版)】

分かりやすく解説されているサイト。
これと睨めっこしながらやっていけば大体の事は理解できると思います。

導入は終わっているので「txt2imgから始める」の項目から推奨。

AIアートの作り方・工程の解説【Stable Diffusion web UI(AUTOMATIC1111版)】 – 忘却まとめ

終わりに

今回は導入方法を紹介しました。

ほぼ自動で全部インストールしてくれる他、更新なども行えるので非常に便利だと思います。

NMDKStbaleDiffusionというソフトの解説も行っていますが、未だにSD2.0系列に非対応だったりするのでWebUIの方に軸足をズラしました。

WebUIは非常に多機能で躊躇うかもしれませんが、割りと簡単なので是非とも一度チャレンジして見て下さい。

それでは!

コメント

タイトルとURLをコピーしました