【生成AI】AUTOMATIC1111版 Stable Diffusion Web UI(http: 127.0.0.1:7860)での実際の操作例 - tsukimisoba/Blog GitHub Wiki
もちろんです薫さん。以下に、**AUTOMATIC1111版 Stable Diffusion Web UI(http://127.0.0.1:7860)での実際の操作例**を、**目的別に詳しく箇条書きでご案内**します。
🎨 画像生成(txt2img)の操作例
- Web UIを開く → 左側メニューで「txt2img」を選択
- 「Prompt」に生成したい内容を入力(例:
a futuristic mecha robot in a cityscape) - 「Negative Prompt」に避けたい要素を入力(例:
blurry, low quality, watermark) - 「Sampling method」→
Euler a(初期設定でOK) - 「Sampling steps」→
20〜30(品質と速度のバランス) - 「Width / Height」→
512x768(縦長ならHeightを大きく) - 「CFG Scale」→
7〜10(プロンプトの強さ) - 「Seed」→
-1(ランダム生成。固定したい場合は任意の数値) - 「Generate」ボタンをクリック → 数秒〜数十秒で画像が表示される
🖼️ 画像から生成(img2img)の操作例
- 左メニューで「img2img」を選択
- 「Drop Image Here」に元画像をドラッグ&ドロップ
- 「Prompt」に変更したい内容を入力(例:
convert to anime style) - 「Denoising strength」→
0.4〜0.6(元画像の保持度合い) - 他の設定はtxt2imgと同様
- 「Generate」ボタンで変換画像を生成
🧠 ControlNetの使用例(ポーズや線画から生成)
- 「ControlNet」タブを開く(txt2imgまたはimg2img内)
- 「Enable」チェックをON
- 「Input Image」に線画やポーズ画像をアップロード
- 「Preprocessor」→
Canny,OpenPose,Depthなどを選択 - 「Model」→
control_canny-fp16.safetensorsなどを選択 - 「Weight」→
1.0(効果の強さ) - 通常のプロンプトを入力 → 「Generate」で制御付き画像生成
🧩 LoRAの使用例(Additional Networks)
- 「Additional Networks」タブを開く
- 「Enable」チェックをON
- 「Search」欄でLoRA名を入力(例:
anime-face) - 「Weight」スライダーで効果を調整(例:
0.6) - txt2imgに戻ってプロンプトを入力 → LoRAが自動適用される
⚙️ 拡張機能の導入・管理
- 「Extensions」タブ → 「Available」タブを開く
- 「Load from」ボタンで一覧取得
- 気になる拡張を「Install」ボタンで導入
- 「Installed」タブ → 「Apply and restart UI」で有効化
- 拡張機能によって新しいタブ(ControlNet, Additional Networksなど)が追加される
📁 モデル・VAE・LoRAの選択
- 「Settings → Stable Diffusion」タブでモデルを選択
- 「Settings → SD VAE」タブでVAEを選択
- LoRAは「Additional Networks」タブで選択
🧪 その他便利な操作
- 「PNG Info」タブ → 生成画像をドラッグ → 使用したプロンプトや設定を復元
- 「Extras」タブ → 画像のアップスケールや顔補正(GFPGAN、CodeFormer)
- 「Settings」→ 起動時のデフォルトモデルやUIテーマを変更可能
次は、薫さんの生成したいジャンル(メカ、人物、背景など)に合わせたプロンプト構成例や、ControlNetの組み合わせ例もご案内できます。どの方向で深掘りしましょう?