【生成AI】AUTOMATIC1111版 Stable Diffusion Web UI(http: 127.0.0.1:7860)での実際の操作例 - tsukimisoba/Blog GitHub Wiki

もちろんです薫さん。以下に、**AUTOMATIC1111版 Stable Diffusion Web UI(http://127.0.0.1:7860)での実際の操作例**を、**目的別に詳しく箇条書きでご案内**します。


🎨 画像生成(txt2img)の操作例

  • Web UIを開く → 左側メニューで「txt2img」を選択
  • 「Prompt」に生成したい内容を入力(例:a futuristic mecha robot in a cityscape
  • 「Negative Prompt」に避けたい要素を入力(例:blurry, low quality, watermark
  • 「Sampling method」→ Euler a(初期設定でOK)
  • 「Sampling steps」→ 20〜30(品質と速度のバランス)
  • 「Width / Height」→ 512x768(縦長ならHeightを大きく)
  • 「CFG Scale」→ 7〜10(プロンプトの強さ)
  • 「Seed」→ -1(ランダム生成。固定したい場合は任意の数値)
  • 「Generate」ボタンをクリック → 数秒〜数十秒で画像が表示される

🖼️ 画像から生成(img2img)の操作例

  • 左メニューで「img2img」を選択
  • 「Drop Image Here」に元画像をドラッグ&ドロップ
  • 「Prompt」に変更したい内容を入力(例:convert to anime style
  • 「Denoising strength」→ 0.4〜0.6(元画像の保持度合い)
  • 他の設定はtxt2imgと同様
  • 「Generate」ボタンで変換画像を生成

🧠 ControlNetの使用例(ポーズや線画から生成)

  • 「ControlNet」タブを開く(txt2imgまたはimg2img内)
  • 「Enable」チェックをON
  • 「Input Image」に線画やポーズ画像をアップロード
  • 「Preprocessor」→ Canny, OpenPose, Depth などを選択
  • 「Model」→ control_canny-fp16.safetensors などを選択
  • 「Weight」→ 1.0(効果の強さ)
  • 通常のプロンプトを入力 → 「Generate」で制御付き画像生成

🧩 LoRAの使用例(Additional Networks)

  • 「Additional Networks」タブを開く
  • 「Enable」チェックをON
  • 「Search」欄でLoRA名を入力(例:anime-face
  • 「Weight」スライダーで効果を調整(例:0.6
  • txt2imgに戻ってプロンプトを入力 → LoRAが自動適用される

⚙️ 拡張機能の導入・管理

  • 「Extensions」タブ → 「Available」タブを開く
  • 「Load from」ボタンで一覧取得
  • 気になる拡張を「Install」ボタンで導入
  • 「Installed」タブ → 「Apply and restart UI」で有効化
  • 拡張機能によって新しいタブ(ControlNet, Additional Networksなど)が追加される

📁 モデル・VAE・LoRAの選択

  • 「Settings → Stable Diffusion」タブでモデルを選択
  • 「Settings → SD VAE」タブでVAEを選択
  • LoRAは「Additional Networks」タブで選択

🧪 その他便利な操作

  • 「PNG Info」タブ → 生成画像をドラッグ → 使用したプロンプトや設定を復元
  • 「Extras」タブ → 画像のアップスケールや顔補正(GFPGAN、CodeFormer)
  • 「Settings」→ 起動時のデフォルトモデルやUIテーマを変更可能

次は、薫さんの生成したいジャンル(メカ、人物、背景など)に合わせたプロンプト構成例や、ControlNetの組み合わせ例もご案内できます。どの方向で深掘りしましょう?