【生成AI】画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧 - tsukimisoba/Blog GitHub Wiki

✅ AUTOMATIC1111でメカ画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧(GitHub Markdown形式)


✅ 前提:ローカル環境でのテスト目的

AUTOMATIC1111 Web UIを使って、メカ系画像の生成テストを行うための最小構成を以下にまとめます。


🧩 必要最低限の拡張機能(Extensions)

拡張機能名 用途 導入方法
ControlNet ポーズや構図制御に必須。OpenPoseやDepthでメカのポーズを制御可能。 Web UIの「Extensions」→「Available」→「controlnet」で検索・Install。再起動後、モデルを自動DLまたは手動配置。
Civitai Helper Civitaiからモデル・LoRAを簡単にDL・管理できる。 同上。「civitai-helper」で検索・Install。
Additional Networks LoRAやLyCORISの読み込みに必要。 同上。「additional-networks」で検索・Install。

📦 導入手順(簡易)

# 1. AUTOMATIC1111のインストール(初回のみ)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
# Python仮想環境を作成して起動(任意)
# モデルを配置して起動
# 2. モデルの配置
# MechaMixなどの .safetensors ファイルを以下に配置
models/Stable-diffusion/
# LoRAは以下に配置
models/Lora/
# 3. 拡張機能の導入
# Web UI起動後、Extensionsタブから必要な拡張機能を検索・Install
# 再起動後、ControlNetモデルなどを自動DLまたは手動配置
# 4. テスト生成設定例
Prompt: a giant mecha robot, detailed mechanical parts, sci-fi background
Negative Prompt: (worst quality, low quality:1.4), EasyNegative, badhandv4, text, watermark
Sampler: DPM++ 2M Karras
Steps: 20
CFG: 7
Clip skip: 2

🔧 補足

  • ControlNetのOpenPoseやDepthを併用することで、構図やポーズの制御がしやすくなります。
  • SDXLモデル(Mecha XL)を使う場合は、Web UIのSDXL対応設定(VAEやClip Skip)を確認してください。

📚 参考リンク


次は、ControlNetのおすすめプリプロセッサ(OpenPoseやDepth)とその導入方法をまとめましょうか?

**✅ AUTOMATIC1111でメカ画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧(GitHub Markdown形式)**

✅ 前提:ローカル環境でのテスト目的

AUTOMATIC1111 Web UIを使って、メカ系画像の生成テストを行うための最小構成を以下にまとめます。


🧩 必要最低限の拡張機能(Extensions)

拡張機能名 用途 導入方法
ControlNet ポーズや構図制御に必須。OpenPoseやDepthでメカのポーズを制御可能。 Web UIの「Extensions」→「Available」→「controlnet」で検索・Install。再起動後、モデルを自動DLまたは手動配置。
Civitai Helper Civitaiからモデル・LoRAを簡単にDL・管理できる。 同上。「civitai-helper」で検索・Install。
Additional Networks LoRAやLyCORISの読み込みに必要。 同上。「additional-networks」で検索・Install。

🧠 推奨モデル(メカ系)

✅ メインモデル(Checkpoint)

モデル名 ベース 特徴 ダウンロードURL
MechaMix v1.0 SD 1.5 メカ特化のマージモデル。Trigger Word: mecha [MechaMix v1.0 on Civitai](https://civitai.com/models/69438/mechamix)

🔁 MechaMixの代替モデル(同じくメカ特化)

モデル名 タイプ ベース 特徴 ダウンロードURL
MechaDream All-in-one v1 Checkpoint SD 1.5 メカ+メカ娘両対応。ControlNetとの相性良好。 [MechaDream All-in-one on Civitai](https://civitai.com/models/47135/mechadream-all-in-one)
Mecha - XL v1.0 Checkpoint SDXL 1.0 SDXL対応のメカ特化モデル。高解像度向け。 [Mecha XL v1.0 on Civitai](https://civitai.com/models/145214/mecha-xl)
OriginMecha(起源) LoRA SD 1.5 多彩なメカスタイルを追加可能。MechaMixと併用推奨。 [OriginMecha on Civitai](https://civitai.com/models/76693/mecha?modelVersionId=81465)

📦 導入手順(簡易)

# 1. AUTOMATIC1111のインストール(初回のみ)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
# Python仮想環境を作成して起動(任意)
# モデルを配置して起動
# 2. モデルの配置
# MechaMixなどの .safetensors ファイルを以下に配置
models/Stable-diffusion/
# LoRAは以下に配置
models/Lora/
# 3. 拡張機能の導入
# Web UI起動後、Extensionsタブから必要な拡張機能を検索・Install
# 再起動後、ControlNetモデルなどを自動DLまたは手動配置
# 4. テスト生成設定例
Prompt: a giant mecha robot, detailed mechanical parts, sci-fi background
Negative Prompt: (worst quality, low quality:1.4), EasyNegative, badhandv4, text, watermark
Sampler: DPM++ 2M Karras
Steps: 20
CFG: 7
Clip skip: 2

🔧 補足

  • ControlNetのOpenPoseやDepthを併用することで、構図やポーズの制御がしやすくなります。
  • SDXLモデル(Mecha XL)を使う場合は、Web UIのSDXL対応設定(VAEやClip Skip)を確認してください。

📚 参考リンク


次は、ControlNetのおすすめプリプロセッサ(OpenPoseやDepth)とその導入方法をまとめましょうか?

⚠️ **GitHub.com Fallback** ⚠️