【生成AI】画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧 - tsukimisoba/Blog GitHub Wiki
✅ AUTOMATIC1111でメカ画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧(GitHub Markdown形式)
AUTOMATIC1111 Web UIを使って、メカ系画像の生成テストを行うための最小構成を以下にまとめます。
| 拡張機能名 | 用途 | 導入方法 |
|---|---|---|
| ControlNet | ポーズや構図制御に必須。OpenPoseやDepthでメカのポーズを制御可能。 | Web UIの「Extensions」→「Available」→「controlnet」で検索・Install。再起動後、モデルを自動DLまたは手動配置。 |
| Civitai Helper | Civitaiからモデル・LoRAを簡単にDL・管理できる。 | 同上。「civitai-helper」で検索・Install。 |
| Additional Networks | LoRAやLyCORISの読み込みに必要。 | 同上。「additional-networks」で検索・Install。 |
# 1. AUTOMATIC1111のインストール(初回のみ)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
# Python仮想環境を作成して起動(任意)
# モデルを配置して起動
# 2. モデルの配置
# MechaMixなどの .safetensors ファイルを以下に配置
models/Stable-diffusion/
# LoRAは以下に配置
models/Lora/
# 3. 拡張機能の導入
# Web UI起動後、Extensionsタブから必要な拡張機能を検索・Install
# 再起動後、ControlNetモデルなどを自動DLまたは手動配置
# 4. テスト生成設定例
Prompt: a giant mecha robot, detailed mechanical parts, sci-fi background
Negative Prompt: (worst quality, low quality:1.4), EasyNegative, badhandv4, text, watermark
Sampler: DPM++ 2M Karras
Steps: 20
CFG: 7
Clip skip: 2
- ControlNetのOpenPoseやDepthを併用することで、構図やポーズの制御がしやすくなります。
- SDXLモデル(Mecha XL)を使う場合は、Web UIのSDXL対応設定(VAEやClip Skip)を確認してください。
次は、ControlNetのおすすめプリプロセッサ(OpenPoseやDepth)とその導入方法をまとめましょうか?
**✅ AUTOMATIC1111でメカ画像生成をテストするための最小構成とおすすめ拡張機能・モデル一覧(GitHub Markdown形式)**AUTOMATIC1111 Web UIを使って、メカ系画像の生成テストを行うための最小構成を以下にまとめます。
| 拡張機能名 | 用途 | 導入方法 |
|---|---|---|
| ControlNet | ポーズや構図制御に必須。OpenPoseやDepthでメカのポーズを制御可能。 | Web UIの「Extensions」→「Available」→「controlnet」で検索・Install。再起動後、モデルを自動DLまたは手動配置。 |
| Civitai Helper | Civitaiからモデル・LoRAを簡単にDL・管理できる。 | 同上。「civitai-helper」で検索・Install。 |
| Additional Networks | LoRAやLyCORISの読み込みに必要。 | 同上。「additional-networks」で検索・Install。 |
| モデル名 | ベース | 特徴 | ダウンロードURL |
|---|---|---|---|
| MechaMix v1.0 | SD 1.5 | メカ特化のマージモデル。Trigger Word: mecha
|
[MechaMix v1.0 on Civitai](https://civitai.com/models/69438/mechamix) |
| モデル名 | タイプ | ベース | 特徴 | ダウンロードURL |
|---|---|---|---|---|
| MechaDream All-in-one v1 | Checkpoint | SD 1.5 | メカ+メカ娘両対応。ControlNetとの相性良好。 | [MechaDream All-in-one on Civitai](https://civitai.com/models/47135/mechadream-all-in-one) |
| Mecha - XL v1.0 | Checkpoint | SDXL 1.0 | SDXL対応のメカ特化モデル。高解像度向け。 | [Mecha XL v1.0 on Civitai](https://civitai.com/models/145214/mecha-xl) |
| OriginMecha(起源) | LoRA | SD 1.5 | 多彩なメカスタイルを追加可能。MechaMixと併用推奨。 | [OriginMecha on Civitai](https://civitai.com/models/76693/mecha?modelVersionId=81465) |
# 1. AUTOMATIC1111のインストール(初回のみ)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
# Python仮想環境を作成して起動(任意)
# モデルを配置して起動# 2. モデルの配置
# MechaMixなどの .safetensors ファイルを以下に配置
models/Stable-diffusion/
# LoRAは以下に配置
models/Lora/# 3. 拡張機能の導入
# Web UI起動後、Extensionsタブから必要な拡張機能を検索・Install
# 再起動後、ControlNetモデルなどを自動DLまたは手動配置# 4. テスト生成設定例
Prompt: a giant mecha robot, detailed mechanical parts, sci-fi background
Negative Prompt: (worst quality, low quality:1.4), EasyNegative, badhandv4, text, watermark
Sampler: DPM++ 2M Karras
Steps: 20
CFG: 7
Clip skip: 2- ControlNetのOpenPoseやDepthを併用することで、構図やポーズの制御がしやすくなります。
- SDXLモデル(Mecha XL)を使う場合は、Web UIのSDXL対応設定(VAEやClip Skip)を確認してください。
- [AUTOMATIC1111 GitHub](https://github.com/AUTOMATIC1111/stable-diffusion-webui)
- [Civitai モデル一覧](https://civitai.com/models)
次は、ControlNetのおすすめプリプロセッサ(OpenPoseやDepth)とその導入方法をまとめましょうか?