【生成AI】ローカル環境で画像生成の動作確認を行うための「必要最低限の構成」 - tsukimisoba/Blog GitHub Wiki

了解しました薫さん。**メカをメインに、ローカル環境で画像生成の動作確認を行うための「必要最低限の構成」**を、以下に絞ってご案内します。


✅ 目的:メカ系画像をローカルで生成できるかテストする

🎯 優先事項

  • 軽量かつ安定した構成
  • メカ表現に強いモデル
  • 最小限の拡張機能(ControlNetなど)

🧱 最小構成:必要なもの一覧

モデル(Checkpoint)※必須

モデル名 特徴 入手先
MechaMix_v10.safetensors メカ・ロボット特化の学習済みモデル Civitai – MechaMix

📂 配置先:

stable-diffusion-webui\models\VAE\

🛠️ 導入手順まとめ(ステップバイステップ)

  1. モデルをCivitaiからダウンロード(例:MechaMix)
  2. ControlNet拡張を導入(Extensionsタブ or GitHubからクローン)
  3. ControlNetモデルをHugging Faceから取得して配置
  4. 必要に応じてVAEを導入
  5. webui-user.bat を起動して http://127.0.0.1:7860 にアクセス
  6. 「txt2img」または「img2img」でプロンプトを入力して生成テスト

🧪 テスト用プロンプト例(メカ系)

a futuristic battle mecha, ultra detailed, mechanical armor, glowing lights, cinematic lighting, 8k, photorealistic

Negative Prompt(例):

lowres, blurry, cartoon, sketch, text, watermark

次は、ControlNetの使い方(CannyやOpenPoseで構図を保持する方法)や、メカに特化したLoRAの追加導入もご案内できます。生成結果を見てから、次のステップを一緒に調整しましょう。

了解しました薫さん。**メカをメインに、ローカル環境で画像生成の動作確認を行うための「必要最低限の構成」**を、以下に絞ってご案内します。

✅ 目的:メカ系画像をローカルで生成できるかテストする

🎯 優先事項

  • 軽量かつ安定した構成
  • メカ表現に強いモデル
  • 最小限の拡張機能(ControlNetなど)

🧱 最小構成:必要なもの一覧

モデル(Checkpoint)※必須

モデル名 特徴 入手先
MechaMix_v10.safetensors メカ・ロボット特化の学習済みモデル [Civitai – MechaMix](https://civitai.com/models/11817/mechamix)

📂 配置先:

stable-diffusion-webui\models\Stable-diffusion\

拡張機能:ControlNet(構図・ポーズ制御)※推奨

拡張名 機能 入手先
sd-webui-controlnet ポーズ・線画・深度などで構図を制御 [GitHub – Mikubill/ControlNet](https://github.com/Mikubill/sd-webui-controlnet)

📂 配置先(自動または手動で):

stable-diffusion-webui\extensions\sd-webui-controlnet\

ControlNetモデル(Pretrained)※推奨

モデル名 用途 入手先
control_canny-fp16.safetensors 線画抽出(輪郭保持) [Hugging Face – ControlNet modules](https://huggingface.co/webui/ControlNet-modules-safetensors)
control_openpose-fp16.safetensors ポーズ制御(人物・ロボットの姿勢) 同上

📂 配置先:

stable-diffusion-webui\extensions\sd-webui-controlnet\models\

VAE(色味補正)※任意

VAE名 特徴 入手先
vae-ft-mse-840000-ema-pruned.vae.pt 標準的な色味補正 [Hugging Face – vae-ft-mse](https://huggingface.co/stabilityai/sd-vae-ft-mse)

📂 配置先:

stable-diffusion-webui\models\VAE\

🛠️ 導入手順まとめ(ステップバイステップ)

  1. モデルをCivitaiからダウンロード(例:MechaMix)
  2. ControlNet拡張を導入(Extensionsタブ or GitHubからクローン)
  3. ControlNetモデルをHugging Faceから取得して配置
  4. 必要に応じてVAEを導入
  5. webui-user.bat を起動して http://127.0.0.1:7860 にアクセス
  6. 「txt2img」または「img2img」でプロンプトを入力して生成テスト

🧪 テスト用プロンプト例(メカ系)

a futuristic battle mecha, ultra detailed, mechanical armor, glowing lights, cinematic lighting, 8k, photorealistic

Negative Prompt(例):

lowres, blurry, cartoon, sketch, text, watermark

次は、ControlNetの使い方(CannyやOpenPoseで構図を保持する方法)や、メカに特化したLoRAの追加導入もご案内できます。生成結果を見てから、次のステップを一緒に調整しましょう。

⚠️ **GitHub.com Fallback** ⚠️