UI モデル - Zuntan03/EasyWan22 GitHub Wiki
EnhanceMotion
アニメーションのスピードを向上します。FastMix 用。
SelectModel
EasyWan22 標準の FastMix
モデルとベースモデルを切り替えられます。
ベースモデルは CFG
が 1
固定でない設定のため、隣の TextEncoder
で Nag
以外を選ぶ必要があります。
TextEncoder
Kijai
: 安定して利用できます。Nag
:Cfg 1
の高速生成でもネガティブプロンプトを利用できます。- が、良くも悪くも他の TextEncoder と異なる結果になってしまいます。
Native
:fp8_scaled
でKijai
よりも高精度ですが、VRAM まわりのトラブルが起きがちです。- VRAM に余裕を持たせて利用してください。
TorchCompile
- Geforce RTX 20x0 以前などの古い GPU で、コンパイル最適化を正常に利用できない場合に無効化します。
- その場合は合わせて
ModelLoader
のattention_mode
をspda
にする必要があるかもしれません。
- その場合は合わせて
ModelLoader
Lora(1~5)-(High|Low)
,Lora(1~5)-(High|Low)Strength
- 手動で読み込む LoRA とその強度を設定します。
- いわゆるトリガーワードは
PositiveInput
に入力してください。
BlocksToSwap
- VRAM 消費量の話がよくわからない場合は
40
のままにしてください。 - この値を減らすことでより高速に動画を生成できます。
- 余剰 VRAM を高精度モデルの利用、動画の解像度や秒数の拡大、生成の高速化のいずれに利用するかは、お好みで。
offload_img_emb
,offload_txt_emb
,prefetch_blocks
もスワップ関連の設定です。prefetch_blocks
は1
を設定すると高速になる環境もあるようです。手元では遅くなりました。
- VRAM 消費量の話がよくわからない場合は
base_precision
fp16_fast
からfp16
に変更すると、速度は遅くなりますが精度が上がります。
quantization
- GGUF でなく fp8 モデルを使用する場合は、モデルの量子化に合わせてください。
load_device
- VRAM に余裕があるなら、
main_device
へのロードで高速化できるかもしれません。
- VRAM に余裕があるなら、
attention_mode
- Geforce RTX 20x0 以前などの古い GPU で SageAttention を利用できない場合に、
sageattn
からsdpa
に変更します。
- Geforce RTX 20x0 以前などの古い GPU で SageAttention を利用できない場合に、
FastMix-(High|Low)
Download/diffusion_models/FastMix/Wan22-I2V-FastMix_*.bat
で精度の異なる FastMix モデルをダウンロードして利用できます。
Base-(High|Low)
Download/diffusion_models/Base/Wan2.2-I2V-A14B-*.bat
で精度の異なる Base モデルをダウンロードして利用できます。
FAQ
FastMix でなくベースモデルを利用したい
Model
の SelectModel
で Base
を選択し、隣の TextEncoder
で Kijai
を選択すると利用できます。
左下の Base-Sampler
サブグラフで、より詳細な設定も可能です。
手元ではパラメータ調整を詰めきれておらず、EndImage との相性を改善できていません。
LoRA や EndImage の有無に関わらず、どの機能組み合わせでも良い結果を得られるオススメ設定があったら教えて下さい。