การ Install Sageattention, DL, WAN, LTX, Cosmo, Hanyuan, etc... - gordon123/learn2ComfyUI GitHub Wiki

Driver ที่ควรติดตั้ง เวลาทำพวก เสียงหรือ วิดีโอ

source /workspace/venv/bin/activate
apt update && apt install -y ffmpeg

ตัวEncoder สำหรับ Generate วิดีโอ

[!NOTE] ตัว Encoder พื้นฐานเหล่านี้ สามารถโหลดได้จาก Model manager โดยตรง
BF16 เหมาะเอาไว้ Train model
FP16 เหมาะเจนคุณภาพสูง กินแรมเยอะ
FP8 เหมาะเจนคุณภาพกลาง ๆ ไว้ทดสอบ
GGUF เหมาะกับเครื่องแรมไม่เยอะ

clip_vision / clip_vision_h.safetensors
vae / wan_2.1_vae.safetensors
text_encoders / umt5_xxl_fp8_e4m3fn_scaled.safetensors
Clip Vision / open-clip-xlm-roberta-large-vit-huge-14_visual_fp32.safetensors

Custom Nodes ที่ควรลงเสริมช่วยเรื่องการเจน Video เซิสจาก Custom Manager \

ComfyUI-VideoHelperSuite
ComfyUI_LayerStyle
ComfyUI-Easy-Use
ComfyUI-KJNodes
ComfyUI-WanVideoWrapper

Text to video model

Comfy-Org/Wan2.1 t2v 14B (fp8_e4m3fn) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 14B (fp16) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 14B (fp8_scaled) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 1.3B (bf16) โหลดได้จาก Model Manager \

Wan-AI/Wan2.1-VACE-14B
vrgamedevgirl84/Wan14BT2VFusioniX
8 Steps QuantStack/Wan2.1_T2V_14B_FusionX_VACE
8 Steps QuantStack/Wan2.1_T2V_14B_FusionX_VACE-GGUF

Image to Video model

หลัก ๆ โหลดตัวพื้นฐานได้จาก Moedel Manager, หาตัว 480p fp8 เอามาทดลอง แล้วค่อยใช้ fp16 ตัวใหญ่ เวลาจะเอาคุณภาพจริงๆ ตัวอย่างเช่น
Comfy-Org/Wan2.1 i2v 480p 14B (fp16) \

Wan2.2

wan2.2_i2v_high_noise_14B_fp8_scaled.safetensors
QuantStack/Wan2.2-T2V-A14B-GGUF
wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors

https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/resolve/main/split_files/vae/wan_2.1_vae.safetensors

Video to video model

Lora

alibaba-pai/Wan2.1-Fun-Reward-LoRAs
8 step LoRa vrgamedevgirl84/Wan14BT2VFusioniX
Wan21_CausVid_14B_T2V_lora_rank32_v2.safetensors
Wan21_CausVid_bidirect2_T2V_1_3B_lora_rank32.safetensors
Lightxv2 lora
Self-Forcing
Accvid Lora \


Install อื่นๆ

Ollama

source /workspace/venv/bin/activate
apt update && apt install curl -y
curl -fsSL https://ollama.com/install.sh | bash

Download model ตัวอ่าน Image to text เลือกจาก ถ้าอยากให้ AI “ดูภาพแล้วแต่ง prompt เท่ ๆ” ใช้เลย: ✅ Qwen2.5-VL (7B): สมองดี มีความเข้าใจภาพแบบรู้ลึก
✅ LLaVA-llama3 (7B/13B): ภาษาเทพ ภาพชัดเจน
✅ MiniCPM-V: รวดเร็ว เบา ใช้กับ GPU กลาง ๆ ได้สบาย \

downloa model qwen2.5vl:7b

ollama pull qwen2.5vl:7b

เริ่ม เปิด Ollama server

ollama serve

ตรวจสอบ ollama port เริ่มใช้งาน

apt update && apt install -y lsof
lsof -i :11434

เวลาใช้ เรียก จาก http://localhost:11434 อย่าลืมตั้ง port runpod ถ้าลืมไปที่ eddit port ! backup รูปไว้ก่อน ถ้าไม่มี volume disk มันจะ reset ทุกอย่าง

install comfyui-ollama จาก custom manager


Install Sageattention

✅ สรุประบบ ตัวอย่างจาก pod template runpod/pytorch:2.8.0-py3.11-cuda12.8.1 สำหรับการ์ด RTX30xx-40xx ถ้า 50xx ลงคนละเวอชั่น!!

สิ่งที่มี รายละเอียด สถานะ
GPU NVIDIA GeForce RTX 4080 x2 ✅ โหดสุดใน consumer class!
CUDA 12.8 ✅ ตรงกับ SageAttention ที่รองรับ
NVIDIA Driver 570.144 ✅ ล่าสุดเลย
Python 3.11.11 (ใน venv) ✅ แนะนำสำหรับ Triton + Sage
PyTorch 2.7.1+cu126 ✅ เหมาะกับ CUDA 12.8
Triton ยังไม่ได้ติดตั้ง ❗ ติดตั้ง triton==3.3.0 แนะนำ
SageAttention ยังไม่ได้ติดตั้ง ❗ ใช้ pip install git+...
torch.cuda.is_available() ใช้งานได้แน่นอน ✅ เห็น GPU ทั้ง 2 ตัว
# activate venv
source /workspace/venv/bin/activate

# install build tools (ถ้ายัง)
apt update && apt install -y ninja-build git

# install Triton
pip install triton==3.3.0

# install SageAttention
# pip install git+https://github.com/thu-ml/SageAttention.git
pip install --no-build-isolation git+https://github.com/thu-ml/SageAttention.git

# test
python -c "import sageattention; import importlib.metadata as m; print(m.version('sageattention'))"

ทดสอบ ลงผ่านไหม

python -c "import sageattention; print(dir(sageattention))"
Component Recommended Version Check Command
Python 3.11.x or 3.12.x python --version or which python
PyTorch >=2.3 (e.g. 2.7.1+cu126) python -c "import torch; print(torch.__version__)"
CUDA Toolkit >=12.6 (e.g. 12.8) nvcc --version
GPU Availability True (must be CUDA capable) python -c "import torch; print(torch.cuda.is_available())"
Triton 3.2.0 (NOT 3.3.1+) pip show triton
SageAttention 2.x or 2.2.0 pip show sageattention or `pip list
Build Tools ninja-build, git which ninja, git --version

สำหรับ window comfyui portable

ลองทำตาม clip youtube นี้

https://youtu.be/-S39owjSsMo?si=fhII4Ka4L3l9YE9W

DL script https://drive.google.com/drive/folders/1o-PZB9hDg5HW9l-dBXS-O1XPMhgf3DzV