การ Install Sageattention, DL, WAN, LTX, Cosmo, Hanyuan, etc... - gordon123/learn2ComfyUI GitHub Wiki
Driver ที่ควรติดตั้ง เวลาทำพวก เสียงหรือ วิดีโอ
source /workspace/venv/bin/activate
apt update && apt install -y ffmpeg
ตัวEncoder สำหรับ Generate วิดีโอ
[!NOTE] ตัว Encoder พื้นฐานเหล่านี้ สามารถโหลดได้จาก Model manager โดยตรง
BF16 เหมาะเอาไว้ Train model
FP16 เหมาะเจนคุณภาพสูง กินแรมเยอะ
FP8 เหมาะเจนคุณภาพกลาง ๆ ไว้ทดสอบ
GGUF เหมาะกับเครื่องแรมไม่เยอะ
clip_vision / clip_vision_h.safetensors
vae / wan_2.1_vae.safetensors
text_encoders / umt5_xxl_fp8_e4m3fn_scaled.safetensors
Clip Vision / open-clip-xlm-roberta-large-vit-huge-14_visual_fp32.safetensors
Custom Nodes ที่ควรลงเสริมช่วยเรื่องการเจน Video เซิสจาก Custom Manager \
ComfyUI-VideoHelperSuite
ComfyUI_LayerStyle
ComfyUI-Easy-Use
ComfyUI-KJNodes
ComfyUI-WanVideoWrapper
Text to video model
Comfy-Org/Wan2.1 t2v 14B (fp8_e4m3fn) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 14B (fp16) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 14B (fp8_scaled) โหลดได้จาก Model Manager
Comfy-Org/Wan2.1 t2v 1.3B (bf16) โหลดได้จาก Model Manager \
Wan-AI/Wan2.1-VACE-14B
vrgamedevgirl84/Wan14BT2VFusioniX
8 Steps QuantStack/Wan2.1_T2V_14B_FusionX_VACE
8 Steps QuantStack/Wan2.1_T2V_14B_FusionX_VACE-GGUF
Image to Video model
หลัก ๆ โหลดตัวพื้นฐานได้จาก Moedel Manager, หาตัว 480p fp8 เอามาทดลอง แล้วค่อยใช้ fp16 ตัวใหญ่ เวลาจะเอาคุณภาพจริงๆ ตัวอย่างเช่น
Comfy-Org/Wan2.1 i2v 480p 14B (fp16) \
Wan2.2
wan2.2_i2v_high_noise_14B_fp8_scaled.safetensors
QuantStack/Wan2.2-T2V-A14B-GGUF
wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors
https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/resolve/main/split_files/vae/wan_2.1_vae.safetensors
Video to video model
Lora
alibaba-pai/Wan2.1-Fun-Reward-LoRAs
8 step LoRa vrgamedevgirl84/Wan14BT2VFusioniX
Wan21_CausVid_14B_T2V_lora_rank32_v2.safetensors
Wan21_CausVid_bidirect2_T2V_1_3B_lora_rank32.safetensors
Lightxv2 lora
Self-Forcing
Accvid Lora \
Install อื่นๆ
Ollama
source /workspace/venv/bin/activate
apt update && apt install curl -y
curl -fsSL https://ollama.com/install.sh | bash
Download model ตัวอ่าน Image to text เลือกจาก
ถ้าอยากให้ AI “ดูภาพแล้วแต่ง prompt เท่ ๆ” ใช้เลย:
✅ Qwen2.5-VL (7B): สมองดี มีความเข้าใจภาพแบบรู้ลึก
✅ LLaVA-llama3 (7B/13B): ภาษาเทพ ภาพชัดเจน
✅ MiniCPM-V: รวดเร็ว เบา ใช้กับ GPU กลาง ๆ ได้สบาย \
downloa model qwen2.5vl:7b
ollama pull qwen2.5vl:7b
เริ่ม เปิด Ollama server
ollama serve
ตรวจสอบ ollama port เริ่มใช้งาน
apt update && apt install -y lsof
lsof -i :11434
เวลาใช้ เรียก จาก http://localhost:11434 อย่าลืมตั้ง port runpod ถ้าลืมไปที่ eddit port ! backup รูปไว้ก่อน ถ้าไม่มี volume disk มันจะ reset ทุกอย่าง
install comfyui-ollama จาก custom manager
Install Sageattention
✅ สรุประบบ ตัวอย่างจาก pod template runpod/pytorch:2.8.0-py3.11-cuda12.8.1 สำหรับการ์ด RTX30xx-40xx ถ้า 50xx ลงคนละเวอชั่น!!
| สิ่งที่มี | รายละเอียด | สถานะ |
|---|---|---|
| GPU | NVIDIA GeForce RTX 4080 x2 | ✅ โหดสุดใน consumer class! |
| CUDA | 12.8 | ✅ ตรงกับ SageAttention ที่รองรับ |
| NVIDIA Driver | 570.144 | ✅ ล่าสุดเลย |
| Python | 3.11.11 (ใน venv) | ✅ แนะนำสำหรับ Triton + Sage |
| PyTorch | 2.7.1+cu126 | ✅ เหมาะกับ CUDA 12.8 |
| Triton | ยังไม่ได้ติดตั้ง | ❗ ติดตั้ง triton==3.3.0 แนะนำ |
| SageAttention | ยังไม่ได้ติดตั้ง | ❗ ใช้ pip install git+... |
| torch.cuda.is_available() | ใช้งานได้แน่นอน | ✅ เห็น GPU ทั้ง 2 ตัว |
# activate venv
source /workspace/venv/bin/activate
# install build tools (ถ้ายัง)
apt update && apt install -y ninja-build git
# install Triton
pip install triton==3.3.0
# install SageAttention
# pip install git+https://github.com/thu-ml/SageAttention.git
pip install --no-build-isolation git+https://github.com/thu-ml/SageAttention.git
# test
python -c "import sageattention; import importlib.metadata as m; print(m.version('sageattention'))"
ทดสอบ ลงผ่านไหม
python -c "import sageattention; print(dir(sageattention))"
| Component | Recommended Version | Check Command |
|---|---|---|
| Python | 3.11.x or 3.12.x |
python --version or which python |
| PyTorch | >=2.3 (e.g. 2.7.1+cu126) |
python -c "import torch; print(torch.__version__)" |
| CUDA Toolkit | >=12.6 (e.g. 12.8) |
nvcc --version |
| GPU Availability | True (must be CUDA capable) |
python -c "import torch; print(torch.cuda.is_available())" |
| Triton | 3.2.0 (NOT 3.3.1+) |
pip show triton |
| SageAttention | 2.x or 2.2.0 |
pip show sageattention or `pip list |
| Build Tools | ninja-build, git |
which ninja, git --version |
สำหรับ window comfyui portable
ลองทำตาม clip youtube นี้
https://youtu.be/-S39owjSsMo?si=fhII4Ka4L3l9YE9W
DL script https://drive.google.com/drive/folders/1o-PZB9hDg5HW9l-dBXS-O1XPMhgf3DzV