Wan2.2 모델은 알리바바(Alibaba)에서 개발한 오픈소스 AI 비디오 생성 모델이며, 기존 Wan2.1 보다 더 사실적이고 높은 품질의 영상을 만들 수 있다는 점이 가장 큰 특징이다. 주로 text to video 또는 image to video 를 제작하는데 사용되나 Wan2.1 text to video 모델을 이용하여 text to image 를 생성해 보면 Flux1-dev 모델보다 더 높은 품질과 사실적인 이미지를 얻을 수 있다. 물론 모델이 크기 때문에 생성시간이 조금 더 많이 소요되지만, gguf 모델을 이용하면 그래도 1분30초 정도에 생성 할 수 있다. (4070t vram 16G 환경하에서) gguf 모델은 작은 vram 과 적은 스텝으로도 비슷한 품질의 이미지를 얻을 수 있기 때문에 많이 사용하는 모델이다. Wan2.2 모델을 이용하여 생성된 이미지 이미지는 1536x1536 으로 생성된 고품질의 이미지 이다. 확대해 보면 생생한 질감을 느낄 수 있다. 1. Wan2.2-t2v 및 관련 모델 다운로드 wan2.2_t2v_high_noise_14B_Q5_K_S.gguf 와 wan2.2_t2v_low_noise_14B_Q5_K_S.gguf : https://huggingface.co/bullerwins/Wan2.2-T2V-A14B-GGUF/tree/main 에서 다운 받거나 구글에서 검색해도 다운 받을 곳을 찾을 수 있다. Q2 -> Q8 으로 갈수록 파일크기가 커지며 좀 더 좋은 품질의 이미지를 얻을 수 있지만 Q4 이상이면 보통 품질의 차이를 별로 느끼기 어렵기 때문에 여기서는 Q5 모델을 사용 하였다. CLIP Model umt5-xxl-encoder-Q5_K_S : https://huggingface.co/city96/umt5-xxl-encoder-gguf/tree...