• Home
  • News
  • 알리바바, 14B 파라미터 영상 생성 AI ‘완2.1’ 오픈소스로 공개

알리바바, 14B 파라미터 영상 생성 AI ‘완2.1’ 오픈소스로 공개

알리바바, 14B 파라미터 영상 생성 AI '완2.1' 오픈소스로 공개
이미지 출처: 알리바바

알리바바 클라우드(Alibaba Cloud)가 17일(현지 시간) 첫 번째 프레임-비디오 변환 대규모 AI 모델인 ‘Wan2.1-FLF2V-14B’를 오픈소스로 공개했다. 이 모델은 디지털 아티스트들에게 전례 없는 효율성과 창의적 유연성을 제공할 것으로 기대된다. Wan 팀의 공식 X 계정에 따르면, 이번에 공개된 Wan2.1-FLF2V-14B는 14B 파라미터 규모의 대형 모델로 첫 프레임과 마지막 프레임을 기반으로 비디오를 생성하는 기술을 탑재했다. 특히 이 모델은 데이터 기반 학습과 DiT(Diffusion Transformer) 아키텍처를 활용해 첫 프레임과 마지막 프레임의 조건부 제어 기능을 구현했다.


“데이터 기반 학습과 DiT 아키텍처를 통해 첫 프레임과 마지막 프레임의 조건부 제어 기능을 구현했습니다. 이를 통해 참조 시각 자료를 완벽하게 복제하고, 정확한 지시 따르기, 부드러운 전환과 현실 세계 물리법칙 준수, 그리고 영화급 720P 출력을 제공합니다,” 라고 Wan 팀은 설명했다. 이 모델은 현재 깃허브(GitHub), 허깅페이스(Huggingface), 모델스코프(Modelscope) 등 다양한 플랫폼에서 다운로드할 수 있다. Wan 팀은 공식 웹사이트(wan.video)를 통해서도 이 기술을 체험할 수 있도록 제공하고 있다.

3월 초 Wan2.1 모델은 모델스코프 플랫폼과 허깅페이스 허브에서 이미 100만 건 이상의 다운로드를 기록했으며, 허깅페이스의 모델 트렌딩 리스트에서 2위, 스페이스 트렌딩 리스트에서는 1위를 차지했다.

해당 기사의 원문은 링크에서 확인할 수 있다.

이미지 출처: 이디오그램 생성

기사는 클로드와 챗gpt를 활용해 작성되었습니다.




알리바바, 14B 파라미터 영상 생성 AI ‘완2.1’ 오픈소스로 공개 – AI 매터스