• Home
  • Mixture-of-Experts

Mixture-of-Experts

ARIA : An Open Multimodal Native Mixture-of-Experts Model

오픈소스 최초 멀티모달 MoE 모델 ‘ARIA’ 공개…GPT-4와 성능…

10월 23, 2024

Rhymes AI가 개발한 ARIA가 오픈소스 최초의 멀티모달 네이티브 MoE(Mixture-of-Experts) 모델로 공개되었다. ARIA는 GPT-4와 Gemini-1.5와 같은 기업 독점 모델들과…

Mixture-of-Experts – AI 매터스