Search

  • Home
  • 파라미터최적화

파라미터최적화

ARIA : An Open Multimodal Native Mixture-of-Experts Model

오픈소스 최초 멀티모달 MoE 모델 ‘ARIA’ 공개…GPT-4와 성능…

10월 23, 2024

Rhymes AI가 개발한 ARIA가 오픈소스 최초의 멀티모달 네이티브 MoE(Mixture-of-Experts) 모델로 공개되었다. ARIA는 GPT-4와 Gemini-1.5와 같은 기업 독점 모델들과…

파라미터최적화 – AI 매터스 l AI Matters