• Home
  • 혼합 전문가 모델

혼합 전문가 모델

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신 라이브러리 'DeepEP' 출시

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신…

2월 26, 2025

딥시크(DeepSeek)가 25일(현지 시간) 오픈소스 주간(#OpenSourceWeek) 둘째 날을 맞아 혼합 전문가(MoE, Mixture of Experts) 모델 훈련과 추론을 위한 최초의…

혼합 전문가 모델 – AI 매터스