Search

  • Home
  • AI 훈련 최적화

AI 훈련 최적화

오픈AI 1억 개 vs xAI 5천만 개… GPU '슈퍼컴퓨터 전쟁' 격화

오픈AI 1억 개 vs xAI 5천만 개… GPU ‘슈퍼컴퓨터 전쟁’ 격화

7월 23, 2025

일론 머스크와 샘 알트만이 각각 자신의 AI 회사를 통해 대규모 컴퓨팅 인프라 구축 계획을 연이어 발표하며 AI 업계의 하드웨어 경쟁이 격화되고 있다. 샘 알트만…

Open-Sora 2.0: Training a Commercial-Level Video Generation Model in $200k

20만 달러로 제작된 오픈소라 2.0… 영화급 AI 영상을 10분의 1 비용으로

3월 20, 2025

Open-Sora 2.0: Training a Commercial-Level Video Generation Model in $200k 비용의 1/10로 상용급 비디오 생성 모델 구현… 효율성 혁신 이루다 2024년 2월 오픈AI(OpenAI)의 소라(Sora)…

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신 라이브러리 'DeepEP' 출시

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신 라이브러리 ‘DeepEP’ 출시

2월 26, 2025

딥시크(DeepSeek)가 25일(현지 시간) 오픈소스 주간(#OpenSourceWeek) 둘째 날을 맞아 혼합 전문가(MoE, Mixture of Experts) 모델 훈련과 추론을 위한 최초의 오픈소스 EP 통신 라이브러리인 ‘DeepEP’를 공개했다.…

AI 훈련 최적화 보관 - AI매터스