• Home
  • News
  • 中 AI 스타트업 딥시크, 차세대 R2 모델 출시 임박… SNS서 관심 폭증

中 AI 스타트업 딥시크, 차세대 R2 모델 출시 임박… SNS서 관심 폭증

中 AI 스타트업 딥시크, 차세대 R2 모델 출시 임박… SNS서 관심 폭증
이미지 출처: 딥시크

중국 스타트업 딥시크(DeepSeek)가 차세대 오픈소스 인공지능 모델 출시를 앞두고 소셜 미디어에서 뜨거운 관심을 받고 있다. 미중 기술 전쟁이 심화되는 가운데 이 회사는 자사의 기술 진전에 대해 업계의 호기심을 계속 자극하고 있다. SCMP가 28일(현지 시간) 보도한 내용에 따르면, 지난 주말에 퍼진 딥시크-R2(DeepSeek-R2)에 관한 최신 추측에는 제품의 임박한 출시와 비용 효율성 및 성능 면에서 설정한 새로운 벤치마크가 포함됐다. R2는 2025년 1월에 출시된 추론 모델 R1의 후속작이다.

이러한 관심은 딥시크가 2024년 12월 말부터 2025년 1월까지 연속적으로 두 개의 고급 오픈소스 AI 모델인 V3와 R1을 출시하면서 전 세계의 주목을 받은 이후 더욱 높아졌다. 이 모델들은 대형 기술 기업들이 일반적으로 대규모 언어 모델(LLM) 프로젝트에 필요로 하는 비용과 컴퓨팅 파워의 일부만으로 구축됐다. 대규모 언어 모델은 챗GPT(ChatGPT)와 같은 생성형 AI 서비스를 지원하는 기술이다.

중국 주식 거래 소셜 미디어 플랫폼 지우양공셔(Jiuyangongshe)의 게시물에 따르면, R2는 소위 하이브리드 전문가 혼합(hybrid mixture-of-experts, MoE) 아키텍처로 개발되었으며, 총 1.2조 개의 매개변수를 갖추고 있어 오픈AI(OpenAI)의 GPT-4o보다 구축 비용이 97.3% 더 저렴하다고 한다. 전문가 혼합(MoE)은 AI 모델을 별도의 하위 네트워크 또는 ‘전문가’로 나누는 머신러닝 접근 방식이다. 각 전문가는 입력 데이터의 하위 집합에 집중하여 공동으로 작업을 수행한다. 이는 사전 훈련 중 계산 비용을 크게 줄이고 추론 시간 동안 더 빠른 성능을 달성한다고 알려져 있다.

머신러닝에서 매개변수(parameters)는 AI 시스템이 훈련 중에 존재하는 변수로, 데이터 프롬프트가 원하는 출력을 산출하는 방법을 확립하는 데 도움을 준다. 한편, 한국은 딥시크가 동의 없이 바이트댄스(ByteDance) 소유 서버로 데이터를 전송했다고 주장하고 있다.

해당 기사의 원문은 링크에서 확인할 수 있다.

이미지 출처: 딥시크

기사는 클로드와 챗gpt를 활용해 작성되었습니다.




中 AI 스타트업 딥시크, 차세대 R2 모델 출시 임박… SNS서 관심 폭증 – AI 매터스