딥시크

마이크로소프트, 오픈AI와 경쟁할 추론 AI 모델 개발 중

마이크로소프트, 오픈AI와 경쟁할 추론 AI 모델 개발 중

3월 10, 2025

마이크로소프트(Microsoft)가 오픈AI(OpenAI)와 경쟁하기 위한 자체 인공지능 추론 모델을 개발하고 있으며, 이를 개발자들에게 판매할 계획인 것으로 알려졌다. 로이터가 7일(현지…

딥시크, 545%의 수익률 자랑하며 AI 시장에 큰 파장 일으켜

딥시크, 545%의 수익률 자랑하며 AI 시장에 큰 파장…

3월 5, 2025

딥시크(DeepSeek)가 자사의 오픈소스 주간 6일차를 맞아 놀라운 AI 추론 시스템 성능과 수익성을 공개했다. 딥시크는 1일(현지 시간) 자사 X를…

Idiosyncrasies in Large Language Models

챗GPT가 쓴 글과 클로드가 쓴 글, 97% 정확도로…

3월 4, 2025

Idiosyncrasies in Large Language Models 97% 정확도로 AI 모델 ‘지문’ 식별…단순 임베딩 모델만으로도 가능 대형 언어 모델(LLM)은 ChatGPT,…

딥시크, 하루 8시간 API 요금 최대 75% 할인… '오프피크 할인제' 도입

딥시크, 하루 8시간 API 요금 최대 75% 할인……

2월 27, 2025

딥시크(DeepSeek)가 하루 중 사용량이 적은 시간대에 API 요금을 최대 75%까지 할인하는 ‘오프피크 할인제’를 도입했다. 이 정책은 2025년 2월…

AI Matters 기사 썸네일 deepseek opensource day 3

딥시크, AI 모델 속도 높이는 ‘DeepGEMM’ 라이브러리 공개

2월 26, 2025

딥시크(DeepSeek)가 오픈소스 주간의 세 번째 발표로 인공지능 모델의 계산 속도를 크게 향상시키는 소프트웨어 도구 ‘DeepGEMM’을 공개했다. 이 도구는…

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신 라이브러리 'DeepEP' 출시

딥시크, 대규모 AI 모델 훈련을 위한 오픈소스 통신…

2월 26, 2025

딥시크(DeepSeek)가 25일(현지 시간) 오픈소스 주간(#OpenSourceWeek) 둘째 날을 맞아 혼합 전문가(MoE, Mixture of Experts) 모델 훈련과 추론을 위한 최초의…

딥시크, 호퍼 GPU용 고효율 'FlashMLA' 공개…변수 길이 시퀀스 최적화

딥시크, 호퍼 GPU용 고효율 ‘FlashMLA’ 공개…변수 길이 시퀀스…

2월 26, 2025

딥시크(DeepSeek)가 24일(현지 시간) 오픈소스 주간 첫날을 맞아 호퍼 GPU에 최적화된 효율적인 MLA 디코딩 커널 ‘FlashMLA’를 공개했다. 이 기술은…

딥시크, 이번주부터 AI 핵심기술 5개 오픈소스 공개 예고... "AGI 연구 가속화할 것"

딥시크, 이번주부터 AI 핵심기술 5개 오픈소스 공개 예고……

2월 24, 2025

AI 연구 기업 딥시크(DeepSeek)가 자사의 핵심 기술을 오픈소스로 공개하겠다고 밝혔다. 딥시크는 21일(현지 시간) 자사 X를 통해 다음 주부터…

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

딥시크, AI 언어모델의 ‘긴 문장 처리’ 한계 극복한…

2월 21, 2025

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention 현대 AI의 새로운 도전: 70-80%를 차지하는 어텐션 계산 문제…

오픈AI, 챗GPT 주간 활성 사용자 4억명 돌파... 中 딥시크 등장에도 엔터프라이즈 사업 '순항'

오픈AI, 챗GPT 주간 활성 사용자 4억명 돌파… 中…

2월 21, 2025

CNBC가 20일(현지 시간) 보도한 내용에 따르면 오픈AI(OpenAI)가 중국 경쟁사 딥시크(DeepSeek)의 등장에도 불구하고 주간 활성 사용자 4억명을 달성했다. 이는…

딥시크 – 페이지 4 – AI 매터스 l AI Matters