Home
FlashAttention
FlashAttention
뉴스
딥시크, 호퍼 GPU용 고효율 ‘FlashMLA’ 공개…변수 길이 시퀀스…
2월 26, 2025
딥시크(DeepSeek)가 24일(현지 시간) 오픈소스 주간 첫날을 맞아 호퍼 GPU에 최적화된 효율적인 MLA 디코딩 커널 ‘FlashMLA’를 공개했다. 이 기술은…
1
2
3
Trending
[AI 트렌드] “진돗개가 김치찌개를 만든다고?” 492만뷰 찍은…
김은영 에디터
7월 15, 2025
[Q&AI] 오늘 밤 한일전… AI가 예측한 승률은?
김은영 에디터
7월 15, 2025
클로드, 노션·캔바· 피그마 등 외부 도구와 연결…
김은영 에디터
7월 15, 2025
Previous
Next