• Home
  • AI 성능 향상

AI 성능 향상

메타, AI 학습에 사용된 '비밀 실험' 법정 문서로 드러나

메타, AI 학습에 사용된 ‘비밀 실험’ 법정 문서로…

4월 22, 2025

메타(Meta)가 라마(Llama) AI 모델 성능 향상을 위해 ‘해적판’ 도서를 활용했다는 내부 문서가 법정에서 공개돼 화제가 되고 있다. 저작권…

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

딥시크, AI 언어모델의 ‘긴 문장 처리’ 한계 극복한…

2월 21, 2025

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention 현대 AI의 새로운 도전: 70-80%를 차지하는 어텐션 계산 문제…

s1: Simple test-time scaling

AI 연산량 늘리기만 해도 성능이 좋아진다… 스탠포드·워싱턴대, 50달러로…

2월 10, 2025

s1: Simple test-time scaling 1,000개 데이터로 o1 모델 능가… S1-32B 모델의 혁신적 성과 스탠포드와 워싱턴 대학교 연구진이 언어모델의…

Thinking LLMs: General Instruction Following with Thought Generation

AI의 진화, ‘생각하는 능력’ 갖춘 LLM 개발…메타, 혁신적…

10월 22, 2024

메타(Meta)가 대규모 언어모델(LLM)에 ‘생각하는 능력’을 부여하는 혁신적인 훈련 방법을 개발했다. 기존의 AI 모델들이 입력에 대해 즉각적으로 답변을 생성했던…

Re-Reading Improves Reasoning in Large Language Models

대형 언어 모델의 추론 능력, ‘다시 읽기’로 향상된다

9월 9, 2024

인공지능(AI) 기술의 발전으로 대형 언어 모델(Large Language Models, LLMs)이 주목받고 있지만, 복잡한 추론 능력에는 여전히 한계가 있었다. 최근…

AI 성능 향상 – AI 매터스 l AI Matters