Inference-Time Reward Hacking in Large Language Models ChatGPT와 같은 대형 언어모델이 더 나은 답변을 생성하기 위해 사용하는 학습 방법에 치명적인 결함이 있다는 연구 결과가…
Debug-gym: an environment for AI coding tools to learn how to debug code like programmers 개발자 시간의 대부분은 디버깅에 사용된다… 코드 작성을 넘어선 AI의…
Artificial Intelligence Index Report 2025 142배 작아진 모델로 동일한 성능, AI 비용 280배 하락 인공지능 모델이 크기는 작아지면서도 성능은 비약적으로 향상되고 있다. 스탠퍼드 대학교의…
Comet: Fine-grained Computation-communication Overlapping for Mixture-of-Experts 1조 규모 AI 모델의 숨은 병목: 디바이스 간 통신이 실행 시간의 47%를 차지 아주 큰 규모의 인공지능(AI) 모델을…
오픈AI가 새로운 AI 모델 ‘o3’와 ‘o3 mini’를 발표했다. ‘12 Days of OpenAI: Day 12’의 마지막 날 공개된 두 모델은 기존 모델인 ‘o1’보다 더 향상된…
구글 딥마인드(Google DeepMind), UCLA, 그리고 밀라(Mila) 연구소의 연구진은 동일한 컴퓨팅 예산 내에서 대규모 언어 모델 대신 소형 모델을 활용하여 더 많은 샘플을 생성하는 방식의…
생성형 AI 모델의 추론 능력을 높이는 방법으로 모델 크기를 키우는 것 외에도 추론 시 연산을 최적화하는 방법이 주목받고 있다. 최근 연구에 따르면, 테스트 시…