Search

AI성능향상

Inference-Time Reward Hacking in Large Language Models

AI ‘점수 조작’하는 순간 포착… 하버드 연구진이 밝힌 챗GPT 학습법 치명적 맹점

6월 30, 2025

Inference-Time Reward Hacking in Large Language Models ChatGPT와 같은 대형 언어모델이 더 나은 답변을 생성하기 위해 사용하는 학습 방법에 치명적인 결함이 있다는 연구 결과가…

Debug-gym: an environment for AI coding tools to learn how to debug code like programmers

AI, 코드 디버깅 여전히 난관… 마이크로소프트, 디버깅 능력을 갖춘 ‘디버그-짐’ 환경 공개

4월 11, 2025

Debug-gym: an environment for AI coding tools to learn how to debug code like programmers 개발자 시간의 대부분은 디버깅에 사용된다… 코드 작성을 넘어선 AI의…

Artificial Intelligence Index Report 2025

2025년 AI 인덱스 보고서 : 소형 모델 성능 급증하고 미중 격차 좁아진다

4월 8, 2025

Artificial Intelligence Index Report 2025 142배 작아진 모델로 동일한 성능, AI 비용 280배 하락 인공지능 모델이 크기는 작아지면서도 성능은 비약적으로 향상되고 있다. 스탠퍼드 대학교의…

Comet: Fine-grained Computation-communication Overlapping for Mixture-of-Experts

바이트댄스, 트릴리언급 모델을 47% 빠르게 만드는 ‘코멧’ 기술 공개

3월 18, 2025

Comet: Fine-grained Computation-communication Overlapping for Mixture-of-Experts 1조 규모 AI 모델의 숨은 병목: 디바이스 간 통신이 실행 시간의 47%를 차지 아주 큰 규모의 인공지능(AI) 모델을…

오픈AI, AGI에 도달한 첫번째 모델 ‘o3’ 공개…인간 수준 뛰어넘는 수학·코딩 능력 입증

오픈AI, AGI에 도달한 첫번째 모델 ‘o3’ 공개…인간 수준 뛰어넘는 수학·코딩 능력 입증

12월 23, 2024

오픈AI가 새로운 AI 모델 ‘o3’와 ‘o3 mini’를 발표했다. ‘12 Days of OpenAI: Day 12’의 마지막 날 공개된 두 모델은 기존 모델인 ‘o1’보다 더 향상된…

Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling

구글 딥마인드, LLM 홍수 속 sLLM모델 우수성 증명

9월 3, 2024

구글 딥마인드(Google DeepMind), UCLA, 그리고 밀라(Mila) 연구소의 연구진은 동일한 컴퓨팅 예산 내에서 대규모 언어 모델 대신 소형 모델을 활용하여 더 많은 샘플을 생성하는 방식의…

생성형 AI의 추론 능력, 테스트 시 연산 최적화로 크게 향상

생성형 AI의 추론 능력, 테스트 시 연산 최적화로 크게 향상

8월 28, 2024

생성형 AI 모델의 추론 능력을 높이는 방법으로 모델 크기를 키우는 것 외에도 추론 시 연산을 최적화하는 방법이 주목받고 있다. 최근 연구에 따르면, 테스트 시…

AI성능향상 – AI 매터스