Search

AI질문설계

Good answers are not necessarily factual answers: an analysis of hallucination in leading LLMs

AI에게 ‘간략히 설명해줘’라고 말하면 오답률 20% 증가… 충격적 연구 결과

5월 12, 2025

Good answers are not necessarily factual answers: an analysis of hallucination in leading LLMs 배포된 AI 애플리케이션 사고의 3분의 1이 환각 현상 때문… 전문가들…

AI질문설계 보관 - AI매터스