• Home
  • AI 환각 문제
Visual hallucination detection in large vision-language models via evidential conflict

의료 진단 AI가 ‘가짜 종양’ 발견한다? 시각 AI…

6월 26, 2025

Visual hallucination detection in large vision-language models via evidential conflict 대규모 비전-언어 모델(LVLMs)이 텍스트와 이미지를 동시에 이해하는 놀라운…

EXPLORING BIAS IN OVER 100 TEXT-TO-IMAGE GENERATIVE MODELS

예술용 AI는 편향되고, 기본 모델은 개선된다… 103개 모델…

3월 18, 2025

EXPLORING BIAS IN OVER 100 TEXT-TO-IMAGE GENERATIVE MODELS 시간이 흐를수록 개선되는 기초 모델, 더 편향되는 예술 모델 텍스트-투-이미지(Text-to-Image,…

Google's DataGemma models bridge the gap between large language models (LLMs) and real-world data by leveraging the Data Commons knowledge graph to improve the factuality and trustworthiness of LLM responses.

생성형 AI의 사실성 향상: 데이터 커먼스를 활용한 구글의…

9월 27, 2024

생성형 AI(Generative AI)는 최근 눈부신 발전을 이루고 있지만, 수치 데이터나 통계적 사실을 다룰 때 정확성이 떨어지는 ‘환각(hallucination)’ 현상이…

AI 환각 문제 – AI 매터스 l AI Matters