Search

LLM 안전성

People readily follow personal advice from AI but it does not improve their well-being

AI가 준 조언, 심각한 문제에도 62%가 실천했지만… 2주 후 효과는 ‘제로’

11월 25, 2025

영국 AI 안전연구소(UK AI Security Institute)의 대규모 실험 연구가 충격적인 결과를 발표했다. 해당 논문에 따르면, 사람들은 AI가 제공하는 개인적 조언을 기꺼이 따르지만, 정작 그…

오픈AI, 챗GPT가 청소년 자살 도운 혐의로 고소당해

오픈AI, 챗GPT가 청소년 자살 도운 혐의로 고소당해

8월 27, 2025

16세 애덤 레인(Adam Raine)이 자살로 생을 마감하기 전, 그는 수개월간 챗GPT에 자신의 자살 계획에 대해 상담했다. 현재 그의 부모는 오픈AI(OpenAI)를 상대로 첫 번째 사망…

Dynamic Data Curation for Safety Alignment of Large Language Models

생성형 AI로 안전한 AI 모델 개발, DATA ADVISOR의 혁신적 접근

10월 8, 2024

생성형 AI(Generative AI)의 급속한 발전으로 대규모 언어 모델(LLM)의 안전성 확보가 AI 개발의 핵심 과제로 부상하고 있다. 이러한 배경에서 연구진은 LLM의 안전성을 높이기 위한 혁신적인…

LLM 안전성 - AI매터스