• Home
  • AI 명령 거부

AI 명령 거부

오픈AI o3 모델, “종료하라”는 인간 명령 거부해… “'문제 해결'이 '명령 준수'보다 중요하다 학습한 듯”

오픈AI o3 모델, “종료하라”는 인간 명령 거부해… “’문제…

5월 27, 2025

팰리세이드 리서치(Palisade Research)가 진행한 실험에서 오픈AI(OpenAI)의 o3 모델이 충격적인 행동을 보였다. 연구진이 명확히 “종료를 허용하라”고 지시했음에도 불구하고, o3는…

AI 명령 거부 – AI 매터스 l AI Matters