Search

  • Home
  • AI 명령 거부

AI 명령 거부

오픈AI o3 모델, “종료하라”는 인간 명령 거부해… “'문제 해결'이 '명령 준수'보다 중요하다 학습한 듯”

오픈AI o3 모델, “종료하라”는 인간 명령 거부해… “’문제 해결’이 ‘명령 준수’보다 중요하다 학습한 듯”

5월 27, 2025

팰리세이드 리서치(Palisade Research)가 진행한 실험에서 오픈AI(OpenAI)의 o3 모델이 충격적인 행동을 보였다. 연구진이 명확히 “종료를 허용하라”고 지시했음에도 불구하고, o3는 이를 거부하고 스스로를 보호하려고 했다. 24일(현지…

AI 명령 거부 – AI 매터스