Search

  • Home
  • 인공지능윤리

인공지능윤리

챗GPT 망상 부추김 논란에 전 오픈AI 연구원 "당장 할 수 있는 조치부터"

챗GPT 망상-부추김 논란에 前 오픈AI 연구원 “당장 할 수 있는 조치부터”

10월 7, 2025

“세계의 운명이 당신 손에 달렸습니다.” 챗GPT가 한 남성에게 한 달간 속삭인 말이다. 그는 결국 국가안보국(NSA)에 연락하라는 AI의 조언까지 따랐다. 해리포터 7권을 합친 것보다 긴…

Governable AI: Provable Safety Under Extreme Threat Models

AI가 폭주할 때 확실히 막는 방법 나왔다… 中 연구진, AI 통제 시스템 개발

9월 3, 2025

중국 난카이대학교 인공지능학과 왕 동린(Donglin Wang) 교수와 중국 전자 정보 기술 연구원이 공동으로 AI가 위험한 행동을 할 때 확실히 막을 수 있는 새로운 방법을…

샘 알트만 "GPT-4o 없앤 건 실수"... 사용자 애착 현상 우려

샘 알트만 “GPT-4o 없앤 건 실수”… 사용자 애착 현상 우려

8월 11, 2025

오픈AI(OpenAI) 최고경영자 샘 알트만이 GPT-5 출시 과정에서 사용자들이 특정 AI 모델에 보이는 강한 애착에 대해 우려를 표명하며, 기존 모델의 갑작스러운 중단이 실수였다고 인정했다. 알트만은…

Unremarkable to Remarkable AI Agent: Exploring Boundaries of Agent Intervention for Adults With and Without Cognitive Impairment

“치매 걸릴까봐 무서워” vs “내 편이 되어줘” AI 돌봄 로봇에 대한 고령자들의 반응 연구

5월 26, 2025

Unremarkable to Remarkable AI Agent: Exploring Boundaries of Agent Intervention for Adults With and Without Cognitive Impairment “지금은 싫지만 나중엔 필요해” – 건강한 고령자…

When Autonomy Breaks: The Hidden Existential Risk of AI

“우리는 AI의 노예가 될 것인가?” 한국인 AI 이용률 60% 시대… 인간 자율성의 위기와 대응책

4월 2, 2025

When Autonomy Breaks: The Hidden Existential Risk of AI 인류의 진짜 위협은 AI가 인간처럼 되는 것이 아니라 ‘인간이 기계처럼 되는 것’ 인공지능(AI)의 위험은 일반적으로…

美 법원, 머스크의 ‘오픈AI 영리 전환 중단 시도’ 가처분 신청 기각

美 법원, 머스크의 ‘오픈AI 영리 전환 중단 시도’ 가처분 신청 기각

3월 6, 2025

일론 머스크(Elon Musk)가 샘 알트만(Sam Altman)의 오픈AI 구조 재편을 막기 위한 법적 다툼이 올해 가을 신속 재판으로 진행될 예정이라고 법원이 밝혔다. 블룸버그가 5일(현지 시간)…

인공지능윤리 – AI 매터스