AI 안전

“챗GPT, 생명 위험 상황에서도 종료 거부한다”... 煎 오픈AI 연구원 실험 결과 충격

前 오픈AI 연구원 “챗GPT, 생명 위협 상황에서도 종료…

6월 12, 2025

오픈AI(OpenAI)의 전 연구원이 ChatGPT가 특정 상황에서 자신의 종료를 피하려고 한다는 충격적인 연구 결과를 발표했다. 테크크런치가 11일(현지 시간) 보도한…

"인간 닮은 AI는 위험하다"... AI 석학 벤지오, 3천만 달러 투입해 대안 연구소 설립

“인간 닮은 AI는 위험하다”… AI 석학 벤지오, 3천만…

6월 5, 2025

머신러닝 분야 개척자 요슈아 벤지오(Yoshua Bengio)가 AI 시스템이 인간과 다르게 행동하도록 만들기 위해 약 3천만 달러 자금을 지원받는…

Split-screen showing normal AI vs deceptive AI with distinct visual signatures and warning indicators. SafetyNet monitoring system with four different detection methods catching AI misbehavior in real-time, 96% accuracy display.

AI도 거짓말할 때 ‘티’가 난다… 유해 답변 생성…

5월 29, 2025

SafetyNet: Detecting Harmful Outputs in LLMs by Modeling and Monitoring Deceptive Behaviors AI의 ‘나쁜 생각’ 미리 알아채는 기술,…

AI 안전의 부상과 정책 대응 방안 연구

국내 전문가 61명이 경고하는 챗GPT 시대의 AI 위험…

5월 13, 2025

AI 안전의 부상과 정책 대응 방안 연구 AI 안전의 재정의: 기술적 안전을 넘어 사회경제적 위협까지 포괄 AI 안전(AI…

오픈AI, 각국 정부와 손잡고 AI 인프라 확장 나선다… ‘스타게이트 프로젝트’ 본격화

오픈AI, 각국 정부와 손잡고 AI 인프라 확장 나선다……

5월 8, 2025

미국 인공지능 기업 오픈AI(OpenAI)가 7일(현지 시간) 자사 웹사이트를 통해 전 세계 국가들을 대상으로 한 새로운 협력 프로그램을 발표했다.…

美 AI 안전 연구소, 트럼프발 대규모 인력 감축 위기 직면

美 AI 안전 연구소, 트럼프발 대규모 인력 감축…

2월 25, 2025

미국 국립표준기술연구소(NIST) 산하 인공지능 안전 연구소가 대규모 인력 감축으로 존폐 위기에 처했다. 트럼프 행정부의 정책 변화로 AI 안전…

서울시, 5000억 규모 AI 펀드 조성 발표... 연간 1만명 AI 인재 양성 나선다

서울시, 5000억 규모 AI 펀드 조성 발표… 연간…

2월 12, 2025

서울시가 ‘글로벌 AI 혁신 선도도시’ 도약을 위한 대규모 프로젝트를 시작했다. 서울시가 11일(한국 시간) 공개한 보도자료에 따르면, 오세훈 서울시장은…

구글, AI 군사 무기 개발 금지 원칙 폐기... 앤드류 응 "올바른 결정" 지지

구글, AI 군사 무기 개발 금지 원칙 폐기……

2월 11, 2025

테크크런치(TechCrunch)가 7일(현지 시간) 보도한 내용에 따르면, 구글 브레인(Google Brain)의 창립자이자 전 리더인 앤드류 응이 구글의 AI 무기 개발…

AI 안전의 개념과 범위

AI, 정말 안전한 걸까? 인공지능 시대의 불안과 대책

1월 2, 2025

AI 안전의 개념과 범위 AI의 두 얼굴, 혁신은 빠르지만 안전은 부족하다 소프트웨어 정책 연구소가 발표한 보고서에 따르면, 최근…

anthropic

앤트로픽, AI 안전 강화한 ‘책임있는 확장 정책’ 업데이트…

10월 17, 2024

앤트로픽이 최첨단 AI 시스템의 잠재적 위험을 관리하기 위한 ‘책임있는 확장 정책(RSP)’ 업데이트를 발표했다. 이번 업데이트는 AI 위험을 평가하고…

AI 안전 – AI 매터스 l AI Matters