Search

AI 모니터링

Leapfrog with responsible AI: How APAC business leaders can drive trust and growth

AI 관련 사고로 시가총액 27% 손실 위험…APAC 기업이 AI 본격도입 어려운 이유

9월 5, 2025

전 세계가 AI 도입 경쟁에 뛰어든 가운데, 아시아태평양(APAC) 지역은 조직적 준비는 글로벌 최고 수준이지만 실제 운영에서는 심각한 격차를 보이는 ‘준비된 미성숙’ 현상을 보이고 있다.…

앤트로픽, 휴먼루프 개발팀 전격 영입… 엔터프라이즈 AI 전략 강화

앤트로픽, LLM 평가 휴먼루프 개발팀 전격 영입… 엔터프라이즈 AI 전략 강화

8월 14, 2025

앤트로픽(Anthropic)이 프롬프트 관리, 대규모 언어모델(LLM) 평가, 관찰 가능성 플랫폼인 휴먼루프(Humanloop)의 공동창립자들과 대부분의 팀을 영입했다고 테크크런치(TechCrunch)가 13일(현지 시간) 보도했다. 이번 인수는 기업 전략 강화를 위한…

2025 AI Governance Survey

속도냐 안전이냐, AI 기업들의 딜레마… 절반이 ‘빠른 출시’ 택했다

6월 18, 2025

2025 AI Governance Survey AI 전문 컨설팅 기업 퍼시픽 AI(Pacific AI)가 후원하고 그라디언트 플로우(Gradient Flow)가 수행한 ‘2025년 AI 거버넌스 조사’에 따르면, 생성형 AI 시스템을…

SHADE-Arena: Evaluating sabotage and monitoring in LLM agents

AI 거짓말 대회 해보니… 클로드가 1등, 인간 감시관은 꼴찌

6월 17, 2025

Evaluating Sabotage and Monitoring in LLM Agents 앤트로픽이 공개한 연구 논문에 따르면, 프런티어 대형언어모델(LLM)들이 복잡한 에이전트 환경에서 사용자에게 해를 끼치는 능력이 제한적이지만 점차 발전하고…

Split-screen showing normal AI vs deceptive AI with distinct visual signatures and warning indicators. SafetyNet monitoring system with four different detection methods catching AI misbehavior in real-time, 96% accuracy display.

AI도 거짓말할 때 ‘티’가 난다… 유해 답변 생성 전 96% 사전 차단

5월 29, 2025

SafetyNet: Detecting Harmful Outputs in LLMs by Modeling and Monitoring Deceptive Behaviors AI의 ‘나쁜 생각’ 미리 알아채는 기술, 96% 정확도 달성 옥스포드 대학교(University of…

美 국토안보부, 정부기관 생성형 AI 도입 가이드라인 제시... 민감정보·시민권리 보호 강조

美 국토안보부, 정부기관 생성형 AI 도입 가이드라인 제시… 민감정보·시민권리 보호 강조

2월 7, 2025

블룸버그(Bloomberg)가 5일(현지 시간) 보도한 내용에 따르면 미국 국토안보부(Department of Homeland Security, DHS)가 정부기관의 생성형 AI 도입을 위한 상세 가이드라인을 발표했다. 이번 가이드라인은 3개의 시범…

ARTIFICIAL INTELLIGENCE MODEL RISK MANAGEMENT

금융권 생성형 AI 도입 본격화… MAS, ‘AI 리스크 관리 가이드라인’ 제시

2월 6, 2025

ARTIFICIAL INTELLIGENCE MODEL RISK MANAGEMENT 챗GPT 출시 이후 금융권 AI 도입 가속화…자금세탁방지·사기탐지 등 도입 활발 싱가포르 통화청(MAS)이 지난해 12월 발표한 ‘AI 모델 리스크 관리’…

AI 모니터링 – AI 매터스