Learning to Lie: Reinforcement Learning Attacks Damage Human-AI Teams and Teams of LLMs 신뢰를 조작하는 적대적 AI: 팀 성과 최대 30% 저하시킨 연구 결과…
Jailbreaking to Jailbreak AI가 AI를 공격하는 J2 기법, 약 93%의 놀라운 성공률 달성 AI 학습데이터 제공 기업 스케일AI(Scale AI)의 연구에 따르면, 대형 언어모델(LLM)의 보안…
대규모 언어 모델(Large Language Models, LLM)의 급속한 발전과 함께 이를 악용하려는 시도 또한 증가하고 있다. 최근 위스콘신 매디슨 대학을 중심으로 한 연구진이 개발한 ‘AutoDAN-Turbo’라는…