오픈AI(OpenAI)가 외부 연구자들이 AI 안전성과 정렬(alignment) 연구를 수행할 수 있도록 지원하는 ‘오픈AI 세이프티 펠로십(OpenAI Safety Fellowship)’을 2026년 4월 8일 발표했다.
오픈AI에 따르면, 이 펠로십 프로그램은 AI 안전성과 정렬 분야의 차세대 연구 인재를 양성하는 것을 목표로 한다. 선발된 연구원들은 2026년 9월 14일부터 2027년 2월 5일까지 약 5개월간 활동하게 되며, 주당 약 3,850달러(한화 약 583만 원)의 생활비 보조금과 월 약 1만 5,000달러에 달하는 컴퓨팅 자원을 지원받는다.
연구 분야는 안전성 평가(safety evaluation), 윤리(ethics), 강건성(robustness), 확장 가능한 위험 완화 방법(scalable mitigations), 프라이버시 보호 안전 기법, AI 에이전트 감독(agentic oversight), 고위험 오남용 영역 등이 포함된다. 연구원들은 오픈AI 멘토와 긴밀히 협력하며 연구를 진행하고, 미국 캘리포니아 버클리(Berkeley) 소재 코스텔레이션(Constellation) 사무실을 이용하거나 원격으로 참여할 수 있다.
오픈AI는 지원자가 펠로십 종료 전까지 논문, 벤치마크, 또는 데이터셋 등 실질적인 연구 성과물을 제출할 것을 기대한다고 밝혔다. 지원 마감은 2026년 5월 3일이며, 7월 25일에 최종 선발자를 발표할 예정이다.
이번 펠로십은 오픈AI가 AI 안전 연구 생태계를 외부로 확장하려는 시도로 평가받고 있다. AI 기술이 점점 강력해지면서 안전성 연구의 중요성도 덩달아 커지고 있다. 앤트로픽(Anthropic), 구글 딥마인드(Google DeepMind) 등 경쟁사들도 자체 안전 연구 조직과 외부 협력 프로그램을 운영하고 있어, AI 업계 전반에서 안전성 연구에 대한 투자가 가속화되는 추세다. 오픈AI의 이번 펠로십 도입은 독립적이고 다양한 시각을 가진 외부 연구자들이 안전 연구에 기여할 수 있는 경로를 제도적으로 마련했다는 점에서 의의가 크다. AI 안전 연구는 아직 초기 단계인 만큼, 다양한 학문적 배경을 가진 연구자들의 참여가 안전하고 신뢰할 수 있는 AI 개발에 핵심적인 역할을 할 것으로 기대된다. 이번 펠로십은 학계, 비영리 기관, 스타트업 등 다양한 배경의 지원자들에게 문이 열려 있어, AI 안전 연구 인재 풀을 넓히는 데도 기여할 것으로 보이며, AI 거버넌스 강화에도 긍정적 영향을 미칠 전망이다.
자세한 내용은 오픈AI(OpenAI)에서 확인할 수 있다.
이미지 출처: 이디오그램 생성






![[AI와 인간 사이] 앤트로픽의 하네스 유출은 코딩의 패러다임을 바꾸고 있다](https://aimatters.co.kr/wp-content/uploads/2026/04/AI와-인간-사이-앤트로픽의-하네스-유출은-코딩의-패러다임을-바꾸고-있다.png)
