“딥시크 막아라” 오픈AI, 중국 기업 지적재산권 탈취 우려로 내부 보안 대폭 강화

오픈AI, 인재 유출 대응 위해 보상 체계 '전면 재조정’
이미지 출처: 오픈AI

오픈AI가 중국 인공지능 기업들의 기업 스파이 활동으로부터 지적재산권을 보호하기 위해 내부 보안을 대폭 강화하고 있다고 8일(현지 시각) 보도했다.

파이낸셜타임스가 오픈AI 관계자들을 인용해 보도한 바에 따르면, 최근 변화에는 민감한 정보에 대한 엄격한 통제와 직원 심사 강화가 포함됐다.

보안 강화 결정은 중국 AI 스타트업 딥시크(DeepSeek)가 지난 1월 챗GPT 데이터를 사용해 자사 R1 대형 언어 모델을 훈련시킨 것으로 알려진 라이벌 AI 모델을 출시한 이후 가속화됐다. 이는 ‘모델 증류’라고 알려진 과정이다. 공개 인터넷 데이터를 직접 허가 없이 대량 사용해 모델을 훈련시키는 오픈AI 입장에서는 아이러니한 상황이다.

오픈AI는 딥시크 사태의 재발을 막기 위한 안전장치를 마련하고 지적재산권 보호를 위한 물리적 보안책도 구축했다.

회사의 내부 프로젝트는 이제 ‘텐팅(tenting)’ 시스템 하에서 개발되고 있으며, 이는 특정 프로젝트에 배정된 팀원들에게만 정보 접근을 제한한다. 작년 개발된 o1 모델 같은 핵심 이니셔티브는 이러한 극도의 구획화 관행의 적용을 받아 코드, 데이터, 심지어 팀 간 대화까지 차단하고 있다.

기타 새로운 조치로는 민감한 연구실 접근을 위한 지문 스캔 등 생체 인증 구현과 내부 시스템 내 인터넷 연결에 대한 강화된 ‘기본 거부’ 접근법이 있다. 회사 인프라의 일부는 중요한 데이터가 외부 네트워크로부터 물리적으로 격리되도록 에어갭 처리됐다.

또한 사이버보안 및 거버넌스 팀을 강화해 팔란티어 테크놀로지스 전 보안 책임자 데인 스터키(Dane Stuckey)를 최고정보보안책임자로 영입했고, 폴 나카소네(Paul Nakasone) 전 미군 장군을 이사회에 임명했다.

보안 조치들이 오픈AI의 지적재산권을 보호하기 위한 것이지만, 내부적으로는 새로운 마찰을 야기한 것으로 알려졌다. 증가된 구획화로 팀 간 협업이 어려워지고 개발 워크플로우가 느려졌다. 한 관계자는 파이낸셜타임스에 “매우 엄격해졌다. 모든 것을 갖거나 아무것도 못 갖거나 둘 중 하나였다”며 “시간이 지나면서 더 많은 사람들이 필요한 것에는 접근하되 다른 것들에는 접근하지 않도록 하고 있다”고 말했다.

이러한 변화는 생성형 AI가 전략적, 상업적으로 더욱 가치 있게 되면서 이를 구동하는 모델을 보호하는 것이 구축하는 것만큼 중요해지고 있는 광범위한 업계 트렌드의 일환이다.

자세한 내용은 실리콘앵글에서 확인할 수 있다.




“딥시크 막아라” 오픈AI, 중국 기업 지적재산권 탈취 우려로 내부 보안 대폭 강화 – AI 매터스 l AI Matters