테크크런치가 19일(현지 시간) 보도한 내용에 따르면, 오픈AI(OpenAI)와 앤트로픽(Anthropic) 등 주요 AI 기업들이 미군과의 협력에서 미묘한 균형을 맞추고 있다. AI를 활용해 국방부의 효율성을 높이되, AI가 직접적으로 살상에 관여하지 않도록 하는 것이다.
AI, 위협 식별·추적 능력 강화…”킬체인 실행 속도 향상”
테크크런치와의 인터뷰에서 미 국방부 디지털·AI책임자인 라다 플럼(Radha Plumb) 박사는 “현재 AI 도구들이 직접적인 무기로 사용되지는 않지만, 위협을 식별하고 추적하며 평가하는 데 있어 상당한 이점을 제공하고 있다”고 밝혔다. 플럼 박사는 “우리는 킬체인 실행 속도를 높여 지휘관들이 적시에 우리 군을 보호할 수 있도록 하는 방법을 확대하고 있다”고 설명했다. 여기서 ‘킬체인’은 군이 위협을 식별하고 추적하여 제거하는 과정을 의미한다.
실리콘밸리의 정책 변화…”AI 군사 활용 확대”
2024년 오픈AI, 앤트로픽, 메타(Meta)는 미국 정보·국방 기관이 자사의 AI 시스템을 사용할 수 있도록 이용 정책을 수정했다. 다만 AI가 인간을 해치는 데 사용되는 것은 여전히 금지하고 있다. 이후 AI 기업들과 방위산업체 간의 협력이 활발해졌다. 메타는 록히드마틴(Lockheed Martin), 부즈앨런(Booz Allen) 등과 제휴했고, 앤트로픽은 팔란티어(Palantir)와, 오픈AI는 안두릴(Anduril)과 파트너십을 맺었다.
AI 무기의 자율성 논란…”인간의 결정권 유지할 것”
최근 AI 무기의 생사 결정권 문제를 둘러싼 논쟁이 일어나고 있다. 안두릴의 CEO 파머 러키(Palmer Luckey)는 미군이 이미 수십 년간 자율무기체계를 구매하고 사용해왔다고 주장했다. 그러나 플럼 박사는 “신뢰성과 윤리적 측면에서 무력 사용 결정에는 항상 인간이 관여할 것”이라고 강조했다. 그는 자동화 시스템이 독립적으로 생사를 결정한다는 개념이 “지나치게 이분법적”이라며, 실제로는 고위 지도자들이 전 과정에서 적극적으로 결정을 내리는 인간-기계 협력 방식이라고 설명했다.
해당 기사의 원문은 테크크런치에서 확인할 수 있다.
이미지출처: 미국 국방부 로고 이미지 편집
기사는 클로드 3.5 Sonnet과 챗GPT를 활용해 작성되었습니다.
관련 콘텐츠 더보기