블룸버그가 4일(현지 시간) 보도한 내용에 따르면, 알파벳(Alphabet Inc.) 산하 구글(Google)이 자사의 인공지능(AI) 원칙에서 무기 개발 등 잠재적 위험이 있는 기술 개발을 제한하는 조항을 삭제했다.
블룸버그가 입수한 자료에 의하면, 구글의 AI 원칙에는 이전까지 “우리가 추구하지 않을 AI 응용 분야”라는 제목 아래 “무기를 포함해 전반적인 피해를 초래하거나 초래할 가능성이 있는 기술”이라는 내용이 포함되어 있었다.
하지만 현재 해당 페이지에서는 이 문구를 찾아볼 수 없다. 구글이 AI 원칙에서 ‘해악 금지’ 조항을 삭제한 것은 향후 회사가 추구할 수 있는 AI 개발 방향에 영향을 미칠 수 있다는 점에서 주목된다. 이는 구글이 AI 기술 개발에서 보다 폭넓은 응용 분야를 고려할 수 있음을 시사한다.
이번 변경은 AI 기술 발전과 윤리적 고려사항 사이의 균형을 맞추려는 기업들의 고민을 보여준다. 특히 AI 기술이 급속도로 발전하는 상황에서, 기업들의 윤리 원칙 변화는 산업 전반에 영향을 미칠 수 있다.
해당 기사의 원문은 링크에서 확인할 수 있다.
이미지출처: 구글
기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기