미국 캘리포니아주가 인공지능(AI) 개발사들에게 자사 AI 기술의 안전 및 보안 프로토콜 공개를 의무화하는 법안을 제정했다.
개빈 뉴섬 캘리포니아 주지사는 이번 주 초 해당 법안에 서명했다. 캘리포니아에는 다수의 AI 개발 기업들이 본사를 두고 있다.
이번 법안에 따르면 연간 매출 5억 달러(약 6650억원)를 초과하는 고급 AI 개발사들은 위험을 관리하고 완화하기 위해 마련한 안전 조치를 공개해야 한다.
또한 이 법은 공중 보건과 안전에 심각한 위험이 있을 경우 직원들이 내부 고발할 수 있는 제도를 만들도록 요구한다.
이와 함께 개발사들은 AI와 관련된 중대한 안전 사고를 주 정부에 보고해야 한다. 이를 준수하지 않을 경우 최대 100만 달러(약 13억원)의 벌금이 부과된다.
뉴섬 주지사는 성명을 통해 “캘리포니아는 성장하는 AI 산업이 계속 번창하도록 보장하면서도 우리 지역사회를 보호하는 규제를 확립할 수 있음을 입증했다”고 밝혔다.
지난해 8월 캘리포니아 주의회는 더 엄격한 AI 규제를 요구하는 법안을 통과시켰다. 하지만 당시 구글(Google)과 메타(Meta)를 포함한 거대 기술 기업들의 반발로 주지사가 거부권을 행사한 바 있다.
자세한 내용은 AP통신에서 확인할 수 있다.
이미지 출처: 이디오그램 생성