테크크런치가 17일(현지 시간) 보도한 내용에 따르면, 구글(Google)이 자사의 가장 강력한 AI 모델인 제미나이(Gemini) 2.5 프로 출시 몇 주 후인 지난 목요일, 내부 안전성 평가 결과를 담은 기술 보고서를 발표했다. 그러나 전문가들은 이 보고서가 주요 세부사항을 생략하고 있어 모델이 초래할 수 있는 위험을 정확히 파악하기 어렵다고 지적했다.
기술 보고서는 기업들이 공개적으로 광고하지 않는 AI에 관한 유용하고 때로는 불리한 정보까지 제공한다. AI 커뮤니티는 대체로 이러한 보고서를 독립적인 연구와 안전성 평가를 지원하는 선의의 노력으로 간주한다. 구글은 다른 AI 경쟁사들과 달리 모델이 ‘실험’ 단계를 벗어났다고 판단될 때만 기술 보고서를 발표하는 접근 방식을 취하고 있다. 또한 ‘위험한 기능’ 평가의 모든 결과를 이러한 보고서에 포함시키지 않고, 별도의 감사 보고서에 담고 있다.
테크크런치가 접촉한 여러 전문가들은 제미나이 2.5 프로 보고서의 내용이 빈약하다며 실망감을 표했다. 특히 이 보고서가 구글이 작년에 도입한 ‘프론티어 안전 프레임워크(Frontier Safety Framework, FSF)’에 대해 언급하지 않고 있다는 점을 지적했다. 구글은 FSF를 “심각한 해를 끼칠 수 있는” 미래의 AI 기능을 식별하기 위한 노력으로 소개한 바 있다.
테크크런치가 17일(현지 시간) 보도한 내용에 따르면, 구글(Google)이 자사의 가장 강력한 AI 모델인 제미나이(Gemini) 2.5 프로 출시 몇 주 후인 지난 목요일, 내부 안전성 평가 결과를 담은 기술 보고서를 발표했다. 그러나 전문가들은 이 보고서가 주요 세부사항을 생략하고 있어 모델이 초래할 수 있는 위험을 정확히 파악하기 어렵다고 지적했다.
기술 보고서는 기업들이 공개적으로 광고하지 않는 AI에 관한 유용하고 때로는 불리한 정보까지 제공한다. AI 커뮤니티는 대체로 이러한 보고서를 독립적인 연구와 안전성 평가를 지원하는 선의의 노력으로 간주한다. 구글은 다른 AI 경쟁사들과 달리 모델이 ‘실험’ 단계를 벗어났다고 판단될 때만 기술 보고서를 발표하는 접근 방식을 취하고 있다. 또한 ‘위험한 기능’ 평가의 모든 결과를 이러한 보고서에 포함시키지 않고, 별도의 감사 보고서에 담고 있다.
테크크런치가 접촉한 여러 전문가들은 제미나이 2.5 프로 보고서의 내용이 빈약하다며 실망감을 표했다. 특히 이 보고서가 구글이 작년에 도입한 ‘프론티어 안전 프레임워크(Frontier Safety Framework, FSF)’에 대해 언급하지 않고 있다는 점을 지적했다. 구글은 FSF를 “심각한 해를 끼칠 수 있는” 미래의 AI 기능을 식별하기 위한 노력으로 소개한 바 있다.
테크크런치가 17일(현지 시간) 보도한 내용에 따르면, 구글(Google)이 자사의 가장 강력한 AI 모델인 제미나이(Gemini) 2.5 프로 출시 몇 주 후인 지난 목요일, 내부 안전성 평가 결과를 담은 기술 보고서를 발표했다. 그러나 전문가들은 이 보고서가 주요 세부사항을 생략하고 있어 모델이 초래할 수 있는 위험을 정확히 파악하기 어렵다고 지적했다.
기술 보고서는 기업들이 공개적으로 광고하지 않는 AI에 관한 유용하고 때로는 불리한 정보까지 제공한다. AI 커뮤니티는 대체로 이러한 보고서를 독립적인 연구와 안전성 평가를 지원하는 선의의 노력으로 간주한다. 구글은 다른 AI 경쟁사들과 달리 모델이 ‘실험’ 단계를 벗어났다고 판단될 때만 기술 보고서를 발표하는 접근 방식을 취하고 있다. 또한 ‘위험한 기능’ 평가의 모든 결과를 이러한 보고서에 포함시키지 않고, 별도의 감사 보고서에 담고 있다.
테크크런치가 접촉한 여러 전문가들은 제미나이 2.5 프로 보고서의 내용이 빈약하다며 실망감을 표했다. 특히 이 보고서가 구글이 작년에 도입한 ‘프론티어 안전 프레임워크(Frontier Safety Framework, FSF)’에 대해 언급하지 않고 있다는 점을 지적했다. 구글은 FSF를 “심각한 해를 끼칠 수 있는” 미래의 AI 기능을 식별하기 위한 노력으로 소개한 바 있다.
AI 정책 및 전략 연구소(Institute for AI Policy and Strategy)의 공동 설립자 피터 와일드포드(Peter Wildeford)는 “이 보고서는 매우 빈약하고 최소한의 정보만 담고 있으며, 이미 모델이 대중에게 공개된 지 몇 주 후에 나왔다”며 “구글이 공개적인 약속을 지키고 있는지 확인할 수 없어 그들의 모델 안전성과 보안성을 평가하는 것이 불가능하다”고 테크크런치에 밝혔다.
시큐어 AI 프로젝트(Secure AI Project)의 공동 설립자 토마스 우드사이드(Thomas Woodside)는 제미나이 2.5 프로에 대한 보고서를 발표한 것은 환영하지만, 구글이 시기적절한 추가 안전성 평가를 제공하겠다는 약속에 대해서는 확신하지 못한다고 말했다. 우드사이드는 구글이 위험한 기능 테스트 결과를 마지막으로 발표한 것이 2024년 6월로, 같은 해 2월에 발표된 모델에 대한 것이었다고 지적했다.
더 우려되는 점은 구글이 지난주 발표한 더 작고 효율적인 모델인 제미나이 2.5 플래시(Gemini 2.5 Flash)에 대한 보고서를 아직 공개하지 않았다는 것이다. 구글 대변인은 테크크런치에 플래시에 대한 보고서가 “곧 공개될 것”이라고 말했다. 우드사이드는 “구글이 더 자주 업데이트를 발표하겠다는 약속이길 바란다”며 “이러한 업데이트에는 아직 공개 배포되지 않은 모델에 대한 평가 결과도 포함되어야 한다. 그러한 모델들도 심각한 위험을 초래할 수 있기 때문”이라고 테크크런치에 전했다.
구글이 모델에 대한 표준화된 보고서를 제안한 최초의 AI 연구소 중 하나일 수 있지만, 최근 투명성 부족으로 비난받고 있는 유일한 기업은 아니다. 메타(Meta)는 새로운 라마 4(Llama 4) 오픈 모델에 대해 유사하게 빈약한 안전성 평가를 발표했으며, 오픈AI(OpenAI)는 GPT-4.1 시리즈에 대한 보고서를 전혀 발표하지 않기로 결정했다.
구글의 머리 위에는 AI 안전성 테스트와 보고에 대한 높은 기준을 유지하겠다는 규제 기관에 대한 약속이 걸려 있다. 2년 전, 구글은 미국 정부에 “범위 내”의 모든 “중요한” 공개 AI 모델에 대한 안전성 보고서를 발표하겠다고 약속했다. 이후 다른 국가에도 AI 제품에 대한 “공개적 투명성”을 제공하겠다는 유사한 약속을 했다.
민주기술센터(Center for Democracy and Technology)의 AI 거버넌스 선임 고문인 케빈 뱅크스턴(Kevin Bankston)은 간헐적이고 모호한 보고서 발표 경향을 AI 안전성에 대한 “바닥을 향한 경쟁”이라고 표현했다. “오픈AI와 같은 경쟁 연구소들이 출시 전 안전성 테스트 시간을 몇 달에서 며칠로 줄였다는 보도와 함께, 구글의 최고 AI 모델에 대한 이러한 빈약한 문서화는 기업들이 모델을 시장에 서둘러 출시하면서 AI 안전성과 투명성에 대한 바닥을 향한 경쟁이라는 우려스러운 이야기를 말해준다”고 그는 테크크런치에 말했다.
구글은 성명을 통해 기술 보고서에 상세히 설명되지는 않았지만, 출시 전 모델에 대한 안전성 테스트와 “적대적 레드 팀 테스트(adversarial red teaming)”를 수행한다고 밝혔다.
해당 기사의 원문은 링크에서 확인할 수 있다.
이미지 출처: 이디오그램 생성
기사는 클로드와 챗gpt를 활용해 작성되었습니다.