테크크런치가 15일(현지 시간) 보도한 내용에 따르면, 메타(Meta)가 자사 AI 챗봇 사용자들이 다른 사용자들의 비공개 프롬프트와 AI 생성 응답을 열람할 수 있게 하는 보안 버그를 수정했다고 발표했다. 보안 테스팅 업체 앱시큐어(AppSecure)의 창립자인 산딥 호드카시아는 2024년 12월 26일 이 버그를 비공개로 신고했으며, 메타로부터 1만 달러의 버그 바운티 보상을 받았다고 독점 공개했다. 호드카시아에 따르면 메타는 2025년 1월 24일 수정 사항을 배포했으며, 이 버그가 악의적으로 악용된 증거는 발견되지 않았다고 밝혔다.
호드카시아는 메타 AI가 로그인한 사용자들이 텍스트와 이미지를 재생성하기 위해 AI 프롬프트를 편집할 수 있게 하는 방식을 조사하던 중 이 버그를 발견했다고 설명했다. 사용자가 프롬프트를 편집할 때 메타의 백엔드 서버가 프롬프트와 AI 생성 응답에 고유 번호를 할당한다는 것을 알아냈다. AI 프롬프트를 편집하는 동안 브라우저의 네트워크 트래픽을 분석한 결과, 그는 이 고유 번호를 변경하면 메타 서버가 완전히 다른 사람의 프롬프트와 AI 생성 응답을 반환한다는 사실을 발견했다.
이 버그는 메타 서버가 프롬프트와 응답을 요청하는 사용자가 이를 볼 권한이 있는지 제대로 확인하지 않았음을 의미한다. 호드카시아는 메타 서버가 생성하는 프롬프트 번호가 “쉽게 추측 가능”하다고 설명하며, 악의적인 행위자가 자동화 도구를 사용해 프롬프트 번호를 빠르게 변경함으로써 사용자들의 원본 프롬프트를 대량으로 수집할 가능성이 있다고 지적했다.
테크크런치의 문의에 대해 메타는 1월에 버그를 수정했으며 “남용 증거를 발견하지 못했고 신고자에게 보상을 지급했다”고 메타 대변인 라이언 다니엘스가 확인했다. 이번 버그 소식은 거대 기술 기업들이 AI 제품의 사용과 관련된 많은 보안 및 개인정보보호 위험에도 불구하고 AI 제품을 출시하고 개선하기 위해 분주히 움직이고 있는 시점에 나왔다.
올해 초 챗GPT(ChatGPT) 같은 경쟁 앱들과 겨루기 위해 출시된 메타 AI의 독립형 앱은 일부 사용자들이 챗봇과의 비공개 대화라고 생각했던 내용을 의도치 않게 공개적으로 공유하면서 험난한 출발을 했다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 메타