2019년 2월 14일, 오픈AI는 자사가 개발한 언어모델 GPT-2를 공개하며 한 마디를 덧붙였다. “이 모델은 악용 가능성이 너무 높아 전체 공개하지 않겠다.” 15억 개의 파라미터를 가진 이 모델은, 당시 기준으로 인간이 쓴 것과 구별하기 어려운 수준의 텍스트를 생성할 수 있었다. 오픈AI는 작은 버전만 먼저 풀고, 풀 모델의 가중치와 학습 데이터는 봉인했다.…
2026년 3월 31일 새벽 4시, 보안 연구자 Chaofan Shou가 X에 글 하나를 올렸다. “클로드 코드의 소스가 npm에서 유출됐다.” 첨부된 링크 하나가 디지털 신호탄이 되었다. 해가 뜨기도 전에 51만 줄의 타입스크립트…