Search

AI가 코드 짰다고 솔직히 말하면 손해볼까?… 깃허브 1만 4천 건 분석 결과는 ‘의외’

AI가 코드 짰다고 솔직히 말하면 손해볼까?... 깃허브 1만 4천 건 분석 결과는 '의외
이미지 출처: 이디오그램 생성

AI 코딩 도구가 보편화된 지금, 개발자들은 새로운 딜레마에 직면했다. 코드 작성에 AI를 활용한 사실을 솔직히 밝힐 것인가, 아니면 애매하게 넘어갈 것인가. 텍사스공과대학교 연구팀이 깃허브의 1만 4,300개 커밋(개발자가 코드를 수정하고 그 변경사항을 저장소에 기록하는 행위)을 분석한 결과, 개발자 대부분이 AI 도구를 사용하면서도 명시적으로 이를 밝히는 경우는 소수에 그치는 것으로 나타났다. 이른바 ‘AI 표기 역설(AI Attribution Paradox)’이다.

해당 논문에 따르면, 연구를 주도한 오바다 크라이샨(Obada Kraishan) 연구원은 2023년부터 2025년까지 7,393개의 깃허브 저장소에서 수집한 데이터를 분석했다. 분석 대상에는 깃허브 코파일럿, 챗GPT, 클로드, 커서 등 8개 주요 AI 코딩 도구가 포함됐다. 연구 결과는 개발자들이 AI 도구 사용에 대해 전략적으로 접근하고 있으며, 오픈소스 커뮤니티가 생각보다 건설적으로 반응한다는 사실을 보여준다.

AI 도구 언급은 95%지만 명시적 표기는 29.5%에 불과

연구에 따르면 분석 대상 커밋의 95.2%가 AI 도구를 언급했지만, 명시적으로 AI가 코드를 생성했다고 밝힌 경우는 29.5%에 그쳤다. 나머지 64.8%는 AI 도구를 언급하기는 했지만 구체적인 역할은 명시하지 않았고, 1.0%만이 간접적으로 AI의 도움을 인정했다. 4.8%는 아예 AI 관련 언급이 없었다.

명시적 표기란 “클로드로 생성됨(Generated by Claude)” 또는 “코파일럿을 사용해 작성(Written using Copilot)”처럼 AI가 코드 작성에 직접적으로 기여했음을 분명히 밝히는 것을 의미한다. 반면 “코파일럿 지원 추가(Adding Copilot support)”처럼 도구만 언급하고 실제 사용 여부는 명확히 하지 않는 경우는 언급형(mention-only)으로 분류됐다.

이러한 표기 방식은 단순한 투명성 문제가 아니라 개발자들의 전략적 커뮤니케이션으로 해석된다. 개발자들은 커뮤니티의 투명성 기대와 AI 사용에 대한 부정적 평가 우려 사이에서 균형을 찾아야 하는 상황에 놓여 있다. 연구팀은 이를 사회학자 어빙 고프만(Erving Goffman)의 인상 관리(impression management) 이론으로 설명한다. 개발자들은 자신의 작업이 어떻게 인식될지를 고려해 공개할 정보를 선택적으로 조절한다는 것이다.

클로드 80.5% vs 코파일럿 9.0%… 도구별로 천차만별인 투명성 문화

흥미롭게도 AI 도구에 따라 명시적 표기율이 극명하게 갈렸다. 앤트로픽의 클로드를 사용한 개발자 중 80.5%가 명시적으로 표기한 반면, 깃허브 코파일럿 사용자는 9.0%만이 명시적 표기를 했다. 챗GPT는 12.2%, 커서는 8.6%, 탭나인(Tabnine)은 1.3%, 코드위스퍼러(CodeWhisperer)는 1.4%로 대부분의 도구에서 낮은 명시율을 보였다. 일반적인 AI 용어(AI-generated, LLM 등)를 사용한 경우는 44.3%가 명시적이었다.

이러한 차이는 도구별로 서로 다른 커뮤니티 문화가 형성되었음을 시사한다. 클로드의 높은 명시율은 앤트로픽이 강조하는 투명성과 협력적 파트너십 철학이 사용자 커뮤니티에 반영된 결과로 보인다. 반면 코파일럿이 통합개발환경(IDE)에 내장된 확장 기능으로 작동하면서, 개발자들은 AI 제안을 외부 지원이 아닌 자연스러운 워크플로의 일부로 인식하게 됐을 가능성이 있다.

도구 선택이 표기 방식을 예측하는 가장 강력한 요인으로 나타났다. 로지스틱 회귀 분석 결과, 코파일럿을 기준으로 했을 때 클로드 사용자가 명시적 표기를 할 확률은 27.49배 높았다. 일반 AI 용어 사용자는 6.27배 높았다. 반면 탭나인, 코드위스퍼러, 기타 도구 사용자는 코파일럿보다도 명시율이 낮았다. 커밋 메시지가 100자 늘어날 때마다 명시적 표기 확률은 1.49배 증가했다.

저장소 특성도 일부 영향을 미쳤다. 중간 규모 저장소(스타 100~999개)가 가장 높은 명시율(23.8%)을 보였고, 초대형 저장소(16.7%), 대형 저장소(5.3%), 소규모 저장소(11.0%) 순이었다. 오래된 저장소일수록 명시율이 약간 높았지만 효과는 미미했다.

솔직하게 밝혀도 괜찮다… 질문 23% 증가했지만 부정적 반응은 없어

연구팀이 주목한 것은 명시적 표기에 대한 커뮤니티의 반응이었다. 개발자들이 서로의 코드를 검토하고 의견을 주고받는 과정을 분석한 결과, AI 사용을 명시적으로 밝힌 경우 그렇지 않은 경우보다 질문을 23.1% 더 많이 받았고, 코멘트도 20.7% 더 많았다. 하지만 이는 호기심에서 비롯된 건설적 검토였지, 부정적 반응이 아니었다.

감정 분석 결과 명시적 표기를 한 그룹과 그렇지 않은 그룹 모두 중립에 가까운 반응을 보였으며, 두 그룹 간 차이는 실질적으로 무의미한 수준이었다. 코드 리뷰 횟수에서도 통계적으로 유의미한 차이가 없었다. 이모지 반응 수는 오히려 명시적 표기 그룹이 약간 적었다.

더 흥미로운 점은 표기 방식보다 도구 선택이 커뮤니티 반응에 훨씬 더 큰 영향을 미쳤다는 사실이다. 코드위스퍼러를 사용한 기여가 가장 높은 참여도를 받았고, 코파일럿과 기타 도구가 그 뒤를 이었다. 클로드는 명시율이 가장 높았음에도 참여도는 가장 낮은 수준이었다. 이는 명시적 표기 자체가 검토 강도를 높이기보다는, 특정 도구가 갖는 평판과 커뮤니티 문화가 더 중요한 역할을 한다는 것을 보여준다.

커서를 사용한 기여는 댓글의 54.1%가 질문을 포함해 가장 높은 질문 비율을 기록했다. 코파일럿은 30.3%, 클로드는 21.5%였다. 일반 AI 용어와 탭나인은 각각 16.1%, 12.5%로 가장 낮았다. 모든 도구에서 감정 점수는 중립에 가까웠다.

2024년 초 0%에서 2025년 말 40%로… 급속도로 확산되는 투명성 규범

시간 흐름에 따른 변화는 더욱 극적이었다. 2023년과 2024년 초반 명시적 표기율은 거의 0%에 가까웠다. 하지만 2024년 후반부터 증가하기 시작해 2025년 9월에는 58.9%까지 치솟았고, 이후 40% 수준에서 안정화됐다. 통계 분석 결과 시간이 지날수록 명시적 표기가 강하게 증가하는 추세가 확인됐다.

AI 도구 언급 자체는 조사 기간 내내 높은 수준을 유지해, 사용률이 아니라 표기 방식이 변화한 것임을 알 수 있다. 이는 오픈소스 커뮤니티가 AI 도구 사용을 빠르게 정상화하고, 투명성에 대한 새로운 규범을 만들어가고 있음을 보여준다. 도구별로 진화 양상은 달랐다. 코파일럿은 2024년 초 0%에서 2025년 말 7.4%로 가장 가파른 상승세를 보였다. 클로드는 처음부터 60~77% 수준을 유지하며 안정적이었다. 챗GPT는 큰 변화가 없었다.

저장소 연령도 영향을 미쳤다. 2023년 이전에 만들어진 기존 저장소는 0%에서 20.2%로 증가했지만, 2023~2025년에 새로 만들어진 저장소는 0%에서 40.4%로 두 배 이상 가파르게 상승했다. 새로운 프로젝트일수록 투명성 규범을 더 빠르게 받아들인다는 의미다. 커뮤니티 반응 지표는 대체로 안정적이었다. 이모지 반응만 시간에 따라 유의미하게 증가했고, 코멘트 수, 질문 비율, 감정은 통계적으로 유의미한 변화를 보이지 않았다. 이는 명시적 표기가 증가하는 동안에도 커뮤니티 반응은 일관되게 건설적이었음을 의미한다.

전략적 투명성의 시대가 온다

이 연구가 던지는 가장 중요한 메시지는 AI 표기가 단순한 정보 공개가 아니라 전략적 커뮤니케이션이라는 점이다. 개발자들은 투명성과 효율성, 신뢰와 평판 사이에서 균형을 찾아야 한다. 하지만 연구 결과는 이러한 우려가 기우일 수 있음을 시사한다. 솔직한 표기가 약간의 추가 질문을 유발하기는 하지만, 이는 비난이 아닌 호기심에서 비롯된 것이며, 오히려 전문성을 보여줄 기회가 될 수 있다.

플랫폼 설계자들에게는 투명성을 강제하기보다 자발적으로 쉽게 표기할 수 있는 메커니즘을 제공하라는 교훈을 준다. 표기 템플릿, 표준화된 태그, 부드러운 안내 등이 효과적일 수 있다. 반면 무차별적인 의무 공개 규정은 개발자들에게 과도한 질문 부담을 줄 수 있어 신중해야 한다.

프로젝트 관리자들은 명시적 표기를 유익한 규범으로 장려하되, 중요도가 낮은 기여에서는 암묵적 표기도 인정하는 유연성이 필요하다. 부정적 감정이 관찰되지 않았다는 점은 투명성 규범을 확립하기에 좋은 환경임을 보여준다. 커뮤니티 가이드라인이 이를 정상화하고, 관리자들이 투명한 관행을 모범으로 보이면 문화가 자리 잡을 수 있다.

정책 입안자들에게는 단순한 투명성 의무화가 해답이 아님을 알려준다. 전략적 모호성이 여전히 존재한다는 것은 공개가 정책만으로 완전히 규제될 수 없음을 의미한다. 대신 자발적 공개를 촉진하고, 규범 형성 과정을 지원하며, 커뮤니티가 맥락에 맞는 표기 관행을 조정할 수 있도록 해야 한다.

무엇보다 이 연구는 AI 시대의 저작권과 신용 배분 문제를 본격적으로 제기한다. AI가 코드의 상당 부분을 생성하는 상황에서 개발자는 저자인가, 편집자인가, 큐레이터인가. 이 질문은 소프트웨어 개발을 넘어 AI가 지식 노동에 깊숙이 관여하는 모든 분야에 적용된다. 오픈소스 커뮤니티가 이미 이러한 긴장을 건설적으로 풀어가고 있다는 이번 연구 결과는, AI와 인간의 협업이 신뢰와 품질을 해치지 않으면서도 가능하다는 희망을 보여준다.

FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)

Q1. AI 코딩 도구를 사용했다는 걸 커밋 메시지에 꼭 밝혀야 하나요?

A. 법적 의무는 없지만, 이번 연구에 따르면 명시적으로 밝혀도 부정적 반응은 거의 없었습니다. 오히려 약간의 추가 질문을 받을 뿐이며, 이는 비난이 아닌 호기심에서 비롯됩니다. 투명성은 장기적으로 신뢰를 쌓는 데 도움이 되며, 프로젝트의 중요도와 커뮤니티 문화에 따라 표기 수준을 조절할 수 있습니다.

Q2. 왜 클로드 사용자는 80%가 명시하는데 코파일럿 사용자는 9%만 명시하나요?

A. 각 도구가 형성한 커뮤니티 문화의 차이 때문입니다. 클로드를 만든 앤트로픽은 투명성과 협력을 강조해 사용자들도 이를 따르는 경향이 있습니다. 반면 코파일럿은 IDE에 통합되어 자연스러운 개발 도구처럼 느껴져, 개발자들이 외부 지원이 아닌 워크플로의 일부로 인식합니다. 도구 선택이 표기 방식을 예측하는 가장 강력한 요인입니다.

Q3. AI 표기 문화가 앞으로 어떻게 변할까요?

A. 연구에 따르면 명시적 표기율은 2024년 초 거의 0%에서 2025년 말 40%로 급증했습니다. 이는 오픈소스 커뮤니티가 투명성을 새로운 규범으로 빠르게 받아들이고 있음을 보여줍니다. 특히 새로운 프로젝트일수록 투명성을 더 적극적으로 채택하고 있어, 앞으로도 이 추세는 지속될 것으로 보입니다. 다만 도구별 문화 차이는 당분간 유지될 가능성이 높습니다.

해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.

논문명: The AI Attribution Paradox: Transparency as Social Strategy in Open-Source Software Development

이미지 출처: 이디오그램 생성

해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.




AI가 코드 짰다고 솔직히 말하면 손해볼까?… 깃허브 1만 4천 건 분석 결과는 ‘의외’ – AI 매터스