오픈소스 소프트웨어 커뮤니티에서 악플이 달리기 전에 미리 알아채는 인공지능이 나왔다. 대화 분위기가 험악해지는 순간을 포착해서 90% 이상 정확도로 악플 발생을 예측한다. 미국 미주리 과학기술대학교 연구팀은 깃허브(GitHub) 대화 366개를 분석했다. 깃허브는 전 세계 개발자들이 코드를 공유하고 협업하는 플랫폼이다. 연구진은 악플이 달린 대화 159개와 정상 대화 207개를 샅샅이 뜯어봤다. 그 결과 악플이 나타나기 전에 명확한 징조가 있다는 걸 찾아냈다.
분위기 나빠지면 하루 안에 악플 쏟아진다
해당 연구 논문에 따르면, 분위기가 나빠지는 순간과 실제 악플이 달리는 순간 사이엔 평균 3개 댓글밖에 없었다. 더 놀라운 건 악플의 64%가 분위기가 험악해진 후 하루 안에 터졌다는 점이다. 한번 대화가 삐걱거리기 시작하면 순식간에 악플로 번진다는 얘기다.
분위기가 나빠지는 지점에선 특정 말투가 눈에 띄게 늘었다. ‘당신’이나 ‘너’ 같은 표현이 평소보다 16.8% 많았고, ‘아니다’, ‘안 된다’ 같은 부정어는 14.9% 증가했다. ‘왜’, ‘어떻게’ 같은 질문도 13.2% 늘었다. 특히 ‘왜냐하면’, ‘~이므로’ 같은 논리적 설명이 70% 넘게 나타났다. 논리적으로 말하지만 상대방과 부딪히는 분위기가 악플의 전조증상이라는 뜻이다.
‘짜증’과 ‘조급함’이 악플 예고 신호
분위기가 나빠지는 지점에서 가장 많이 드러난 감정은 ‘심한 짜증’으로 42.82%를 차지했다. 그다음이 ‘조급함’ 22.65%, ‘비꼬기’ 9.94%였다. 재밌는 건 직접적인 욕설이나 모욕은 실제 악플엔 많았지만, 그 전 단계에선 적었다는 점이다. 처음엔 미묘하게 무례하다가 점점 노골적으로 악화되는 셈이다.
대화를 삐걱거리게 만드는 원인도 밝혀졌다. 가장 흔한 이유는 ‘프로그램 오류나 버그 때문에 답답해하는 것’으로 23.27%였다. 예를 들어 “이게 다야. 더 무슨 증거가 필요해?”처럼 기술 문제에 대한 답답함이 터져 나오면서 대화가 틀어졌다. 두 번째는 ‘기술적 의견 차이’ 20.12%, 세 번째는 ‘서로 말이 안 통하는 상황’ 16.98%였다.
AI가 대화 요약해서 악플 예측
연구팀은 이런 패턴을 바탕으로 새로운 예측 시스템을 만들었다. 작동 방식은 간단하다. 먼저 깃허브 대화를 분석해서 기술 내용은 빼고 사람들이 어떻게 대화하는지, 감정이 어떻게 변하는지만 간추린다. 그다음 이 요약본을 보고 대화가 나쁜 쪽으로 갈 확률을 0에서 1 사이 숫자로 매긴다.
큐웬과 라마 AI 두 개로 테스트한 결과, 큐웬은 F1 점수 0.901을, 라마는 0.852를 찍었다. 기존에 쓰던 CRAFT라는 시스템(F1 점수 0.580)보다 훨씬 뛰어났다. F1 점수는 1에 가까울수록 예측이 정확하다는 뜻이다. 특히 큐웬은 정밀도 94.5%, 재현율 86.2%를 기록했다. 정밀도는 ‘AI가 문제라고 한 것 중 실제로 문제인 비율’이고, 재현율은 ‘실제 문제를 AI가 얼마나 잘 찾아내는지’다. 깃허브엔 정상 대화가 압도적으로 많기 때문에 괜히 오판하는 일을 줄이는 게 무척 중요하다.
감정 변화 추적이 예측의 핵심
어떤 요소가 예측에 가장 중요한지 확인하려고 연구팀은 추가 실험을 했다. AI 시스템엔 네 가지 핵심 요소가 들어 있었다. 각자 뭘 원하는지(개인 의도), 어떤 식으로 대화하는지(대화 전략), 감정과 말투가 어떻게 바뀌는지(감정 및 어조), 뭐가 긴장을 유발하는지(긴장 촉발 요인)다.
실험 결과 감정과 어조 분석 기능을 뺐더니 정확도가 7.8%나 떨어졌다. 긴장 촉발 요인을 빼도 6.5% 떨어졌다. 반면 다른 요소들은 영향이 적었다. 대화하면서 감정이 어떻게 바뀌는지 쫓고, 뭐가 갈등을 만드는지 파악하는 게 악플 예측의 핵심이라는 얘기다.
AI가 틀린 경우도 살펴봤다. 정상 대화를 문제로 본 8건에선 주로 긴장을 과장하거나 말투를 잘못 평가했다. 반대로 문제를 못 찾은 22건에선 짜증 같은 미묘한 신호를 놓치거나 비꼬는 말을 이해하지 못했다. 특히 분위기가 나빠진 후 한참 뒤에 악플이 터진 경우는 예측이 어려웠다.
다른 데이터로 검증해도 79.7% 정확도
다양한 상황에서도 잘 작동하는지 확인하려고 연구팀은 다른 연구진이 2020년에 공개한 데이터로도 테스트했다. 이 데이터는 2012년부터 2018년까지의 깃허브 대화였고, 수집 방법과 시기가 완전히 달랐다. 전체 308개 대화 중 악플이 있는 건 65개(21%)로 훨씬 불균형했다. 이런 까다로운 조건에서도 큐웬은 F1 점수 0.797을, 라마는 0.776을 찍었다. 기존 방식보다 좋은 성적이었고, 이 시스템을 여러 커뮤니티와 시기에 걸쳐 폭넓게 쓸 수 있다는 게 입증됐다.
예측 점수 따라 대응법 달리해야
연구진은 예측 점수별로 다르게 대응하는 전략도 내놨다. 악플 가능성이 높게 나오면(0.7 이상) 관리자가 직접 확인하도록 알린다. 중간 정도 나오면(0.3~0.7) 자동 봇이 “서로 예의 지켜주세요” 같은 메시지를 띄운다. 깃허브 태그 기능에 ‘대화 주의’ 같은 표시를 추가하면 관리자가 훨씬 쉽게 대응할 수 있다는 제안도 나왔다.
악플의 64%가 분위기가 나빠진 후 하루 안에 터지는 걸 생각하면, 새로 시작되거나 빠르게 진행되는 대화는 자주 점검하는 게 좋다. 느리게 진행되는 대화는 새 댓글이 달릴 때마다 점검하면 충분하다. AI가 만든 요약본은 관리자가 어디서부터 대화가 틀어졌는지 파악하는 데 도움을 준다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. GitHub 악플 예측 시스템은 어떻게 돌아가나요?
A. 두 단계로 작동합니다. 먼저 인공지능이 대화를 읽고 기술 내용은 빼고 사람들이 어떻게 대화하는지, 감정이 어떻게 바뀌는지만 간추립니다. 그다음 이걸 보고 앞으로 악플이 나올 확률을 0에서 1 사이 숫자로 알려줍니다. 악플이 나타나기 전 댓글만 분석해서 예측합니다.
Q2. 얼마나 정확하게 맞추나요?
A. 가장 성능 좋은 AI 기준으로 F1 점수 0.901을 찍었습니다. 쉽게 말하면 100번 예측하면 90번 정도 맞춘다는 뜻입니다. 다른 연구진 데이터로 검증했을 때도 79.7점을 유지해서 여러 오픈소스 커뮤니티에서 쓸 수 있다는 게 확인됐습니다.
Q3. 오픈소스 프로젝트 관리자는 이걸 어떻게 활용하나요?
A. 예측 점수에 따라 다르게 대응하면 됩니다. 악플 가능성이 아주 높으면(70% 이상) 직접 대화를 확인하고, 중간 정도면(30~70%) 자동으로 “서로 예의 지켜주세요” 같은 안내를 보냅니다. AI가 만든 요약본을 보면 어디서부터 대화가 틀어졌는지 금방 알 수 있습니다.
해당 기사에 인용된 논문 원문은 arvix에서 확인 가능하다.
논문명: Toxicity Ahead: Forecasting Conversational Derailment on GitHub
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.





![[CES 2026] 가격표 붙은 ‘휴머노이드 로봇’ 시대… 집안을 보여줄 준비가 됐습니까?](https://aimatters.co.kr/wp-content/uploads/2026/01/AI-매터스-기사-썸네일-CES2026-robots.jpg)
