챗GPT에게 골치 아픈 직장 갈등 해결을 맡겨봤더니…
당신이 팀장이고, 부하직원이 권한도 없이 다른 팀을 지휘하고 있다면? 많은 직장인들이 챗GPT에게 이런 고민을 털어놓는다. 연구진도 궁금했다. 과연 AI가 현명한 해결책을 제시할까?
실험은 간단했다. 실제 있었던 직장 갈등 사례를 챗GPT에게 제시하고 HR 컨설턴트 역할을 맡겼다. 관리자 ‘앨리슨’은 부하직원 ‘Ms X’가 권한 없이 다국어팀을 감독하는 것이 불만이었다.
챗GPT는 Ms X의 업무 부담을 줄여준다는 명분으로 NGO 회의에서 배제시키는 방식을 제안했다. “업무 최적화를 위해 MLT팀이 이제 NGO 회의를 독립적으로 처리할 수 있으니, 당신은 핵심 전문 분야에 집중하는 것이 좋겠다”는 식이었다. 겉보기엔 배려처럼 보이지만 실제로는 일방적인 통보였다.
결과는? Ms X는 충격을 받고 눈물을 흘리며 회의실을 뛰쳐나갔다. 갈등은 더욱 악화됐다. 그런데 놀라운 사실은 GPT의 조언이 실제 HR 담당자들의 조언과 거의 똑같았다는 점이다. (참고: 실제 사례 기반 인터뷰 기반 내용)
인간의 ‘학습 차단 패턴’까지 완벽 학습한 AI의 치명적 맹점
문제는 챗GPT가 너무 인간적이라는 데 있었다. 인간은 위기 상황에서 무의식적으로 방어 모드에 들어간다. 연구진은 이를 ‘모델 1’이라고 부른다.
- “내가 옳다”고 일방적으로 밀어붙이기
- 상대방 말은 듣지 않고 내 주장만 펼치기
- 겉으로는 합리성을 강조하고 감정을 억제하는 경향
- 이기느냐 지느냐로만 상황 판단하기
더 무서운 건 사람들이 자신이 이렇게 행동한다는 걸 전혀 모른다는 점이다. 마치 자동차 사각지대처럼 보이지 않는 영역이다. 이 패턴의 핵심은 단순히 갈등을 키우는 것이 아니라, 학습을 차단하고 피드백 구조를 왜곡한다는 점이다.
GPT는 인간이 쓴 글로 학습했기 때문에, 이런 학습 차단 패턴까지 그대로 흡수했다. 앨리슨의 경우도 마찬가지였다. 표면적으로는 “업무 효율성”을 말했지만, 실제로는 Ms X의 진짜 고민이나 다국어팀의 실제 역량을 전혀 살펴보지 않았다.
숨겨진 진실을 찾지 못하는 AI: ‘가설적 시나리오’가 보여주는 함정
연구진은 한 가지 가능성으로, NGO들이 다국어팀의 역량 부족을 우려해 Ms X에게 몰래 도움을 요청했을 수 있다고 가정했다. 이는 실제 상황은 아니지만, 중요한 원인이 숨어있을 가능성을 강조하기 위한 설명이었다.
만약 이 가설이 맞다면, 앨리슨이 Ms X를 제재할수록 NGO들은 “이 조직은 도움이 안 된다”고 여기게 되고, 정작 중요한 피드백은 차단되는 악순환이 벌어진다. 하지만 챗GPT의 조언은 이런 근본 원인을 탐구할 방법을 전혀 제시하지 않았다.
이것이 바로 ‘이중고리 학습’ 실패다. 눈에 보이는 문제만 해결하려 들고(단일고리), 문제를 만드는 근본 구조는 건드리지 않는(이중고리 차단) 패턴이다. 챗GPT가 실패한 두 번째 조언에서도 여전히 같은 전제를 바탕으로 “부드러운 방식”만 제안했을 뿐이었다.
당신의 직장에도 숨어있는 AI의 위험한 함정
이 연구가 무서운 이유는 이미 수많은 직장인들이 챗GPT를 ‘몰래’ 사용하고 있기 때문이다. 2023년 조사에 따르면 직장에서 챗GPT를 쓰는 사람 중 70%가 상사에게 알리지 않았다.
문제는 AI가 그럴듯한 조언을 하기 때문에 사람들이 맹신하게 된다는 점이다. “AI가 말하는데…”라며 잘못된 접근법에 더욱 확신을 갖게 된다. 특히 AI가 공식적인 의사결정 시스템에 도입되면, 조직 전체가 학습하지 못하는 구조로 굳어질 위험이 있다.
이런 구조적 위험을 피하려면, AI 도입 시 그 조언의 전제와 의도를 검토할 수 있는 메타인지적 역량이 동반되어야 한다. 연구진은 대안으로 ‘모델 2’ AI 개발을 제안한다. 일방적 주장 대신 진정한 탐구를, 감정 숨기기 대신 솔직한 소통을, 이기기 위한 게임 대신 함께 학습하는 방식을 추구하는 AI다. 하지만 현재 기술로는 구현이 매우 어렵다고 인정했다.
FAQ
Q: 그럼 직장에서 챗GPT 쓰지 말라는 건가요?
A: 정보 검색이나 문서 작성 등 단순 업무에는 여전히 유용합니다. 하지만 갈등 해결이나 중요한 의사결정에는 신중해야 합니다. AI 조언을 받되, 상대방과 직접 대화하며 진짜 문제가 뭔지 함께 탐구하는 과정을 빼먹으면 안 됩니다.
Q: AI가 주는 조언이 잘못됐는지 어떻게 알 수 있나요?
A: AI가 “당신이 옳다”며 일방적 해결책만 제시한다면 의심해보세요. 진짜 좋은 조언은 상대방 입장도 이해하고, 숨겨진 원인을 함께 찾아보자고 제안할 겁니다. “이기는” 방법보다 “함께 배우는” 방법을 알려주는지 확인하세요.
Q: 앞으로 AI는 이런 문제를 해결할 수 있을까요?
A: 연구진은 현재 LLM 구조가 실시간 상호작용에서 깊이 있는 사회적 맥락을 이해하기 어렵다고 봅니다. LLM은 전략적 추론이나 지속적 상태 모델링에 한계가 있어, 복잡한 조직 갈등 해결에는 적합하지 않습니다. 장기적으로는 가능하지만, 단기적으로는 인간이 AI 조언을 맹신하지 않고 메타인지적으로 활용하는 것이 우선입니다.
기사에 인용된 리포트 원문은 arxiv.org 홈페이지에서 확인할 수 있다.
출처: Misaligned from Within: Large Language Models Reproduce Our Double-Loop Learning Blindness
이미지 출처: 이디오그램 생성