• Home
  • AI Report
  • AI와의 협업, 생산성과 신뢰도에 미치는 영향

AI와의 협업, 생산성과 신뢰도에 미치는 영향

Take it, Leave it, or Fix it: Measuring Productivity and Trust in Human-AI Collaboration
이미지 출처: 미드저니 생성

Take it, Leave it, or Fix it: Measuring Productivity and Trust in Human-AI Collaboration

인공지능(AI) 기술이 빠르게 발전하면서 다양한 분야에서 AI와 인간의 협업이 증가하고 있다. 하지만 AI의 활용이 실제로 생산성 향상으로 이어지는지, 사용자들이 AI를 얼마나 신뢰하는지에 대해서는 아직 명확하지 않다. 이에 구글 리서치(Google Research)와 매사추세츠 공과대학(MIT) 연구진은 소프트웨어 엔지니어들을 대상으로 AI 활용이 생산성과 신뢰도에 미치는 영향을 분석하는 실험을 진행했다.

연구진은 76명의 소프트웨어 엔지니어들을 대상으로 프로그래밍 언어 시험을 치르게 하면서, 구글의 대화형 AI ‘바드(Bard)’의 사용 여부에 따른 차이를 관찰했다. 실험 결과, AI 활용이 생산성과 신뢰도에 미치는 영향은 사용자의 전문성, 문제 유형, 측정 방식 등에 따라 다양하게 나타났다.

생산성 측면에서 흥미로운 결과가 관찰되었다. 초보자들은 AI를 활용했을 때 특히 개방형 문제에서 성과가 향상되었다. 반면 전문가들의 경우 AI 활용이 큰 도움이 되지 않았다. 이는 AI가 경험이 부족한 사용자들의 역량을 보완해줄 수 있음을 시사한다.

효율성 측면에서는 예상 밖의 결과가 나타났다. 참가자들은 AI를 사용할 때 오히려 더 많은 시간을 소비했다. 특히 복잡한 문제를 해결할 때 이러한 경향이 두드러졌다. 그러나 흥미롭게도 참가자들의 주관적 인식은 달랐다. 대부분의 참가자들은 AI를 사용할 때 더 효율적이라고 느꼈다.

연구진은 이러한 현상을 ‘자동화 안주(automation complacency)’로 설명했다. 사용자들이 AI에 과도하게 의존하면서 실제로는 더 많은 시간을 소비하게 되는 것이다. 파라수라만(Parasuraman)과 라일리(Riley)의 연구에 따르면, 자동화 안주는 다음 세 가지 조건에서 발생한다: 1) 인간 작업자가 자동화 시스템을 모니터링하고 있다. 2) 모니터링 빈도가 최적 수준보다 낮다. 3) 성과에 직접적인 부정적 영향이 관찰된다. 이번 실험에서는 이 세 가지 조건이 모두 충족되었다.

AI에 대한 신뢰도 측면에서도 흥미로운 패턴이 발견되었다. 참가자들은 시간이 지날수록 AI에 더 의존하는 경향을 보였다. 특히 초보자들에게서 이러한 경향이 두드러졌다. 그러나 이는 객관적인 성과 향상으로 이어지지 않았다. 오히려 일부 경우에는 AI의 조언으로 인해 정답에서 오답으로 바꾸는 경우도 있었다.

전문가들의 경우 AI를 더 자주 불신하는 경향을 보였다. 이는 전문가들이 AI의 한계를 더 잘 인식하고 있기 때문으로 보인다. 그러나 이러한 불신이 항상 긍정적인 결과로 이어지지는 않았다. 전문가들이 AI의 도움을 받아 실수를 수정할 기회를 놓치는 경우도 있었다.

참가자들의 AI에 대한 태도 변화도 관찰되었다. 실험 전에는 대부분의 참가자들이 AI에 대해 중립적인 태도를 보였다. 그러나 실험 후에는 AI에 대한 신뢰도가 유의미하게 감소했다. 연구진은 이를 ‘신뢰도 조정(trust calibration)’으로 해석했다. 사용자들이 AI와의 실제 상호작용을 통해 기존의 막연한 기대를 현실적으로 조정한 것이다.

이번 연구는 AI와의 협업이 항상 생산성 향상으로 이어지지 않음을 보여준다. 오히려 사용자의 전문성, 문제의 유형, AI 시스템의 특성 등 다양한 요인에 따라 그 효과가 달라질 수 있다. 특히 초보자들의 경우 AI의 도움으로 성과가 향상될 수 있지만, 동시에 AI에 과도하게 의존할 위험도 있다.

연구진은 이러한 결과를 바탕으로 AI 시스템 설계에 대한 몇 가지 제안을 했다. 첫째, ‘적절한 신뢰(appropriate trust)’를 유도하는 설계가 필요하다. AI가 스스로의 한계를 명확히 인식하고 이를 사용자에게 전달할 수 있어야 한다. 둘째, AI를 의인화하는 것에 주의해야 한다. AI를 협력자로 인식하는 경향이 과도한 의존으로 이어질 수 있기 때문이다. 셋째, 사용자의 전문성에 따라 맞춤형 상호작용을 제공하는 것이 효과적일 수 있다.

이 연구는 AI와의 협업에 대한 중요한 시사점을 제공한다. AI가 인간의 능력을 보완하고 생산성을 향상시킬 잠재력이 있지만, 동시에 과도한 의존이나 부적절한 신뢰로 인한 위험도 존재한다. 따라서 AI 시스템을 설계할 때는 단순히 기능적 성능뿐만 아니라 사용자와의 상호작용, 신뢰 형성 과정 등을 종합적으로 고려해야 한다.

또한 이 연구는 AI 리터러시(literacy) 교육의 중요성을 시사한다. 사용자들이 AI의 능력과 한계를 정확히 이해하고, 적절하게 활용할 수 있도록 하는 교육이 필요하다. 특히 초보자들을 대상으로 한 교육이 중요할 것으로 보인다.

한편 이번 연구의 한계점도 존재한다. 실험 참가자들이 기술 기업의 소프트웨어 엔지니어들로 한정되어 있어, 결과를 일반화하기 어렵다는 점이다. 또한 1시간 정도의 짧은 실험으로 장기적인 효과를 판단하기 어렵다는 한계도 있다. 연구진은 향후 다양한 직군과 더 긴 기간의 연구가 필요하다고 제안했다.

결론적으로 이 연구는 AI와의 협업이 가져올 수 있는 기회와 위험을 균형 있게 보여준다. AI는 인간의 능력을 보완하고 생산성을 향상시킬 잠재력이 있지만, 동시에 부적절한 사용으로 인한 위험도 존재한다. 따라서 AI 시스템을 개발하고 도입할 때는 기술적 성능뿐만 아니라 사용자와의 상호작용, 신뢰 형성 과정 등을 종합적으로 고려해야 한다. 또한 사용자들이 AI를 적절히 활용할 수 있도록 하는 교육과 가이드라인 제공도 중요할 것이다.

AI 기술이 빠르게 발전하고 있는 현 시점에서, 이러한 연구 결과는 AI와 인간의 협업을 최적화하는 데 중요한 통찰을 제공한다. 앞으로 더 많은 분야에서 AI의 활용이 확대될 것으로 예상되는 만큼, AI와의 효과적인 협업 방식에 대한 연구와 논의가 지속되어야 할 것이다.

구글의 논문은 링크에서 확인할 수 있다.

봇코닷에이아이의 보고서는 링크에서 확인할 수 있다.


본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




AI와의 협업, 생산성과 신뢰도에 미치는 영향 – AI 매터스