This is a Heading Don’t Expect Juniors to Teach Senior Professionals to Use Generative AI: Emerging Technology Risks and Novice AI Risk Mitigation Tactics
최근 하버드 비즈니스 스쿨과 보스턴컨설팅그룹(BCG)의 연구진이 발표한 연구 결과가 기업들의 주목을 받고 있다. 이 연구는 생성형 AI와 같은 신기술을 기업에 도입할 때, 기존의 학습 방식으로는 부족할 수 있다는 점을 시사하고 있어 큰 반향을 일으키고 있다.
전통적 기술 도입 방식의 한계
지금까지 새로운 기술이 도입될 때마다, 기업들은 주로 젊은 세대의 적응력과 학습 능력에 의존해왔다. 주니어 직원들이 새로운 기술을 빠르게 습득하고, 이를 시니어들에게 전수하는 방식이 일반적이었다. 이는 CT 스캐너, IT 헬프데스크 기술, 환자 추적 시스템 등 다양한 기술의 도입 과정에서 효과적으로 작동했다.
하지만 생성형 AI는 이전의 기술들과는 근본적으로 다른 특성을 지니고 있다. BCG의 78명의 주니어 컨설턴트들을 대상으로 한 실험과 인터뷰 결과, 생성형 AI의 경우 기존의 방식이 오히려 역효과를 낳을 수 있다는 점이 밝혀졌다.
주니어의 한계: 깊이 있는 이해의 부재
연구 결과, 주니어 컨설턴트들은 GPT-4와 같은 생성형 AI 기술의 핵심적인 특성들을 제대로 이해하지 못하고 있는 것으로 나타났다. 특히 AI의 정확성, 설명 가능성, 맥락화 능력 등에 대한 이해가 부족했다.
예를 들어, 일부 주니어들은 AI의 정확도를 높이기 위해 “표준화된 질문 방식을 사용하자”거나 “먼저 수동으로 작업한 뒤 AI를 활용하자”는 등의 제안을 했다. 하지만 이는 AI 전문가들이 권장하는 방식과는 거리가 멀다. 전문가들은 “허용 가능한 오류 범위 내에서 적절한 사용 사례를 결정하고, 각 하위 작업에서 AI의 신뢰성을 독립적으로 테스트하는 것”이 중요하다고 강조한다.
또한, 일부 주니어들은 AI의 결과를 설명하는 것이 가능하다고 생각했지만, 실제로 현재의 생성형 AI 모델들은 ‘블랙박스’ 특성을 가지고 있어 그 내부 로직을 완전히 설명하는 것은 불가능하다. 전문가들은 오히려 높은 수준의 설명 가능성이 요구되는 경우에는 AI 사용을 피하는 것이 좋다고 조언한다.
인간 중심 해결책의 한계
주니어들이 제안한 해결책의 또 다른 문제점은 대부분 인간의 업무 방식을 변경하는 데 초점을 맞추고 있다는 것이다. “매니저가 컨설턴트의 프롬프트와 응답을 검토해야 한다”거나 “사용자들에게 결과 검증 방법을 훈련시켜야 한다”는 등의 제안이 대표적이다.
그러나 AI 전문가들은 이러한 접근법만으로는 부족하다고 지적한다. 대신 시스템 설계 자체를 변경하는 것이 더 효과적일 수 있다는 것이다. 예를 들어, 자동 모니터링 시스템을 구축하거나, 소스 링크를 제공하는 모델을 사용하는 등의 방법을 제안한다. 또한, 사용자의 과도한 의존을 방지하기 위해 불확실성을 시각화하는 인터페이스를 구축하는 것도 좋은 방법이 될 수 있다.
프로젝트 수준 개입의 한계
마지막으로, 주니어들은 대부분 프로젝트 수준에서 문제를 해결하려는 경향을 보였다. “매니저와 컨설턴트가 AI를 신뢰할 수 있는 조건에 대해 합의해야 한다”거나 “매니저가 컨설턴트의 작업 과정을 검토해야 한다”는 등의 제안이 이에 해당한다.
하지만 AI 전문가들은 이보다 더 넓은 관점에서의 접근이 필요하다고 주장한다. 시스템 배포자 수준에서는 공동 감사 도구를 제공하거나, 특정 작업에 효과적인 프롬프트 라이브러리를 만드는 등의 방법을 제안한다. 더 나아가 생태계 수준에서는 AI 시스템의 능력과 한계를 명확히 설명하고, 데이터 소스의 신뢰성을 평가하는 등의 노력이 필요하다는 것이다.
새로운 학습 패러다임의 필요성
이번 연구 결과는 생성형 AI와 같은 신기술을 기업에 도입할 때, 단순히 주니어 직원들에게 교육을 맡기는 것만으로는 부족하다는 점을 명확히 보여준다. 대신 다음과 같은 새로운 접근법이 필요하다:
생성형 AI와 같은 혁신적인 기술을 조직에 성공적으로 도입하기 위해서는 다각도의 접근이 필요하다. 먼저, 주니어와 시니어 직원 모두가 AI의 기본 원리와 한계에 대해 깊이 있게 이해해야 한다. 이는 단순히 사용법을 익히는 것을 넘어, AI의 작동 원리와 잠재적 위험에 대한 포괄적인 교육을 포함해야 한다.
동시에, 인간의 업무 방식 변경에만 의존하지 않고 AI 시스템 자체의 설계를 개선하는 데 집중해야 한다. 이러한 시스템 설계 중심의 접근은 보다 안전하고 효과적인 AI 활용을 가능하게 할 것이다.
또한, AI 도입은 개별 프로젝트 단위가 아닌 조직 전체 차원에서 전략적으로 접근해야 한다. 이는 AI 사용에 대한 가이드라인 제정, 윤리적 고려사항 검토, 장기적인 인재 육성 계획 등을 포함하는 포괄적인 전략 수립을 의미한다.
AI 기술이 빠르게 발전하고 있는 만큼, 최신 동향을 지속적으로 파악하고 있는 전문가들의 자문을 정기적으로 받는 것도 중요하다. 이를 통해 조직은 AI 기술의 최신 발전과 그 잠재적 영향을 항상 주시할 수 있다.
마지막으로, 주니어와 시니어 모두가 지속적으로 학습하고 서로의 경험을 공유할 수 있는 학습 문화를 조성하는 것이 필요하다. 이러한 문화는 세대 간 지식 격차를 줄이고 조직 전체의 AI 역량을 높이는 데 크게 기여할 것이다.
이러한 다면적 접근을 통해, 조직은 AI 기술의 이점을 최대한 활용하면서도 그에 따른 위험을 효과적으로 관리할 수 있을 것이다. 이는 단기적으로는 상당한 노력과 투자를 요구하지만, 장기적으로는 조직의 경쟁력 강화와 지속 가능한 성장에 필수적인 요소가 될 것이다.
AI 시대의 새로운 도전
생성형 AI의 등장은 기업들에게 큰 기회이자 도전이 되고 있다. 이번 연구 결과는 우리가 이 새로운 기술을 대하는 방식에 대해 다시 한 번 생각해볼 필요가 있음을 보여준다. 단순히 젊은 세대의 기술 친화성에 의존하는 것이 아니라, 조직 전체가 함께 학습하고 성장해야 하는 시대가 온 것이다.
기업들은 이제 AI에 대한 이해를 깊이 있게 하고, 시스템 설계부터 조직 문화까지 포괄적인 변화를 추구해야 한다. 이는 단기적으로는 많은 노력과 투자를 필요로 하겠지만, 장기적으로 AI를 효과적으로 활용하고 그에 따른 위험을 관리하는 데 큰 도움이 될 것이다.
AI 기술은 계속해서 발전할 것이며, 그에 따라 우리의 학습 방식도 진화해야 한다. 주니어와 시니어가 서로의 강점을 인정하고 보완하며, 함께 성장해 나가는 새로운 패러다임을 만들어가는 것이 앞으로의 과제가 될 것이다.
하버드의 논문은 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기