• Home
  • AI Report
  • 유럽인들의 생성형 AI에 대한 신뢰도, 낙관적이지만 여전히 개선 필요

유럽인들의 생성형 AI에 대한 신뢰도, 낙관적이지만 여전히 개선 필요

Europeans are optimistic about generative AI but there is more to do to close the trust gap
이미지 출처: 미드저니 생성

Europeans are optimistic about generative AI but there is more to do to close the trust gap

유럽인들의 생성형 AI 사용 현황과 인식

딜로이트(Deloitte)가 유럽 11개국의 3만 명 이상의 소비자와 직장인을 대상으로 실시한 조사에 따르면, 생성형 AI에 대한 인식과 사용 행태가 다양하게 나타났다. 응답자의 34%는 여전히 생성형 AI 도구에 대해 잘 모르거나 확신이 없다고 답했다. 반면 생성형 AI를 알고 있는 사람들 중 47%는 개인적인 용도로, 23%는 업무용으로 이를 사용해본 경험이 있다고 응답했다.

생성형 AI 사용자들의 약 3분의 1은 개인용(30%)과 업무용(33%)으로 최소 주 1회 이상 이 도구를 활용하고 있다. 개인 용도로는 주로 일반 검색과 정보 수집(47%), 아이디어 생성(40%)에 사용되고 있다. 업무 목적으로는 아이디어 생성(40%), 텍스트 요약 및 일반 검색(각 38%), 콘텐츠 생성 또는 편집(37%) 등에 활용되고 있다. 특히 개인용(27%)과 업무용(30%) 모두에서 번역 기능이 인기를 끌고 있어, 생성형 AI가 글로벌 커뮤니케이션과 정보 처리에서 중요한 역할을 하고 있음을 보여준다.

생성형 AI에 대한 낙관적 전망과 우려사항 공존

조사 결과, 생성형 AI 사용자들 사이에서 낙관적인 전망이 지배적이었다. 응답자의 71%는 생성형 AI가 기업의 제품과 서비스 개선에 도움이 될 것이라고 믿었으며, 66%는 일상적인 업무를 자동화하여 직원들의 업무 경험을 개선할 것이라고 예상했다. 또한 59%는 생성형 AI가 사회 전반에 이익을 줄 것이라고 생각했다.

직장에서는 79%의 생성형 AI 사용 직원들이 향후 2년 내에 자신의 업무가 더 쉬워질 것으로 예상했고, 73%는 업무가 더 즐거워질 것으로 기대했다. 74%는 생성형 AI 활용 능력을 향상시키고 싶어 했으며, 69%는 생성형 AI가 제공할 수 있는 새로운 직업 기회에 대해 기대감을 보였다.

그러나 동시에 책임 있는 사용에 대한 우려도 존재했다. 응답자의 50%만이 정부가 생성형 AI를 효과적으로 규제할 수 있다고 믿었고, 51%만이 기업들이 이를 책임감 있게 사용할 것이라고 신뢰했다. 특히 딥페이크(65%), 허위정보 확산(63%), 개인정보 오용(62%) 등에 대한 우려가 높았다.

조직의 생성형 AI 사용에 대한 신뢰 격차

조사 결과, 응답자들은 자신이 직접 생성형 AI를 사용할 때보다 조직이 이를 사용하는 경우에 대해 더 낮은 신뢰를 보였다. 예를 들어, 미디어 분야에서 70%의 유럽 사용자들은 생성형 AI가 뉴스 기사를 요약하는 데 신뢰할 만하다고 답했지만, 기자들이 뉴스 기사를 쓰는 데 사용하는 것에 대해서는 50%만이 신뢰한다고 응답했다.

공공 부문에서도 64%가 세금 환급이나 수당 청구와 같은 개인화된 지원을 제공하는 데 생성형 AI를 신뢰한다고 답한 반면, 정부 부서가 사회 복지 프로그램 자격을 결정하는 데 사용하는 것에 대해서는 50%만이 신뢰한다고 답했다.

이러한 신뢰 격차는 복잡하고 중요한 결정일수록 더 두드러지게 나타났다. 반면 보험이나 은행과 같은 거래적 사용 사례에서는 격차가 덜 두드러졌다. 예를 들어, 58%가 생성형 AI의 보험 추천을 신뢰한다고 답한 반면, 54%가 보험 회사가 보험료 책정에 이를 사용하는 것을 신뢰한다고 응답했다.

기업의 대응 전략

딜로이트는 기업들이 생성형 AI에 대한 신뢰를 구축하고 책임 있는 도입을 장려하기 위한 여러 전략을 제시했다. 우선 기업은 가드레일을 구축하고 적절한 도구를 제공해야 한다. 이는 승인되지 않은 도구 사용의 위험성에 대해 직원들을 교육하고, 정확하고 신뢰할 수 있는 자체 생성형 AI 솔루션을 개발하는 것을 포함한다.

또한 적절한 교육을 보장하는 것이 중요하다. 생성형 AI의 업무 흐름 통합과 윤리적, 책임 있는 사용에 대한 강력한 학습 및 개발 프로그램이 필요하다. 조직의 투명성 강화도 핵심 전략 중 하나다. 기업은 직원들에게 생성형 AI가 그들의 역할에 미치는 영향에 대해 투명하게 소통해야 한다.

데이터 프라이버시를 우선시하는 것도 중요하다. 소비자 데이터를 윤리적으로 처리하고 편견을 방지하며 양측에 이익이 되는 방식으로 사용해야 한다. 마지막으로, 인간의 개입을 유지하는 것이 필수적이다. 생성형 AI 주도 프로세스에 인간의 감독을 유지하는 것이 신뢰 구축의 중요한 요소로 작용한다. 이러한 전략들을 통해 기업은 생성형 AI에 대한 신뢰를 높이고 책임 있는 도입을 촉진할 수 있을 것이다.

딜로이트의 이번 조사는 유럽의 소비자와 직원들이 생성형 AI에 대해 복잡한 관계를 가지고 있음을 보여준다. 생성형 AI의 잠재력에 대한 낙관론과 함께 책임 있는 구현, 데이터 프라이버시, 허위정보 확산에 대한 우려가 공존하고 있다. 기업들은 이러한 신뢰 격차를 해소하기 위해 투명성을 우선시하고, 직원들에게 적절한 도구와 교육을 제공하며, 데이터 프라이버시 문제를 직접적으로 해결해야 할 것이다.

기사에 인용된 리포트 원문은 링크에서 확인할 수 있다.

기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




유럽인들의 생성형 AI에 대한 신뢰도, 낙관적이지만 여전히 개선 필요 – AI 매터스