The State of Generative AI Use in Canada 2025:
Exploring Public Attitudes and Adoption Trends
캐나다인 66% 생성형 AI 사용, 하지만 정기적 사용은 31%에 불과
캐나다인 대다수(66%)가 ChatGPT, Copilot, Gemini, Claude와 같은 생성형 인공지능(Generative AI) 도구를 적어도 한 번 이상 사용해본 것으로 나타났다. 토론토 메트로폴리탄 대학교(Toronto Metropolitan University) 소셜미디어랩에서 발표한 이 연구 결과는 2025년 2월 19일부터 3월 1일까지 1,500명의 캐나다 성인을 대상으로 실시한 설문조사에 기반하고 있다. 생성형 AI의 도입이 빠르게 진행되고 있지만, 정기적인 사용 패턴은 아직 제한적이다. 응답자의 31%만이 여가 활동에서 매일 또는 매주 생성형 AI를 사용하고, 28%는 직장에서, 24%는 학습 목적으로 정기적으로 사용한다고 답했다. 이러한 수치는 많은 사람들이 생성형 AI를 시험해 봤지만, 다양한 활동 영역에서 지속적인 도입은 아직 보편화되지 않았음을 시사한다.
특히 주목할 만한 점은 여가 활동이 생성형 AI 도입의 주요 진입점이라는 것이다. 여가 활동은 탐색에 더 유연한 환경을 제공하는 반면, 직장과 학업 환경은 법적, 개인정보, 정확성, 윤리적 제약이 있어 더 광범위한 도입을 제한할 수 있다.

초기 이용자 절반(49%)은 업무·여가·학습 영역 모두에서 AI 활용, 젊은층과 고령층 사용 패턴 뚜렷한 차이
생성형 AI 초기 도입자들(응답자의 66%)의 사용 패턴을 살펴보면, 49%가 여가, 업무, 학습 등 세 가지 영역 모두에서 생성형 AI를 활용하는 것으로 나타났다. 반면, 오직 20%만이 여가용으로만, 5%는 업무용으로만, 2%는 학습용으로만 사용한다고 응답했다. 이는 대부분의 사용자가 AI를 단일 목적으로 제한하지 않고, 다양한 생활 영역에 통합하는 다기능적 도구로 활용하고 있음을 보여준다.
세대별 차이도 뚜렷하게 나타났다. 18-24세 그룹에서는 학습 관련 사용이 가장 높았고, 25-34세 그룹에서는 업무 관련 사용이 정점을 이루었다. 나이가 많을수록 업무나 학습 관련 사용은 점차 감소하는 추세를 보였다. 이는 생성형 AI가 등장하기 전에 전문적 업무 루틴을 확립한 고령층이 이러한 도구를 작업이나 학습 활동에 통합하기를 꺼릴 수 있음을 시사한다. 흥미롭게도 여가를 위한 생성형 AI 사용은 세대를 막론하고 광범위하게 이루어지고 있다. 25세 이상 사용자의 90% 이상이 여가 목적으로 이 기술을 활용하고 있어, 생성형 AI가 소셜 미디어와 스트리밍 서비스처럼 주류 소비자 기술이 되어가고 있음을 알 수 있다.

채팅봇(47%) 선호도 압도적, 퀴즈 평균 점수 2.5/7로 AI 역량 이해도 낮아
캐나다인들은 이미지(28%), 오디오(26%), 비디오 생성(25%) 도구보다 채팅봇(47%)을 사용할 가능성이 훨씬 더 높다. 이러한 선호도는 ChatGPT와 같은 텍스트 기반 AI 도구의 광범위한 가용성과 일상 활동에 대한 인지된 유용성에 기인할 수 있다. 오디오비주얼 AI 도구의 느린 채택은 낮은 출력 품질, 구독 비용, 효과적인 사용에 필요한 기술적 전문성 등의 요인 때문일 수 있다.
설문 대상자들은 생성형 AI 도구를 질문 답변(56%), 철자 및 문법 편집(55%)에 가장 많이 사용할 것으로 응답했다. 이는 부분적으로 마이크로소프트 워드의 “Draft with Copilot”이나 구글 검색의 “AI Overview”와 같은 다양한 소프트웨어와 서비스에 생성형 AI 기능이 통합되어 있기 때문일 수 있다. 반면, 일반 대중이 생성형 AI 도구를 사용할 가능성이 가장 낮은 작업은 프로그래밍(31%)과 데이터 분석(39%)으로 나타났다.
캐나다인 대부분은 생성형 AI의 출현에 대체로 준비가 되어 있지 않다. 생성형 AI를 둘러싼 이슈와 과제를 인식하고 있다는 응답은 약 절반(52%)이지만, 더 깊은 이해를 보여주는 비율은 더 낮았다. 응답자의 38%만이 기술을 효과적으로 사용하는 방법을 알고 발전 상황을 최신 상태로 유지한다고 답했으며, 36%만이 규칙과 윤리적 고려 사항에 익숙하다고 응답했다.
객관적인 평가를 위해 7개 문항의 퀴즈를 실시한 결과, 응답자들은 평균적으로 약 2.5개 문항만 맞혔으며, 이는 생성형 AI에 대한 지식 수준이 상대적으로 낮음을 나타낸다. 또한 캐나다인의 약 절반(51%)은 생성형 AI 기업이 개인 데이터를 어떻게 수집하거나 저장하는지에 대한 이해가 제한적이라고 보고했다.
캐나다인 57%가 뉴스 미디어의 AI 활용 인식, 정치 콘텐츠(52%)에 가장 불편함 느껴
대다수의 캐나다인들은 뉴스 미디어 매체가 운영 작업, 특히 편집, 철자 및 문법(57%), 번역(56%), 데이터 분석(51%)에 생성형 AI를 자주 사용한다고 생각한다. 또한 응답자의 43%는 뉴스 기관이 기사 작성에 생성형 AI를 사용한다고 믿는다. 생성형 AI가 특정 뉴스 주제의 콘텐츠를 생성하는 것에 대한 캐나다인들의 편안함 수준은 주제에 따라 크게 달라진다. 스포츠(35% 불편, 34% 편안), 패션 및 뷰티(32% 불편, 34% 편안), 예술 및 문화(35% 불편, 33% 편안), 연예인 및 엔터테인먼트(33% 불편, 32% 편안)와 같은 라이프스타일 및 엔터테인먼트 관련 카테고리에서는 불편함과 편안함 사이에 균형이 가장 가까웠다.
그러나 더 심각한 뉴스 주제에 대해서는 AI 생성 콘텐츠에 대한 불편함이 훨씬 더 높았다. 정치(52% 불편, 23% 편안), 범죄(50% 불편, 24% 편안), 국제 뉴스(50% 불편, 26% 편안)와 같은 주제에 AI를 사용하는 것에 대해 대다수가 불편함을 표했다. 이는 중요한 이슈를 보도할 때 인간의 감독에 대한 강한 선호도를 나타낸다.
선거 영향력 우려(67%), 우파 성향 이용자(34%)가 좌파(23%)보다 AI 채팅봇 더 신뢰
캐나다인 대다수는 생성형 AI가 선거와 온라인 정치 콘텐츠에 미치는 영향에 우려를 표했다. 응답자의 67%는 생성형 AI가 향후 선거에 미칠 잠재적 영향에 대해 걱정하고 있으며, 64%는 지난 선거 이후 온라인 정치 콘텐츠에 대해 더 회의적이 되었다고 답했다. 또한 59%는 조작 가능성 때문에 온라인에서 볼 수 있는 정치 뉴스를 더 이상 신뢰하지 않는다고 밝혔다.
정치 정보를 위해 채팅봇을 사용할 가능성에 대해 캐나다인의 절반 이상이 그럴 가능성이 낮다고 응답했으며, 39%는 ‘매우 그럴 가능성이 낮다’, 15%는 ‘다소 그럴 가능성이 낮다’고 답했다. 그러나 주목할 만한 26%의 응답자는 정치 정보를 위해 채팅봇을 사용할 가능성이 ‘다소 높다’ 또는 ‘매우 높다’고 표시했다.
정치적 성향에 따른 차이도 발견되었다. 정치적 스펙트럼의 왼쪽(좌파)에 있는 개인(n=414)은 AI 채팅봇에 의존할 가능성이 가장 낮았고(23%), 중도로 확인되는 사람들(n=654)도 비슷한 회의론(22%)을 보였다. 그러나 오른쪽(우파)에 있는 개인들(n=432)은 34%가 AI 채팅봇에 의존할 가능성이 있다고 보고하여 왼쪽보다 11% 더 높았다.
데이터 보안(72%) 최대 우려, 대학(41%)·의료기관(40%) 신뢰도 높고 AI 기업(23%) 신뢰도 최저
캐나다인들은 생성형 AI의 사회적 영향에 대해 다소 긍정적인 전망을 가지고 있다. 응답자의 39%(32% ‘긍정적’, 6% ‘매우 긍정적’)가 생성형 AI가 사회에 긍정적인 영향을 미칠 것이라고 생각하는 반면, 34%(25% ‘부정적’, 9% ‘매우 부정적’)는 부정적인 영향을 예상했다. 27%는 중립적인 영향을 예상했다.
생성형 AI를 적어도 한 번 이상 사용해본 사람들은 일반적으로 그 영향에 대해 더 긍정적인 견해를 가지고 있었다. 사용자의 42%가 ‘긍정적 영향’을, 9%는 ‘매우 긍정적 영향’을 표시했다. 반면, 대부분의 비사용자는 영향을 부정적으로 보았으며, 39%는 ‘부정적 영향’을, 20%는 ‘매우 부정적 영향’을 보고했다.
생성형 AI의 사회적 영향에 대한 견해와 무관하게, 캐나다인들은 잠재적 위험에 대해 상당한 우려를 표명했다. 가장 큰 우려 사항으로는 보안 및 개인정보(72%),, 정보의 신뢰성(68%), 일자리 대체(68%), 대학 교육에 미치는 영향(68%)이 포함됐다. 기타 주목할 만한 우려 사항으로는 비판적 사고 능력 저하(63%), 사회적 상호작용 감소(60%), 생성형 AI에 대한 과도한 의존(51%) 등이 있다.
캐나다인 대부분은 생성형 AI 도구가 수집하는 데이터에 대한 통제력이 거의 없다고 느끼고 있다. 구체적으로, 37%는 ‘매우 적은 통제력’을 가지고 있다고 생각하는 반면, 22%는 ‘통제력이 전혀 없다’고 느낀다. 반대로, 단지 14%만이 상당한 통제력(11%는 ‘많은 통제력’, 3%는 ‘완전한 통제력’)을 가지고 있다고 느낀다.
주목할 만한 점은 캐나다인의 상당 부분(43%)이 개인 정보가 생성형 AI 모델을 훈련시키는 데 사용된다고 믿는 경우 디지털 기기, 웹사이트 또는 앱 사용을 중단했거나 중단할 것이라고 말했다는 것이다. 이 정서는 생성형 AI 사용자와 비사용자 모두에게 일반적으로 공유되고 있다.
캐나다인들은 다양한 조직이 생성형 AI를 사용하는 방식에 대해 다양한 수준의 신뢰를 표현한다. 대학 및 연구자(41%), 의료 제공자(40%), 비영리 단체(32%)가 가장 신뢰받는 반면, 생성형 AI 회사(23%), 민관 파트너십(23%), 영리 기업(21%)에 대한 신뢰는 가장 낮았다.
캐나다인들은 특히 기업 책임성과 위해 방지와 관련하여 생성형 AI 규제를 강력히 지지한다. 응답자의 78%는 AI 기업이 자사 기술로 인한 위해에 대해 책임을 져야 한다고 생각한다. 마찬가지로, 77%는 현재 AI 능력을 다루는 규제 조치를 지지하며, 76%는 이러한 기술의 잠재적 위험을 관리하는 것을 강조한다. 뿐만 아니라, 76%의 응답자는 미래 생성형 AI 발전에 대한 사전 예방적 규제를 선호한다.
FAQ
Q. 생성형 AI란 무엇이며 어떻게 일상생활에 활용할 수 있나요?
A: 생성형 AI는 ChatGPT, Copilot, Gemini와 같이 텍스트, 이미지, 오디오, 비디오 등의 새로운 콘텐츠를 생성할 수 있는 인공지능 기술입니다. 일상생활에서는 질문에 대한 답변 얻기, 문서 작성 및 편집, 창의적 아이디어 브레인스토밍, 언어 번역, 학습 보조 등 다양한 용도로 활용할 수 있습니다. 캐나다인들은 특히 여가 활동(31%)에 가장 많이 활용하고 있으며, 업무(28%)와 학습(24%)에도 정기적으로 사용하고 있습니다.
Q. 생성형 AI 사용시 개인정보 보호를 위해 어떤 점을 주의해야 하나요?
A: 설문조사 결과 캐나다인의 51%가 생성형 AI 기업이 개인 데이터를 어떻게 수집하고 저장하는지 이해하지 못하고 있으며, 59%는 데이터 통제력이 거의 없거나 전혀 없다고 느낍니다. 개인정보 보호를 위해서는 신뢰할 수 있는 AI 서비스 선택, 민감한 개인정보 입력 자제, 서비스의 개인정보 정책 검토, 가능한 경우 데이터 삭제 옵션 활용, 정기적인 비밀번호 변경 등의 조치가 필요합니다. 또한 43%의 응답자가 개인정보가 AI 학습에 사용된다고 생각할 경우 해당 서비스 사용을 중단할 의향이 있다고 밝혔습니다.
Q. 생성형 AI가 제공하는 정보의 신뢰성은 어떻게 평가할 수 있나요?
A: 생성형 AI가 제공하는 정보의 신뢰성은 캐나다인의 68%가 우려하는 주요 이슈입니다. 신뢰성을 평가하기 위해서는 여러 신뢰할 수 있는 출처와 AI 생성 콘텐츠 비교, 특정 이슈에 대해 다양한 관점을 제공하는 출처 참조, 결과물의 일관성 확인, 중요한 결정이나 전문적인 조언이 필요한 경우 전문가 확인, 그리고 AI가 가진 편향성과 한계 인식 등의 방법을 활용할 수 있습니다. 특히 정치(52%), 범죄(50%), 국제 뉴스(50%)와 같은 중요한 주제에서는 AI 생성 콘텐츠에 대한 불편함이 더 크게 나타나므로 더욱 신중한 검증이 필요합니다.
해당 기사에서 인용한 리포트 원문은 링크에서 확인할 수 있다.
이미지 출처: Toronto Metropolitan University
기사는 클로드와 챗GPT를 활용해 작성되었습니다.