Use of generative AI in statistical organizations: CES survey results
최근 인공지능(AI) 기술이 급속도로 발전하면서 통계 분야에서도 생성형 AI의 잠재력에 대한 관심이 높아지고 있다. 유럽 통계학자 회의(Conference of European Statisticians, CES)는 통계 기관들의 생성형 AI 사용 현황과 관련 과제를 파악하기 위해 설문 조사를 실시했다. 이번 조사는 공식 통계 현대화를 위한 고위급 그룹(High-Level Group for the Modernisation of Official Statistics, HLG-MOS)의 생성형 AI 프로젝트 팀이 주관했다.
2024년 6월 초에 CES 회원들을 대상으로 설문 조사가 진행되었으며, 총 41개 기관(36개 국가 기관, 5개 국제 기관)이 응답했다. 이 기사에서는 설문 조사 결과를 바탕으로 통계 기관들의 생성형 AI 활용 현황, 조직 정책, 그리고 주요 과제에 대해 살펴보고자 한다.
생성형 AI의 영향력과 활용 현황
통계 기관들은 향후 2-3년 내에 생성형 AI가 여러 업무 영역에 중간에서 높은 수준의 영향을 미칠 것으로 예상하고 있다. 특히 코딩 및 IT 개발 분야에서 가장 큰 영향력을 발휘할 것으로 전망되며, 그 다음으로 데이터 배포 및 커뮤니케이션 분야가 꼽혔다. 데이터 수집 및 처리, 데이터 분석, 기타 행정 업무 등의 영역에서는 상대적으로 낮은 영향력이 예상된다.
현재 41개 응답 기관 중 17개 기관이 업무에 생성형 AI 사용을 명시적으로 허용하고 있으며, 상당수의 기관이 아직 명확한 결정을 내리지 않은 상태에서 AI를 활용하고 있는 것으로 나타났다. 실제로 AI를 전혀 사용하지 않는다고 응답한 기관은 단 2곳에 불과했다.
AI 활용 분야와 기대 효과
통계 기관들의 AI 활용 분야를 살펴보면, 코드 및 IT 개발이 29개 기관으로 가장 많았고, 데이터 처리를 위한 텍스트 생성(19개 기관)과 커뮤니케이션 자료 작성(19개 기관), 분석(16개 기관) 순으로 나타났다. 이 외에도 행정 업무, 데이터 배포 및 정보 검색 등 다양한 영역에서 AI가 활용되고 있다.
기관들은 AI 도입을 통해 효율성과 생산성 향상, 서비스 전달 개선, 창의성 증진 등의 효과를 기대하고 있다. 반면 정확성과 정밀도 측면에서의 영향에 대해서는 다소 신중한 입장을 보이고 있다.
자체 AI 솔루션 개발 동향
응답 기관의 약 3분의 2(27개 기관)가 자체 AI 솔루션을 개발 중이거나 계획 중이라고 답했다. 이는 많은 기관들이 AI 기술 도입에 적극적인 자세를 취하고 있음을 보여준다. 자체 솔루션을 개발 중인 기관들은 그렇지 않은 기관들에 비해 AI의 영향력을 더 크게 평가하는 경향을 보였다.
주요 개발 프로젝트로는 사용자와의 소통 개선과 정보 검색 자동화를 위한 챗봇(9개 기관), 텍스트 처리, 데이터 대체, 합성 데이터 생성 등 데이터 품질과 분석 능력 향상을 위한 도구(7개 기관), 레거시 스크립트 변환, 장문 생성, 표준 매핑 등의 실험적 프로젝트(5개 기관), 개인화된 콘텐츠 제공 및 지능형 통계 검색(4개 기관) 등이 있다.
생성형 AI 관련 조직 정책 현황
대부분의 기관들은 아직 생성형 AI 사용에 대한 명확한 정책이나 가이드라인을 갖추지 못한 것으로 나타났다. 일부 기관(7개)에서는 정책을 개발 중이라고 응답했다.
이미 정책을 수립한 기관들의 경우, 주로 데이터 보안, 투명성, 윤리적 사용에 중점을 두고 있다. 구체적으로는 개인 데이터와 관련된 위험 최소화, AI 운영의 투명성 보장, 문서화와 모니터링을 통한 책임성 강화 등이 강조되고 있다. 일부 기관에서는 국가 차원의 포괄적인 프레임워크와 윤리 헌장이 AI 사용을 안내하는 역할을 하고 있다.
생성형 AI 활용의 주요 과제와 대응 방안
통계 기관들이 생성형 AI 활용과 관련해 가장 우려하는 사항은 기밀성/보안(평균 점수 3.61/4점)과 AI 출력의 정확성(3.54/4점)인 것으로 나타났다. 이어서 오용(3.20/4점)과 윤리적 문제(3.12/4점)에 대한 우려도 높았다. 이는 AI 애플리케이션에 적절한 감독과 윤리적 기준 준수의 중요성을 반영한다고 볼 수 있다.
기관들은 이러한 위험을 줄이기 위해 다양한 조치를 취하고 있다. 가장 일반적인 방안으로는 내부 정책 및 가이드라인 수립(9개 기관), 직원 교육 프로그램 실시, 위험 관리 가이드라인 개발 등이 있다. 데이터 보호를 위해 자체 호스팅 솔루션 구축, AI 상호작용에 대한 상세 로깅, 정기적인 회고를 통한 규정 준수 및 보안 모니터링 등의 조치도 이루어지고 있다.
또한, 외부 제공업체에 대한 의존도를 줄이고 통제력을 유지하기 위해 오픈소스 소프트웨어를 활용하는 방안도 언급되었다. 국제기구와의 협력과 글로벌 표준 및 가이드라인 준수를 통해 AI 실행을 모범 사례와 새로운 규제 프레임워크에 맞추려는 노력도 진행 중이다.
조직적 제약과 기술적 과제
생성형 AI 활용에 있어 조직적 제약 요인으로는 엄격한 정책과 조직 내 조정 부족이 가장 큰 것으로 나타났으며, 국가 규제에 대한 불확실성이 그 뒤를 이었다. 그러나 이러한 조직적 문제들은 기술적 문제들에 비해 상대적으로 덜 제약적인 것으로 평가되었다.
기술적 측면에서는 적절한 기술을 갖춘 인력의 가용성이 가장 큰 제약 요인으로 지목되었다. 이는 생성형 AI를 효과적으로 활용하기 위한 교육과 숙련된 인력 확보의 필요성을 시사한다. 보안 문제 역시 여전히 중요한 과제로 남아있어, 많은 기관들이 데이터와 AI 시스템을 보호하기 위한 강력한 보안 조치 구현에 주력하고 있다. 비용 문제와 컴퓨터 하드웨어 접근성도 중간 수준의 제약 요인으로 작용하고 있다.
이러한 과제들을 극복하기 위해 기관들은 다양한 노력을 기울이고 있다. 직원 교육 프로그램 실시와 AI 전문가 채용을 통한 역량 강화, 대학, 디지털 전환 사무소, 연구 위원회 등과의 협력을 통한 AI 모델 개발 및 역량 개선 등이 대표적이다. 보안 면에서는 프롬프트 엔지니어링과 가드레일 등 강력한 보안 시스템 구축, 데이터 저장 및 사용을 통제할 수 있는 자체 솔루션 개발 등이 이루어지고 있다.
국제 협력에 대한 제언
설문에 응답한 기관들은 생성형 AI 도입을 위한 국제 협력 방안으로 역량 구축, 표준 및 가이드라인 개발, 지식과 사용 사례 및 모범 사례 공유 등을 제안했다. 특히 공식 통계 분야에서 재사용 가능한 솔루션(예: 소프트웨어, 컴포넌트, 코드 등) 개발이 국제 협력의 중요한 영역으로 지목되었다. 이러한 제안들은 생성형 AI 기술의 전 세계적 도입을 지원하기 위한 잠재적인 국제 이니셔티브와 협력 노력의 로드맵을 제시한다고 볼 수 있다.
생성형 AI, 통계 산업 바꾼다.
이번 CES 설문 조사 결과는 통계 기관들의 생성형 AI 활용 현황과 관련 과제들을 종합적으로 보여주고 있다. 보안, 기술 인력 확보, 비용, 인프라 등 주요 우려 사항들이 확인되었으며, 기관들은 이를 해결하기 위해 교육, 정책 개발, 자체 솔루션 구축 등 다양한 노력을 기울이고 있다.
특히 정확성, 보안, 기술 인력 가용성이 가장 중요한 문제로 지목되었으며, 이에 대응하여 교육 프로그램 구현, 보안 시스템 강화, 거버넌스 정책 수립 등의 조치가 이루어지고 있다. 많은 기관들이 비용과 보안 문제를 해결하기 위해 자체 AI 솔루션 개발을 선택하고 있는 점도 주목할 만하다.
정책 및 가이드라인 개발의 중요성도 강조되었다. 명확한 정책 수립은 기관들이 AI 구현의 복잡성을 효과적으로 관리하고, 윤리적 기준을 유지하며, 규제 요구사항을 충족하는 데 도움을 줄 수 있다.
국제 협력에 대한 제안들은 식별된 필요사항들과 밀접하게 연관되어 있다. 교육, 자금 지원, 지식 공유 등에 대한 강조는 새로운 기술 도입 시 기관들이 직면하는 핵심 과제들을 해결하기 위한 것으로 볼 수 있다.
이번 조사 결과는 통계 분야에서 생성형 AI의 도입과 활용이 아직 초기 단계에 있음을 보여준다. 많은 기관들이 AI의 잠재력을 인식하고 있지만, 동시에 기술적, 윤리적, 법적 측면에서 다양한 과제에 직면해 있다. 이러한 상황에서 기관들 간의 경험 공유와 국제적 협력의 중요성이 더욱 부각되고 있다.
통계 기관들이 생성형 AI를 더욱 효과적으로 활용하기 위해서는 여러 가지 중요한 노력이 필요할 것으로 보인다. 우선, AI 리터러시(literacy) 향상이 필수적이다. 모든 직원들이 AI의 기본 원리와 잠재적 영향을 이해할 수 있도록 교육 프로그램을 강화해야 한다. 이를 통해 조직 전체가 AI 기술의 가능성과 한계를 정확히 인식하고, 적절히 활용할 수 있는 기반을 마련할 수 있을 것이다.
다음으로, 윤리적 가이드라인 수립이 중요하다. AI 사용에 대한 명확한 윤리적 기준을 설정하고, 이를 조직 문화에 내재화할 필요가 있다. 이는 AI 기술 활용 과정에서 발생할 수 있는 윤리적 딜레마를 사전에 방지하고, 책임 있는 AI 사용을 보장하는 데 도움이 될 것이다.
데이터 거버넌스 강화도 필수적이다. AI 모델 학습에 사용되는 데이터의 품질, 대표성, 편향성 등을 지속적으로 모니터링하고 관리해야 한다. 이를 통해 AI 모델의 정확성과 공정성을 높이고, 신뢰할 수 있는 결과를 도출할 수 있을 것이다.
또한, 협력 네트워크 구축이 필요하다. 국내외 통계 기관, 학계, 기업 등과의 협력을 통해 지식과 자원을 공유하고, 공동의 문제에 대처할 수 있는 체계를 마련해야 한다. 이러한 협력은 AI 기술의 발전 속도에 발맞춰 나가는 데 도움이 될 것이며, 다양한 관점과 경험을 통해 더 나은 솔루션을 개발할 수 있을 것이다.
마지막으로, 유연한 규제 프레임워크가 필요하다. AI 기술의 빠른 발전 속도를 고려하여, 혁신을 저해하지 않으면서도 필요한 안전장치를 제공할 수 있는 균형 잡힌 규제 접근이 필요하다. 이를 통해 AI 기술의 혜택을 최대화하면서도 잠재적 위험을 최소화할 수 있을 것이다.
이러한 다각도의 노력을 통해 통계 기관들은 생성형 AI를 더욱 효과적이고 책임감 있게 활용할 수 있을 것이며, 이는 결과적으로 통계 업무의 질적 향상과 효율성 증대로 이어질 것이다.생성형 AI는 통계 분야에 혁명적인 변화를 가져올 잠재력을 가지고 있다. 데이터 수집, 처리, 분석, 시각화 등 통계 업무의 전 과정에서 AI의 활용이 확대될 것으로 예상된다. 예를 들어, 자연어 처리 기술을 활용한 설문 응답 분석, 머신러닝 알고리즘을 통한 데이터 품질 개선, AI 기반 예측 모델을 통한 정책 시뮬레이션 등 다양한 적용 사례가 늘어날 것이다.
그러나 이러한 변화는 동시에 새로운 도전과제를 제시한다. AI 모델의 ‘블랙박스’ 특성으로 인한 결과 해석의 어려움, 알고리즘 편향성 문제, 개인정보 보호와 데이터 윤리 등의 이슈가 더욱 중요해질 것이다. 따라서 통계 기관들은 AI 기술의 혜택을 최대화하면서도 이러한 위험을 최소화할 수 있는 균형 잡힌 접근법을 개발해야 할 것이다.
또한, AI 도입에 따른 조직 문화와 업무 프로세스의 변화도 고려해야 한다. 통계 전문가들의 역할이 데이터 수집과 분석에서 AI 모델 설계와 결과 해석으로 변화할 수 있으며, 이에 따른 재교육과 역량 개발이 필요할 것이다.
결론적으로, 이번 CES 설문 조사 결과는 통계 분야에서 생성형 AI의 도입이 아직 초기 단계에 있지만, 그 잠재력과 중요성에 대한 인식이 높아지고 있음을 보여준다. 앞으로 통계 기관들이 AI 기술을 어떻게 수용하고 활용하는지가 미래 통계 생태계의 모습을 결정짓는 중요한 요소가 될 것이다. 기술적 혁신과 윤리적 고려사항 사이의 균형을 유지하면서, 보다 정확하고 효율적인 통계 생산을 위해 AI를 활용하는 것이 앞으로의 과제가 될 것이다.
UNECE의 보고서는 링크에서 확인할 수 있다.
본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기