• Home
  • AI Report
  • 연구자들의 AI 인식 조사… “잠재력 기대하지만 위험성 우려도 커”

연구자들의 AI 인식 조사… “잠재력 기대하지만 위험성 우려도 커”

Image
이미지 출처: 미드저니 생성

Insights: Researcher attitudes toward AI

이미지 출처: 구글 Imazen3 생성

엘스비어(Elsevier)가 최근 발표한 ‘통찰 2024: AI에 대한 태도’ 보고서에 따르면, 전 세계 연구자들은 인공지능(AI)의 잠재력을 높이 평가하면서도 동시에 그 위험성에 대해 상당한 우려를 표명하고 있는 것으로 나타났다. 이 보고서는 123개국 2,284명의 연구자들을 대상으로 한 광범위한 설문조사 결과를 담고 있어, 글로벌 연구 커뮤니티의 AI에 대한 인식을 종합적으로 보여주고 있다.

AI에 대한 인식과 사용 현황: “97%가 AI 인지, 59%가 사용 경험”

보고서에 따르면 연구자들의 AI 인지도는 매우 높은 것으로 나타났다. 응답자의 97%가 AI에 대해 알고 있다고 답했으며, 이 중 59%는 이미 AI를 사용해본 경험이 있다고 밝혔다. 특히 주목할 만한 점은 37%의 연구자들이 업무 목적으로 AI를 활용하고 있다는 것이다. 이는 AI가 연구 분야에서 이미 상당한 수준으로 활용되고 있음을 시사한다.

AI 도구 중에서는 챗GPT(ChatGPT)가 압도적인 인지도를 보였다. 94%의 연구자들이 챗GPT를 알고 있다고 응답했으며, 31%는 이를 업무에 활용한 경험이 있다고 답했다. 그 뒤를 이어 빙 챗(Bing Chat, 44%), 바드(Bard, 42%), 제미니(Gemini, 26%), MS 코파일럿(MS Copilot, 24%) 순으로 인지도가 높았다. 그러나 챗GPT를 제외한 다른 도구들의 실제 사용률은 아직 낮은 수준인 것으로 나타났다.

지역별로는 중국과 미국의 연구자들이 가장 높은 AI 인지도(99%)를 보였다. 반면 북미 지역 연구자들의 경우 AI 사용률이 가장 낮아 42%가 아직 AI를 사용해보지 않았다고 응답했다. AI를 사용하지 않는 이유로는 ‘시간 부족’이 가장 많이 꼽혔으며(52%), 이는 모든 지역에서 공통적으로 나타났다.

AI의 잠재력과 기대효과: “지식 발견 가속화, 연구 생산성 향상 기대”

연구자들은 AI가 학술 연구에 미칠 긍정적 영향에 대해 높은 기대를 보였다. 94%의 연구자들이 AI가 지식 발견을 가속화할 것이라고 예상했으며, 92%는 AI가 학술 및 의료 연구의 양을 빠르게 증가시킬 것으로 기대했다. 또한 74%는 AI가 연구 협력을 증진시킬 것이라고 응답했다.

교육 분야에서의 변화도 예상됐다. 97%의 연구자들이 AI가 대학과 의과대학에서 학생들의 학습 방식을 변화시킬 것으로 전망했다. 이는 AI가 미래 세대의 연구자 양성에도 큰 영향을 미칠 것임을 시사한다.

업무 측면에서도 AI의 긍정적 영향이 기대됐다. 91%의 연구자들이 AI가 업무 효율성을 향상시킬 것이라고 답했으며, 86%는 업무의 질 개선을, 81%는 업무의 일관성 향상을 예상했다. 또한 85%의 연구자들은 AI가 더 높은 가치의 업무에 시간을 할애할 수 있게 해줄 것이라고 응답했다.

출판 분야에서도 AI의 영향이 클 것으로 예상됐다. 92%의 연구자들이 AI가 논문 저술과 리뷰 등 출판 과정과 연구 영향력 모니터링에 도움이 될 것이라고 답했다. 특히 78%는 자신의 논문에 대한 동료 평가 추천이 생성형 AI를 활용했다면 이를 통보받기를 원한다고 밝혔다.

AI의 위험성과 우려사항: “오정보 확산, 비판적 사고 능력 약화 우려”

그러나 연구자들은 AI의 잠재적 위험성에 대해서도 깊이 인식하고 있었다. 가장 큰 우려는 AI가 잘못된 정보를 퍼뜨리는 데 사용될 수 있다는 것이었다. 95%의 연구자들이 이 가능성에 대해 우려를 표명했다. 또한 86%는 AI가 심각한 오류나 사고를 일으킬 수 있다고 보았으며, 이 우려는 북미 지역에서 가장 높았다(94%).

AI의 ‘환각’ 문제도 주요 우려사항으로 꼽혔다. 전체 연구자의 25%, 북미 연구자의 37%가 AI 출력이 사실과 다르거나 무의미할 수 있다는 점을 AI의 주요 단점으로 꼽았다. 또한 21%는 AI가 오래된 데이터에 지나치게 의존할 수 있다는 점을 우려했다.

AI가 인간의 능력에 미칠 부정적 영향에 대한 우려도 컸다. 81%의 연구자들이 AI가 인간의 비판적 사고 능력을 약화시킬 수 있다고 보았으며, 80%는 AI로 인한 대규모 실업 등 사회적 혼란 가능성을 우려했다. 반면 39%의 연구자들은 AI가 인간의 창의성, 판단력, 공감 능력을 대체할 수 없다는 점을 AI의 한계로 지적했다.

AI 규제와 책임 문제도 주요 우려사항으로 나타났다. 39%의 연구자들이 AI에 대한 규제와 거버넌스 부재를 주요 단점으로 꼽았으며, 이 비율은 남미에서 50%로 가장 높았다. 또한 32%는 생성형 AI 출력물 사용에 대한 책임 소재가 불분명하다는 점을 우려했다.

AI에 대한 신뢰 구축 방안: “정확성, 투명성, 규제 강화 필요”

연구자들은 AI 도구에 대한 신뢰를 높이기 위해 여러 요소들이 필요하다고 밝혔다. 57%의 연구자들은 AI 모델이 사실에 근거하고, 윤리적이며, 해롭지 않도록 훈련되어야 한다고 답했다. 이는 AI의 안전성(Safety)이 신뢰 구축의 핵심 요소임을 보여준다.

투명성 역시 중요한 요소로 꼽혔다. 56%의 연구자들은 AI가 참고문헌을 자동으로 인용하는 기능이 필요하다고 보았으며, 29%는 AI 솔루션의 작동 원리에 대한 설명이 필요하다고 답했다.

신뢰성 측면에서는 56%의 연구자들이 고품질의 동료 검토된 콘텐츠만을 AI 훈련에 사용해야 한다고 응답했다. 52%는 AI 모델이 일관성 있는 출력을 생성하도록 훈련되어야 한다고 보았다. 또한 37%는 AI 모델이 최신 정보를 사용하는 것이 중요하다고 답했다.

거버넌스와 책임성도 주요 신뢰 요소로 꼽혔다. 52%의 연구자들은 AI 개발 및 구현에 관한 법률 준수가 신뢰도를 크게 높일 것이라고 답했다. 37%는 AI 모델 훈련에 사용되는 데이터와 정보에 대한 강력한 거버넌스가 필요하다고 보았으며, 36%는 인간의 감독을 통한 책임성 확보가 중요하다고 응답했다.

개인정보 보호도 중요한 이슈로 부각됐다. 55%의 연구자들이 AI에 입력된 정보의 기밀성 유지가 신뢰도를 크게 높일 것이라고 답했으며, 35%는 입력 데이터의 프라이버시를, 25%는 출력 데이터의 프라이버시를 주요 신뢰 요소로 꼽았다.

“AI의 잠재력 인정, 신중한 접근과 규제 필요”

이번 보고서는 AI 기술이 연구 분야에 빠르게 도입되고 있지만, 그 과정에서 정확성, 신뢰성, 윤리성 등 여러 과제들이 해결되어야 함을 명확히 보여주고 있다. 연구자들은 AI의 잠재력을 인정하면서도, 그 사용에 있어 신중한 접근과 적절한 규제의 필요성을 강조하고 있다.

보고서는 AI 기술 제공업체와 연구 기관들에 대한 권고사항도 제시했다. AI 기술 제공업체들은 정확성과 신뢰성 향상, 투명성 증대, 안전성과 보안 강화에 주력해야 한다고 조언했다. 연구 기관들에게는 명확한 AI 정책 수립과 소통, 거버넼스와 전문성 구축, 교육과 역량 강화, 접근성 보장 등을 권고했다.

이 보고서는 AI 시대를 맞아 연구 커뮤니티가 직면한 기회와 도전을 종합적으로 보여주고 있다. AI의 잠재력을 최대한 활용하면서도 그 위험성을 최소화하기 위해서는 연구자, 기관, 기술 제공업체, 정책 입안자 등 모든 이해관계자들의 협력이 필요할 것으로 보인다.

엘스비어의 리포트 전문은 링크에서 확인할 수 있다.


본 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




연구자들의 AI 인식 조사… “잠재력 기대하지만 위험성 우려도 커” – AI 매터스