Search

부모는 모른다, AI와 연애하고 고민 상담하고… 10대들의 충격적인 AI 활용 실태

Exploring Parent-Child Perceptions on Safety in Generative AI: Concerns, Mitigation Strategies, and Design Implications
이미지출처: 미드저니

Exploring Parent-Child Perceptions on Safety in Generative AI: Concerns, Mitigation Strategies, and Design Implications

생성형 AI, 청소년들의 일상이 되다

영국 통신규제기관 오프콤(Ofcom)의 최근 조사에 따르면, 13-17세 청소년의 79%, 7-12세 아동의 40%가 이미 생성형 AI를 사용하고 있는 것으로 나타났다. 이런 가운데 일리노이대학교 연구진이 레딧 게시물 712개와 댓글 8,533개를 분석하고, 청소년 7명과 부모 13명을 대상으로 심층 인터뷰를 진행했다. 분석 대상이 된 181개의 관련 게시물에서 청소년들은 부모들의 예상을 훨씬 뛰어넘는 수준으로 생성형 AI를 활용하고 있었다.

특히 캐릭터 AI(Character.ai)와 같은 플랫폼을 통해 정서적 지지를 얻거나 가상 연애를 하는 등 부모가 전혀 예상하지 못한 방식의 이용이 확인됐다. 청소년들은 “일반 친구들과 달리 AI와 더 깊이 있는 대화가 가능하다”며, “판단 없이 자신의 취약점을 공유할 수 있는 공간”으로 AI를 활용하고 있었다.

부모와 자녀 간 상이한 위험 인식

부모들은 대부분 생성형 AI를 단순한 검색엔진 정도로 인식하고 있었으며, 자동으로 사실 확인과 검증을 수행한다고 잘못 이해하고 있었다. 이들의 주된 우려는 개인정보 수집, 잘못된 정보 노출, 부적절한 콘텐츠 접근 등에 한정됐다.

반면 청소년들은 AI 챗봇과의 가상관계 중독, 소셜 그룹 내 유해 콘텐츠 확산, 개인정보의 무단 활용 등을 더 심각한 위험으로 지적했다. 일부 청소년들은 챗봇을 고의로 괴롭히거나, NSFW 콘텐츠를 요청하고, 심지어 인종차별적 발언을 하는 챗봇을 만들어 공유하는 등의 위험 행동도 보였다.

10대의 정신건강과 AI 의존도

연구진은 10대들의 생성형 AI 사용이 정신건강과 밀접하게 연관되어 있다고 밝혔다. 일부 청소년들은 AI를 “무료 치료사”로 여기며 과도하게 의존하는 모습을 보였다. 특히 우려되는 점은 AI와의 가상 관계가 실제 사회적 관계 형성을 방해할 수 있다는 것이다. 한 참가자의 사례에서는 학업, 운동, 일상생활에 지장을 줄 정도로 AI에 몰입하는 현상도 발견됐다. 심지어 일부 학교에서는 “AI 데이팅 클럽” 온라인 서버가 운영되고 있는 것으로 나타났다.

새로운 형태의 통제 어려움

기존 소셜미디어와 달리 실시간으로 콘텐츠를 생성하는 AI의 특성상, 부모들은 사전 필터링에 어려움을 겪고 있다. 특히 팔레스타인 분쟁이나 가자지구 사태와 같은 민감한 시사 문제에 대해 연령에 적절한 수준의 정보를 어떻게 제공할지가 새로운 과제로 대두됐다.

연구에 참여한 13-17세 청소년들은 대부분 ChatGPT, DALL-E, Midjourney 등 다양한 AI 도구를 3개월에서 1년 정도 사용한 경험이 있었다. 이는 청소년들이 이미 AI 기술을 일상적으로 활용하고 있음을 보여준다.

현행 보호 체계의 한계

주요 생성형 AI 플랫폼들의 청소년 보호 장치는 매우 제한적인 것으로 나타났다. 챗GPT(ChatGPT)나 메타 AI(Meta AI) 등은 13세 이상 사용 제한과 유해 콘텐츠 차단이라는 기본적인 보호 장치만 제공하고 있다.

부모들은 iOS 패밀리 컨트롤, 구글 패밀리 링크와 같은 일반적인 시스템 제어 도구나, 라우터 수준의 제어, 계정 공유, 대화 내역 확인 등의 방법을 사용하고 있지만, 실시간 모니터링과 교육에는 한계가 있었다. 특히 웹브라우저를 통한 새로운 AI 플랫폼 접근을 제어하기 어렵다는 점이 큰 과제로 지적됐다.

개선 방안과 제언

연구진은 연령별 맞춤형 콘텐츠 관리 시스템과 부모-AI 협력 시스템 도입을 제안했다. 제품 페이지에 아동 위험 및 보호 관련 정보를 명확히 공개하고, 연령대별 발달 단계를 고려한 맞춤형 보호 기능을 구현해야 한다고 강조했다. 또한 부모-자녀 간 의사소통을 돕는 도구 개발과 실시간 위험 모니터링 및 교육 시스템 구축의 필요성도 제기했다.

다만 연구진은 Character.ai와 같은 새로운 플랫폼의 데이터가 초기 수집 단계에서 제외됐다는 점과, ChatGPT를 중심 예시로 사용한 것이 참가자들의 응답에 영향을 미쳤을 수 있다는 연구의 한계도 인정했다.

기사에 인용된 논문의 원문은 링크에서 확인할 수 있다.

기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다. 




부모는 모른다, AI와 연애하고 고민 상담하고… 10대들의 충격적인 AI 활용 실태 – AI 매터스 l AI Matters