챗GPT가 대학 교육 현장에 깊숙이 들어온 지금, 학생들은 실제로 이 도구를 어떻게 활용하고 있을까. 영국 유니버시티 칼리지 런던(UCL) 연구진이 컴퓨터공학과 학부생 6명을 심층 인터뷰한 결과, 학생들은 생각보다 훨씬 전략적이고 윤리적으로 챗GPT를 사용하고 있었다. 동시에 비판적 사고 약화, 저작권 침해, 기술 퇴보 같은 위험도 스스로 인식하고 있었다. 이 연구는 학술 논문 사전 공개 플랫폼 아카이브(arXiv)에 발표됐다.
코딩부터 보고서까지, 소프트웨어 개발 전 단계에 투입
학생들은 소프트웨어 개발 프로젝트의 거의 모든 단계에서 챗GPT를 활용했다. 과제 요건을 처음 파악할 때 배경 지식을 빠르게 습득하는 용도로 시작해, 코드 생성과 오류 수정, 테스트 케이스 작성, 최종 보고서 문장 다듬기까지 폭넓게 사용했다.
특히 눈에 띄는 점은 학생들이 챗GPT를 단순한 답 검색 도구가 아닌 ‘사고 파트너’로 활용하고 있다는 것이다. 한 학생은 “챗GPT의 설명이 새로운 관점을 제시해 문제에 대한 이해를 깊게 해준다”고 했고, 또 다른 학생은 “챗GPT는 두 단계 앞을 내다보는 경향이 있어 내 문제 해결 방식을 넓혀준다”고 말했다. 외국어로 공부하는 학생들은 보고서 문법과 표현을 다듬는 데도 챗GPT를 활용했다.
반면 창의적 판단이 필요한 영역은 스스로 담당했다. 소프트웨어 구조 설계, 복잡한 알고리즘 개발, 학문적 독창성이 요구되는 논문 작성이나 반성적 글쓰기는 챗GPT에 맡기지 않았다. “복잡한 학제 간 문제 해결이나 새로운 과학적 가설 제시 같은 창의적 작업은 유연한 인간식 추론과 직관이 필요하다”는 것이 학생들의 공통된 인식이었다.
기여도 30% 상한선, 학생들이 스스로 정한 규칙
연구에서 가장 흥미로운 발견 중 하나는 학생들이 자발적으로 챗GPT의 기여도를 30% 이하로 제한하고 있다는 점이다. 이는 외부에서 강제된 규칙이 아니라 학생들 스스로 설정한 내적 기준이었다.
학생들은 챗GPT의 결과물을 최종 답이 아닌 초안이나 참고 자료로 취급했다. “결과물을 받은 후 항상 내 프로젝트나 필요에 정말 맞는지 생각한다”, “하나의 문제에는 여러 접근 방식이 있고, AI는 그것을 제안할 뿐이며 선택과 개선은 내 몫이다”라는 발언이 이를 잘 보여준다.
독립적 사고를 유지하기 위한 전략도 있었다. 챗GPT를 먼저 켜는 대신 자신의 코드를 먼저 작성한 뒤 품질 점검 용도로 활용하거나, 팀 토론을 통해 챗GPT의 관점에 갇히지 않으려 했다.
그러나 우려스러운 지점도 확인됐다. 인터뷰 대상자 중 절반에 못 미치는 학생만이 AI가 생성한 코드를 한 줄씩 분석하며 완전히 이해했다. 대부분은 챗GPT의 답이 그럴듯해 보이면 깊이 검토하지 않고 넘어갔다. 오류가 왜 발생했는지 이해하는 과정을 건너뛰고 문제 해결 자체에만 집중하는 경향도 발견됐다. AI 의존이 비판적 사고를 약화시키는 가장 현실적인 위험이 여기에 있다.
학생들이 직접 인식한 세 가지 위험
학생들은 챗GPT 사용의 윤리적 경계에 대해 명확한 인식을 가지고 있었다. AI가 생성한 결과물을 그대로 제출하는 행위는 학문적 부정직이라는 데 모두 동의했고, 챗GPT의 기여를 명확히 밝혀야 한다는 투명성 원칙도 공유했다.
구체적인 위험으로는 세 가지가 반복적으로 언급됐다. 첫째는 개인정보 유출이다. 챗GPT가 이전 대화를 저장하고 동의 없이 개인 정보를 재활용할 수 있다는 우려로, 학생들은 민감한 정보를 챗GPT에 입력하는 것을 피했다. 둘째는 저작권 침해다. AI가 생성한 코드가 기존 오픈소스나 상용 코드와 유사할 수 있다는 점을 인식하고 있었다. 셋째는 기술 퇴보다. “챗GPT가 갑자기 오프라인 상태가 된다면 처음부터 과제를 완수하기 정말 어려울 것”이라는 한 학생의 말은 이 우려를 압축적으로 보여준다.
흥미롭게도 학생들은 AI의 편향성이나 환경적 지속 가능성 문제는 언급하지 않았다. 연구진은 컴퓨터공학 교육이 기술적 역량을 넘어 거시 윤리와 지속 가능성에 대한 교육을 강화해야 한다는 시사점으로 이를 해석했다.
학생들이 학교에 요구하는 것
연구에 참여한 학생들은 교육 기관 차원의 명확한 지침을 강하게 요청했다. “대부분의 교수님들은 AI를 보조 도구로 사용할 수 있다고 하지만 ‘보조’의 정의가 모호하다”는 지적이 대표적이다. 학생들은 어떤 과제에 AI를 쓸 수 있고 어떤 과제는 스스로 해야 하는지를 명확히 구분해달라고 요구했다. AI 기여도를 보고서에 반드시 밝히도록 하는 제도와 함께, 효과적인 프롬프트 작성법과 AI 결과물에 대한 비판적 분석 방법을 가르치는 교육과정도 필요하다고 제안했다.
연구진은 이 발견들을 바탕으로 공학 교육의 방향을 제시했다. 모든 학생에게 생성형 AI에 대한 기초 지식을 제공하고, 프롬프트 설계와 AI 결과물 평가, 개인정보 보호에 관한 실습 교육을 제공해야 한다는 것이다. 또한 AI가 허용되는 과제, 부분적으로 허용되는 과제, 금지되는 과제를 명확히 범주화하고, AI 사용 여부를 공개하도록 하는 투명성 기준도 필요하다고 강조했다. 이 연구는 6명이라는 소규모 인터뷰 기반이라는 한계가 있지만, AI 시대 공학 교육의 방향성을 학생 목소리에서 직접 길어 올렸다는 점에서 의미가 있다.
FAQ( ※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q. 컴퓨터공학과 학생들이 챗GPT를 가장 많이 쓰는 단계는 어디인가요? 과제 요건 파악과 배경 지식 습득, 코드 생성 및 오류 수정, 보고서 문장 다듬기 등 소프트웨어 개발 전 단계에 걸쳐 활용합니다. 다만 소프트웨어 구조 설계나 복잡한 알고리즘 개발처럼 창의적 판단이 필요한 핵심 작업은 스스로 담당하는 경향이 강합니다.
Q. 챗GPT에 지나치게 의존하면 어떤 문제가 생기나요? 가장 큰 위험은 비판적 사고 능력의 약화입니다. AI가 생성한 코드가 그럴듯해 보이면 깊이 검토하지 않고 넘어가게 되고, 오류의 원인을 스스로 분석하는 습관이 사라질 수 있습니다. 학생들 스스로도 “챗GPT가 갑자기 없어진다면 혼자서는 과제를 완수하기 어려울 것”이라는 우려를 표명했습니다.
Q. 대학은 챗GPT 사용에 관해 어떤 지침을 마련해야 하나요? 학생들은 어떤 과제에 AI를 쓸 수 있는지 명확히 구분해달라고 요청합니다. AI 허용, 부분 허용, 금지 과제를 범주화하고, AI 기여도를 보고서에 의무적으로 밝히는 투명성 기준이 필요합니다. 또한 프롬프트 작성법과 AI 결과물 비판적 분석 방법을 가르치는 교육과정도 함께 마련되어야 합니다.
기사에 인용된 리포트 원문은 arXiv에서 확인할 수 있다.
리포트명: Exploring the Use of ChatGPT by Computer Science Students in Software Development: Applications, Ethical Considerations, and Insights for Engineering Education
이미지 출처: 이디오그램 생성
해당 기사는 챗GPT와 클로드를 활용해 작성되었습니다.





![[AI 트렌드] 말 한마디로 내 노래가 생긴다? 제미나이 음악 생성 프롬프트](https://aimatters.co.kr/wp-content/uploads/2026/03/AI-매터스-기사-썸네일-3.jpg)
