테크크런치가 7일(현지 시간) 보도한 내용에 따르면, 영국 잉글랜드·웨일스 고등법원(High Court of England and Wales)이 변호사들의 인공지능 오남용을 막기 위한 강력한 조치를 취해야 한다고 밝혔다. 빅토리아 샤프(Victoria Sharp) 판사는 최근 두 건의 사건을 종합한 판결에서 챗GPT(ChatGPT)와 같은 생성형 AI 도구들이 “신뢰할 수 있는 법률 조사를 수행할 수 없다”고 단언했다.
샤프 판사는 “이러한 도구들은 질문에 대해 일관성 있고 그럴듯한 답변을 제공할 수 있지만, 그 일관되고 그럴듯한 답변들이 완전히 잘못된 것으로 판명될 수 있다”고 판시했다. 그는 또한 “이러한 답변들은 단순히 사실이 아닌 내용을 자신 있게 주장할 수 있다”고 덧붙였다. 이는 변호사들이 연구에서 AI를 사용할 수 없다는 의미는 아니지만, 샤프 판사는 변호사들이 “전문적 업무 과정에서 사용하기 전에 권위 있는 출처를 참조하여 그러한 연구의 정확성을 확인해야 할 전문적 의무”가 있다고 강조했다.
샤프 판사는 주요 AI 플랫폼을 대표하는 변호사들을 포함해 AI가 생성한 것으로 보이는 허위 정보를 인용한 변호사들의 사례가 증가하고 있다며, “지침이 준수되고 변호사들이 법원에 대한 의무를 이행하도록 보장하기 위해 더 많은 조치가 필요하다”고 제안했다. 그는 자신의 판결이 바 카운슬(Bar Council)과 로 소사이어티(Law Society) 등 전문 기구에 전달될 것이라고 밝혔다.
문제가 된 사건 중 하나에서는 두 은행을 상대로 손해배상을 청구하는 남성을 대리한 변호사가 45개의 판례를 인용한 서류를 제출했다. 샤프 판사에 따르면, 이 중 18개 사건은 존재하지 않았으며, 많은 다른 사건들도 “인용된 문구를 포함하지 않았고, 인용된 명제를 뒷받침하지 않았으며, 신청 주제와 관련성이 없었다”고 밝혔다.
또 다른 사건에서는 런던 자택에서 퇴거당한 남성을 대리한 변호사가 존재하지 않는 것으로 보이는 5개의 판례를 인용한 법원 서류를 작성했다. 해당 변호사는 AI 사용을 부인했지만, 인용 내용이 “구글(Google)이나 사파리(Safari)”에 나타난 AI 생성 요약본에서 나왔을 수 있다고 말했다. 샤프 판사는 법원이 법정모독 절차를 개시하지 않기로 결정했지만, 이것이 “선례가 아니다”라고 강조했다.
샤프 판사는 “그들의 전문적 의무를 준수하지 않는 변호사들은 중대한 제재를 받을 위험이 있다”고 경고했다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: 이디오그램 생성