Search

  • Home
  • Cache-to-Cache: Direct Semantic Communication Between Large Language Models

Cache-to-Cache: Direct Semantic Communication Between Large Language Models

AI 모델끼리 '생각'을 직접 주고받는다… 텍스트 없이 소통하는 신기술 등장

AI 모델끼리 ‘생각’을 직접 주고받는다… 텍스트 없이 소통하는…

11월 5, 2025

인공지능 언어모델들이 서로 협력할 때 텍스트 메시지 대신 ‘생각’을 직접 교환하는 새로운 방법이 개발됐다. 중국 칭화대학교와 인피니전스 AI…

Cache-to-Cache: Direct Semantic Communication Between Large Language Models – AI 매터스