미국 테크매체 벤처비트는 카타네모(Katanemo)가 개발한 Arch-Function LLM이 복잡한 기업 워크플로우를 위한 초고속 AI 에이전트 기술을 실현할 것으로 기대를 모으고 있다고 보도했다. 이 기술은 기존 대형 언어 모델(LLM)보다 12배 빠른 속도로 작업을 처리할 수 있어 기업들의 주목을 받고 있다.
카타네모의 설립자이자 CEO인 살만 파라차(Salman Paracha)에 따르면, Arch-Function LLM은 OpenAI의 GPT-4보다 약 12배 빠른 속도를 자랑한다. 더불어 앤트로픽(Anthropic)의 제품들보다 우수한 성능을 보이면서도 상당한 비용 절감 효과를 제공한다.
이 기술은 사용자의 지시와 의도를 이해하고 다양한 디지털 환경에서 작업을 수행할 수 있는 AI 에이전트 애플리케이션 개발에 획기적인 변화를 가져올 것으로 예상된다. 가트너(Gartner)는 2028년까지 기업용 소프트웨어 도구의 33%가 에이전트 AI를 사용하게 될 것이며, 이를 통해 일상적인 업무 결정의 15%가 자동으로 이뤄질 것이라고 전망했다.
Arch-Function LLM은 Qwen 2.5를 기반으로 3B와 7B 파라미터 모델로 구성되어 있다. 이 모델들은 함수 호출을 처리하도록 특별히 설계되었으며, 이를 통해 외부 도구 및 시스템과 상호 작용하여 디지털 작업을 수행하고 최신 정보에 접근할 수 있다.
파라차 CEO는 “Arch-Function은 사용자 프롬프트를 통해 트리거되는 애플리케이션별 작업을 호출하여 LLM 앱을 개인화하는 데 도움을 줍니다. 이를 통해 보험 청구 업데이트부터 프롬프트를 통한 광고 캠페인 제작에 이르기까지 도메인별 사용 사례에 맞춘 빠른 ‘에이전트’ 워크플로우를 구축할 수 있습니다”라고 설명했다.
Arch-Function LLM의 가장 큰 장점은 속도와 비용 절감 효과다. GPT-4와 비교했을 때 Arch-Function-3B는 약 12배의 처리량 향상과 44배의 비용 절감 효과를 보였다. 이러한 성능은 GPT-4o와 Claude 3.5 Sonnet과 비교해도 유사한 결과를 나타냈다.
이러한 고성능, 저비용 모델은 실시간 프로덕션 사용 사례에 이상적이다. 예를 들어, 캠페인 최적화를 위한 인바운드 데이터 처리나 고객에게 이메일을 보내는 등의 작업에 효과적으로 활용될 수 있다.
마켓앤마켓(Markets and Markets)에 따르면, 전 세계 AI 에이전트 시장은 연평균 45%의 성장률을 보이며 2030년까지 470억 달러 규모의 시장으로 성장할 것으로 예상된다.
Arch-Function LLM의 등장으로 기업들은 더욱 빠르고 저렴한 AI 에이전트 기술을 활용할 수 있게 됐다. 이는 기업의 디지털 전환과 업무 효율성 향상에 큰 도움이 될 것으로 전망된다. 앞으로 이 기술이 실제 기업 환경에서 어떻게 활용되고 어떤 성과를 낼지 주목된다.
기사에 인용된 벤처비트의 원문은 링크에서 확인할 수 있다.
관련 콘텐츠 더보기