구글 딥마인드(Google DeepMind)가 14일(현지 시간) 제미나이(Gemini) 모델을 활용한 코딩 에이전트 ‘알파이볼브(AlphaEvolve)’를 공개했다. 이 AI 에이전트는 대규모 언어 모델의 창의력과 자동화된 평가 시스템을 결합해 복잡한 알고리즘을 개발한다. 구글 딥마인드는 “알파이볼브는 범용 알고리즘 발견 및 최적화를 위한 대규모 언어 모델 기반 진화형 코딩 에이전트”라고 소개했다. 이 시스템은 제미나이 모델의 문제 해결 능력과 자동화된 평가 도구를 결합하고, 진화 프레임워크를 통해 유망한 아이디어를 지속적으로 개선한다.
알파이볼브는 구글의 데이터 센터 효율성 향상, 칩 설계 최적화, AI 학습 프로세스 개선 등에 활용되었으며, 알파이볼브 자체의 기반이 되는 대규모 언어 모델 학습에도 사용됐다. 또한 행렬 곱셈 알고리즘을 개선하고 미해결 수학 문제에 새로운 해결책을 찾는 등 다양한 분야에서 놀라운 가능성을 보여주고 있다. 알파이볼브는 최첨단 대규모 언어 모델인 ‘제미나이 플래시(Gemini Flash)’와 ‘제미나이 프로(Gemini Pro)’를 활용한다. 제미나이 플래시는 아이디어의 범위를 최대화하고, 제미나이 프로는 통찰력 있는 제안으로 깊이를 제공한다. 이 모델들은 함께 알고리즘 솔루션을 코드로 구현하는 컴퓨터 프로그램을 제안한다.
구글 데이터 센터에서는 알파이볼브가 발견한 휴리스틱이 ‘보그(Borg)’ 시스템의 효율성을 높여 전 세계 컴퓨팅 리소스의 0.7%를 지속적으로 회수하게 했다. 이는 동일한 컴퓨팅 규모로 더 많은 작업을 완료할 수 있게 한다. 하드웨어 설계에서는 알파이볼브가 행렬 곱셈을 위한 산술 회로에서 불필요한 비트를 제거하는 베릴로그(Verilog) 코드를 제안했다. 이 제안은 구글의 AI 가속기인 텐서 프로세싱 유닛(TPU)의 다음 버전에 통합됐다.
AI 학습 분야에서는 알파이볼브가 행렬 곱셈 연산을 최적화하여 제미나이 아키텍처의 핵심 커널을 23% 가속화했고, 이는 제미나이 학습 시간을 1% 단축했다. 또한 트랜스포머(Transformer) 기반 AI 모델의 플래시어텐션(FlashAttention) 커널 구현에서 최대 32.5%의 속도 향상을 달성했다. 수학적 발견 측면에서는 알파이볼브가 4×4 복소수 행렬을 48번의 스칼라 곱셈으로 계산하는 알고리즘을 찾아 1969년 슈트라센(Strassen)의 알고리즘을 개선했다. 또한 50개 이상의 미해결 수학 문제에 적용했을 때 약 75%의 경우에서 최첨단 솔루션을 재발견했고, 20%의 경우에서는 이전에 알려진 최상의 솔루션을 개선했다.
구글은 알파이볼브와 상호 작용하기 위한 사용자 친화적인 인터페이스를 구축하고 있으며, 학계 사용자를 위한 얼리 액세스 프로그램을 계획 중이다. 현재 알파이볼브는 수학과 컴퓨팅에 적용되고 있지만, 앞으로 재료 과학, 약물 발견, 지속 가능성 등 더 넓은 영역에서도 혁신을 가져올 것으로 기대된다.
해당 기사의 원문은 링크에서 확인할 수 있다.
이미지 출처: 구글
기사는 클로드와 챗gpt를 활용해 작성되었습니다.