이 리포트는 구글 클라우드와 LG AI연구원의 협력을 통해 개발된 생성형 AI 모델 EXAONE 3.0과 엔터프라이즈 AI 에이전트 ChatEXAONE의 기술적 성과 및 이익을 분석합니다. 구글 클라우드는 TPU와 GPU를 제공하여 학습 및 추론 효율성을 극대화하여 EXAONE 3.0의 성능과 경제성을 크게 개선하였으며, 이러한 협력은 AI 모델의 학습 시간 단축과 비용 절감을 가능하게 하였습니다. EXAONE 3.0은 다양한 크기의 모델 라인업을 통해 온디바이스 AI부터 고성능 연구 모델까지 지원하며, 특히 한국어와 영어를 지원하는 이중언어 모델로, 한국어 성능은 세계 최상위를 기록하고 있습니다. ChatEXAONE은 생산성 향상과 전문가 수준의 인사이트 제공으로 기업 내 다양한 업무에 기여하고 있습니다.
구글 클라우드는 LG AI연구원이 그의 생성형 AI 모델 EXAONE의 최신 버전인 ‘EXAONE 3.0’ 및 엔터프라이즈 AI 에이전트 ‘ChatEXAONE’의 개발을 지원하기 위해 AI 최적화 인프라와 솔루션을 제공하였습니다. 구글 클라우드는 EXAONE 모델을 구축하기 위한 TPU(Tensor Processing Unit)와 GPU 그래픽카드 또한 도입함으로써 학습과 추론을 위한 호환성을 높였습니다. 이러한 인프라는 모델의 성능 개선과 학습 프로세스의 효율화를 도모하며, EXAONE 3.0 모델의 차별적 성능과 경제성을 실현하는 데 기여하였습니다.
LG AI연구원은 2021년부터 구글 클라우드와 협력하여 EXAONE 모델의 개발을 시작하였습니다. 초기에는 EXAONE 1.0 모델의 개발 및 학습 과정을 강화하기 위해 TPU를 도입하였고, 이를 통해 학습 시간을 단축하고 모델 학습의 효율성을 높였습니다. 특히, EXAONE 1.0의 개발 이후 LG AI연구원은 AI 모델의 경량화와 비용 효율화에 집중하면서 구글 클라우드의 도움을 받았습니다. EXAONE 3.0 개발 시기에는 GPU를 추가적으로 도입하여 아키텍처의 유연성을 확보하고, 애자일한 AI 모델 학습 인프라를 구성하였습니다. 이 과정에서 LG AI연구원은 EXAONE 3.0 7.8B Instruction Tuned 모델을 오픈소스로 공개하였고, 이 모델은 이전 버전인 EXAONE 2.0 대비 추론 처리 시간을 56%, 메모리 사용량을 35%, 구동 비용을 72% 절감하면서 성능과 경제성을 모두 개선하였습니다. 특히, 이 모델은 한국어와 영어를 지원하는 이중언어 모델로, 한국어 성능이 세계 최고 수준임을 기록하였습니다.
LG AI연구원은 EXAONE 3.0 모델을 구축하기 위해 구글 클라우드의 AI 최적화 인프라 및 솔루션을 활용하였습니다. EXAONE 3.0은 온디바이스 AI에 적합한 초경량 모델부터 범용 목적의 경량 모델, 그리고 깊이 있는 연구를 목적으로 한 고성능 모델까지 다양한 사이즈로 구성된 모델 라인업을 갖추고 있습니다. 특히, EXAONE 3.0 7.8B 모델은 가장 높은 활용도를 가진 경량화 모델로, AI 기술의 접근성과 활용성을 높이는 데 기여하고 있습니다.
EXAONE 3.0 모델은 성능과 경제성에서 두드러진 개선을 보였습니다. 7.8B Instruction Tuned 언어 모델은 EXAONE 2.0 모델 대비 추론 처리 시간을 56%, 메모리 사용량을 35%, 구동 비용을 72% 절감했습니다. 이러한 성과는 LG AI연구원이 구글 클라우드의 TPU와 GPU를 활용하여 효율적인 AI 모델 학습과 추론 환경을 조성한 결과입니다. 또한, EXAONE 3.0은 한국어와 영어를 동시에 학습하고 이해할 수 있는 이중 언어 모델로, 한국어 성능 또한 세계 최고 수준에 달합니다.
ChatEXAONE은 LG AI연구원이 개발한 엔터프라이즈 AI 에이전트로, 기업 구성원의 생산성을 향상하고 전문가 수준의 인사이트를 제공합니다. LG AI연구원은 구글 클라우드의 AI 최적화 인프라 및 솔루션을 기반으로 ChatEXAONE을 구축하였으며, 여러 계열사가 보유한 기업 내 데이터베이스 및 외부 도구와 연결되어 운영됩니다. ChatEXAONE은 조직 내 다양한 업무를 지원하고, 업무 효율성을 높이는 데 기여하고 있습니다.
구글 클라우드는 LG AI연구원이 생성형 AI 모델인 EXAONE 3.0및 ChatEXAONE의 학습 및 운영을 위해 빠르고 원활한 MLOps(머신러닝 운영) 파이프라인을 제공하였습니다. 이 파이프라인은 데이터를 효과적으로 관리하고, 모델 학습 및 배포를 지원하는 역할을 수행합니다. 또한, EXAONE 3.0의 개발 과정에서 구글 클라우드의 GPU를 도입하여 학습과 추론의 호환성을 높이고, 유연한 아키텍처를 통해 AI 모델의 효율적 운영을 가능하게 하였습니다. 이러한 인프라 덕분에 LG AI연구원은 엑사원 3.0의 성공적인 개발을 이룰 수 있었습니다.
구글 클라우드는 LG AI연구원의 생성형 AI 모델 ‘엑사원 3.0’ 및 엔터프라이즈 AI 에이전트 ‘ChatEXAONE’ 개발을 위해 AI 최적화 인프라와 솔루션을 지원하였습니다. LG AI연구원은 2021년에 EXAONE 1.0 모델의 개발과 학습 고도화를 위해 구글 클라우드의 TPU를 도입하였고, 이는 업계에서 탁월한 속도와 확장성을 제공하였습니다. TPU의 도입으로 AI 모델 학습에 소요되는 시간이 단축되었고, 효율적인 모델 학습 프로세스가 구축되었습니다. 이후 EXAONE 3.0 개발 시기에는 GPU를 추가로 도입하여 학습과 추론을 위한 호환성이 향상되었으며, 아키텍처가 유연하게 변환되도록 하여 애자일한 AI 모델 학습 인프라가 조성되었습니다.
LG AI연구원은 EXAONE 개발 초창기부터 AI 모델 경량화 기술 연구개발과 비용 효율화에 집중하였습니다. 구글 클라우드의 AI 최적화 인프라가 이러한 목표를 달성하는 데 큰 역할을 하였습니다. EXAONE 3.0 모델 중 7.8B Instruction Tuned 언어 모델은 이전 모델인 EXAONE 2.0 대비 추론 처리 시간을 56% 줄였고, 메모리 사용량은 35% 감소시켰습니다. 또한 구동 비용은 72% 절감하여 성능과 경제성을 모두 가지고 있습니다. EXAONE 3.0 모델은 한국어와 영어를 이해할 수 있는 이중언어(Bilingual) 모델이며, 한국어 성능 또한 세계 최고 수준을 기록하였습니다.
구글 클라우드와 LG AI연구원은 가까운 시일 내에 구글 클라우드 AI 마켓플레이스에 엑사원 3.0을 제공할 계획입니다. 이는 LG AI연구원의 AI 모델을 구글 클라우드의 다른 고객사들에게 소개하는 기회를 마련할 것입니다. 이러한 협력 방향은 기업 간의 비즈니스 협력을 더욱 확대하는 중요한 요소로 작용할 것으로 기대됩니다. 구글 클라우드는 LG AI연구원이 구축한 최신 생성형 AI 모델인 엑사원 3.0을 마켓플레이스를 통해 널리 보급함으로써, 사용자는 구글 클라우드의 인프라를 활용하여 성능과 경제성에서 두각을 나타낸 AI 모델을 직접 활용할 수 있게 됩니다.
구글 클라우드는 개발자 친화적인 환경을 조성하기 위해 노력하고 있습니다. LG AI연구원은 생성형 AI 모델인 엑사원 3.0의 개발을 통해 API 개발에 대한 필요성을 인식하고 있으며, 이를 통해 개발자들이 손쉽게 AI 모델을 활용할 수 있는 기반을 마련할 계획입니다. 이러한 개발자 친화적인 API는 기업 구성원이 사용할 수 있는 다양한 도구와 외부 데이터베이스와의 연결을 원활하게 지원할 것입니다. 구글 클라우드는 LG AI연구원과의 협력을 통해 AI 모델의 운영 방식 및 인프라 구조를 더욱 최적화하여, 개발자들이 보다 효율적으로 AI 기능을 활용할 수 있도록 할 것입니다. 이러한 노력은 기업 내 데이터 활용도를 높이고, 기업 생산성을 향상시키는 데 중요한 기여를 할 것입니다.
EXAONE 3.0과 ChatEXAONE 개발에서 구글 클라우드와 LG AI연구원의 협력은 AI 기술 발전과 기업 생산성 향상에 중요한 기여를 하였습니다. EXAONE 3.0은 개선된 성능과 경제성으로 기업의 AI 모델 운영 효율성을 높였으며, ChatEXAONE은 기업 구성원의 업무 효율을 극대화하는 데 중점을 두고 있습니다. 이러한 성과는 AI 기술의 상업적 확장 가능성을 높이며, 미래에는 구글 클라우드 AI 마켓플레이스를 통해 다른 기업들도 이 기술을 활용할 수 있는 기회를 제공할 것입니다. 하지만, AI 모델의 지속적 개선과 데이터 보안 등 해결해야 할 한계와 과제가 남아 있으며, 이를 위해 개발자 친화적 API와 MLOps 인프라의 강화가 필요합니다. 이러한 개선 노력을 통해 LG AI연구원과 구글 클라우드는 AI 시장에서의 경쟁력을 지속적으로 강화할 전망입니다.
출처 문서