Your browser does not support JavaScript!

LG의 초거대 AI 모델 '엑사원 3.0': 국내 AI 기술의 진보와 성과

일일 보고서 2024년 08월 24일
goover

목차

  1. 요약
  2. 서론
  3. 엑사원 3.0의 기술적 특징
  4. 오픈소스를 통한 연구 생태계 활성화
  5. 엑사원 3.0의 활용 사례와 성과
  6. 글로벌 경쟁 모델과의 비교
  7. 결론

1. 요약

  • 본 리포트는 LG의 엑사원 3.0 AI 모델의 공개와 그로 인한 영향을 다루고 있습니다. LG의 엑사원 3.0은 성능, 경제성에서 글로벌 경쟁 모델인 메타 라마3.1, 구글 젬마2 등을 능가하며, 한국어와 영어를 아우르는 이중언어 모델로 개발되었습니다. 엑사원 3.0은 추론 처리 시간, 메모리 사용량, 구동 비용 등 주요 성능 지표에서 뛰어난 개선을 이루었습니다. 이는 LG AI연구원의 경량화 및 최적화 연구 덕택입니다. 오픈소스 공개를 통해 연구 생태계 활성화와 국가 AI 경쟁력 강화에 기여하려는 LG의 전략이 엿보이며, 다양한 산업 분야에서의 실제 사용 사례와 성과를 바탕으로 그 가치를 증명하고 있습니다.

2. 서론

  • 2-1. 엑사원 3.0 소개

  • 엑사원 3.0은 LG에서 개발한 초거대 AI 모델로, 성능과 경제성 모두에서 글로벌 경쟁 모델을 초월하는 것으로 평가되고 있습니다. 이 모델은 다양한 산업 분야에서 학습할 수 있는 능력을 갖추고 있으며, 오픈소스를 통해 연구 생태계의 활성화에 이바지하고자 하는 LG의 전략이 반영되어 있습니다.

  • 2-2. 리포트의 목적과 구성

  • 본 리포트는 LG의 엑사원 3.0의 공개와 그 영향을 다루는 것을 목적으로 하고 있습니다. 리포트는 엑사원 3.0의 성능, 경제성, 오픈소스 정책 등을 분석하며, 실제 사용 사례와 벤치마크 결과를 통해 그 성과를 평가하는 내용을 포함하고 있습니다.

3. 엑사원 3.0의 기술적 특징

  • 3-1. 성능 향상: 추론 처리 시간, 메모리 사용량, 구동 비용

  • LG의 엑사원 3.0은 총 78억개의 매개변수로 구성된 초거대 AI 모델로, 성능과 경제성을 강화하였습니다. 엑사원 3.0은 이전 세대 모델인 엑사원 2.0에 비해 추론 처리 시간은 56%, 메모리 사용량은 35% 줄였으며, 구동 비용은 72% 절감하는 성과를 거두었습니다. 이러한 성능 향상은 LG AI 연구원이 경량화 및 최적화 기술 연구에 집중한 결과입니다. 구체적으로, 모델의 크기는 초기 모델 대비 100분의 1로 감소하며, 효율적인 전력 소비로 소비 전력 문제를 해결하였습니다.

  • 3-2. 모델 경량화 및 전력 소비 감소

  • 엑사원 3.0은 LG AI 연구원이 지속적으로 연구한 경량화 및 최적화 기술을 통해 모델 크기를 대폭 줄였습니다. 이전의 엑사원 1.0 모델(매개변수 300억)과 비교하여, 엑사원 3.0은 크기가 약 100분의 1 수준으로 줄어들었습니다. 이러한 경량화는 상용화 가능성을 높이고, 다양한 디바이스에서의 활용을 가능하게 하였습니다.

  • 3-3. 한국어 및 이중언어 모델 성능

  • 엑사원 3.0은 한국어와 영어를 지원하는 이중언어 모델입니다. 한국어 전 영역에서 뛰어난 성능을 기록하였으며, 코딩과 수학 분야 등 13개 벤치마크에서 1위를 차지하였습니다. 6000만 건 이상의 특허, 소프트웨어 코드, 수학, 화학 등의 전문 분야 데이터 학습을 통해 이러한 성능을 달성하였습니다. LG AI 연구원은 연말까지 법률, 바이오, 의료 등 다양한 분야로 학습 데이터를 확장하여 1억 건 이상의 데이터를 확보할 계획입니다.

4. 오픈소스를 통한 연구 생태계 활성화

  • 4-1. 오픈소스 공개의 의의

  • LG AI연구원은 엑사원 3.0 모델을 국내 최초로 오픈소스로 공개하였습니다. 엑사원 3.0은 LG가 자체 개발한 초거대 대규모 언어 모델로, 기업의 AI 생태계 발전에 기여하려는 취지를 가지고 있습니다. 특히, 엑사원 3.0은 성능과 경제성 모두에서 뛰어난 경량 모델로 연구 목적으로 사용할 수 있도록 오픈되었습니다. 이를 통해 AI 모델의 구조를 이해하고 변형 및 응용할 수 있는 기반을 제공합니다.

  • 4-2. 국내외 학계 및 연구기관의 반응

  • LG의 엑사원 3.0 공개에 대해 국내외 학계와 연구기관은 긍정적인 반응을 보이고 있습니다. LG는 엑사원 시리즈를 통해 AI 연구를 지속적으로 발전시키고 있으며, 하반기부터 계열사 제품과 서비스에 본격 적용할 예정입니다. 이러한 움직임은 LG그룹 내외부의 다양한 파트너십을 강화하는 데 기여할 것으로 기대됩니다. 또한, 엑사원 기반의 생성 AI 서비스 ‘챗엑사원’도 임직원 대상 베타 서비스로 시작되었습니다.

  • 4-3. 메타 라마와의 비교

  • LG의 엑사원 3.0은 메타의 라마 3.1, 구글의 젬마 2와 비교 시, 성능 면에서 밀리지 않는 것으로 평가받고 있습니다. 엑사원 3.0은 코딩과 수학 등 13개 분야에서 높은 성과를 기록하며, 특히 한국어 성능에서는 세계 최고 기록을 달성하였습니다. LG AI연구원은 엑사원 3.0의 성능 평가 결과 및 사용 사례를 포함한 기술보고서를 공개하였으며, 이를 통해 오픈소스 모델의 필요성을 강조하고 있습니다.

5. 엑사원 3.0의 활용 사례와 성과

  • 5-1. LG 계열사 제품과 서비스에 적용

  • LG는 2024년 하반기부터 엑사원 3.0을 LG 전 계열사 제품과 서비스에 적용할 예정입니다. 각 회사는 보유한 데이터를 활용하여 엑사원 3.0을 최적화하여 사업 및 제품, 서비스의 특성에 맞게 연결할 계획입니다. 이를 통해 LG는 AI 기술을 접목하여 좀 더 혁신적인 고객경험을 제공하고자 합니다.

  • 5-2. 임직원 대상 챗엑사원 베타 서비스 시작

  • 2024년 8월 7일부터 LG 임직원들은 엑사원 3.0 기반의 AI 비서인 챗엑사원(ChatEXAONE) 베타 서비스를 이용할 수 있게 되었습니다. 이 서비스는 검색, 요약, 번역, 데이터 분석, 보고서 작성, 코딩 등 다양한 업무에 활용될 수 있으며, 실시간 웹 정보 기반의 질의응답 기능을 제공합니다.

  • 5-3. 코딩, 수학 등 벤치마크 결과

  • 엑사원 3.0은 실사용 성능을 분석한 13개 벤치마크에서 1위를 기록하였습니다. 특히, LG AI연구원은 엑사원 3.0 모델의 추론 처리 시간이 56%, 메모리 사용량이 35% 줄어들고 구동 비용이 72% 절감된 점을 강조하였습니다. 또한, 이 모델은 한국어와 영어를 모두 이해할 수 있는 이중 언어 모델로, 한국어 성능에서 세계 최고 수준을 기록하고 있습니다.

  • 5-4. 다양한 산업 분야에서의 활용 계획

  • LG는 엑사원 3.0의 활용을 통해 향후 법률, 바이오, 의료, 교육, 외국어 등 다양한 분야로 학습 데이터를 확장할 계획이며, 데이터 수량을 1억 건 이상으로 늘릴 예정입니다. 이는 엑사원 3.0의 성능을 더욱 개선하기 위한 노력으로, LG는 AI 연구 생태계의 활성화를 위해 이 모델을 오픈소스로 공개하였습니다.

6. 글로벌 경쟁 모델과의 비교

  • 6-1. 메타의 라마3.1

  • LG의 엑사원 3.0은 메타의 라마3.1과 비교 시 성능에서 우위를 점하고 있습니다. 라마3.1은 8B 매개변수를 가지고 있으나, 엑사원 3.0은 78억 개의 매개변수를 가진 소형언어모델로, LG에 따르면 이러한 성능 차이는 엑사원 3.0의 경제성과 빠른 추론 처리 속도 덕분이라 강조하였습니다. 결과적으로 13개의 벤치마크에서 엑사원 3.0이 1위를 차지하며, 한국어 영역에서 최고의 성능을 기록하였습니다.

  • 6-2. 구글의 젬마2

  • 구글의 젬마2는 9B 매개변수를 기준으로 하여 엑사원 3.0과 성능을 비교하고 있습니다. LG는 젬마2와의 경쟁에서 엑사원 3.0이 성능에서 밀리지 않음을 강조하며, 특히 다국어 모델 가능성을 피력하였습니다. 젬마2보다 우수한 성능을 보이는 확인된 벤치마크 결과는 엑사원 3.0의 학습 데이터와 매개변수의 우수함을 반영하고 있습니다.

  • 6-3. 알리바바의 큐원2

  • 알리바바의 큐원2는 7B 매개변수를 가진 경쟁 모델로, 엑사원 3.0은 이 모델과 성능적으로 비교하였을 때 명확한 우위에 있습니다. LG는 이러한 성능 차이를 예로 들며 엑사원 3.0이 경제성과 성능 면 모두에서 유리함을 보여주고 있습니다.

  • 6-4. 다른 주요 글로벌 오픈소스 AI 모델

  • LG의 엑사원 3.0은 미스트랄 7B, 마이크로소프트의 파이 3 7B 등 다른 주요 오픈소스 AI 모델과도 비교되고 있습니다. 해당 모델들과의 비교에서도 엑사원 3.0은 높은 성능을 보이며, 13개 평가 벤치마크에서 최상위 점수를 기록해 글로벌 수준에서 경쟁력을 갖추게 되었습니다.

7. 결론

  • 리포트는 LG의 엑사원 3.0이 국내외 AI 연구 생태계에 미칠 영향을 중점적으로 분석합니다. 엑사원 3.0은 성능 향상, 경제성, 오픈소스를 통한 학계와 산업계의 협업 증대를 통해 글로벌 경쟁력을 확보했습니다. 특히, 챗엑사원의 임직원 대상 베타 서비스 시작과 다양한 산업 분야에서의 적용 사례는 실질적 활용 가능성을 보여줍니다. 그러나 향후 발전 가능성을 확대하기 위해 더 다양한 분야에서의 구체적 사례 연구와 장기적인 성과 분석이 필요합니다. 최신 AI 기술이 실제 현장에서 어떻게 적용되고 있는지에 대한 실질적인 데이터와 경험을 축적하면, 더 명확한 결론을 도출할 수 있을 것입니다. LG AI연구원은 앞으로도 엑사원 시리즈를 발전시키며 AI 모델의 경량화 및 최적화 기술 연구를 지속할 계획입니다.

8. 용어집

  • 8-1. 엑사원 3.0 [AI 모델]

  • LG가 자체 개발한 초거대 AI 모델로, 성능과 경제성에서 기존 모델과 글로벌 경쟁 모델을 능가한다. 한국어와 영어 두 언어를 학습하며, 다양한 산업 분야에서 활용될 계획이다.

  • 8-2. 챗엑사원 [AI 서비스]

  • 엑사원 3.0을 기반으로 한 생성형 AI 서비스로, LG 임직원을 대상으로 베타 서비스를 시작했다. 검색, 요약, 번역, 데이터 분석, 코딩 등 다양한 업무에 사용될 수 있다.

  • 8-3. LG AI연구원 [연구 기관]

  • LG 그룹 산하의 AI 연구 기관으로, AI 모델 개발과 연구 생태계 활성화를 목표로 다양한 연구를 진행하고 있다. 엑사원 시리즈의 개발을 주도하였다.

  • 8-4. 메타 라마3.1 [AI 모델]

  • 메타(구 페이스북)에서 개발한 오픈소스 AI 모델로, 엑사원 3.0의 주요 경쟁 모델 중 하나이다.

  • 8-5. 구글 젬마2 [AI 모델]

  • 구글에서 개발한 AI 모델로, 엑사원 3.0과 성능 비교의 주요 대상이 된다.

9. 출처 문서