Your browser does not support JavaScript!

초거대언어모델과 최신 연구 동향 분석

일일 보고서 2024년 07월 13일
goover

목차

  1. 요약
  2. 초거대언어모델(LLM)의 개요 및 현주소
  3. 개인화된 LLM을 위한 파인튜닝 접근 방식
  4. Meta AI의 LLaMA 모델 분석
  5. AI 기술의 최신 동향 및 뉴스
  6. 결론

1. 요약

  • 본 리포트는 초거대언어모델(LLM)의 최신 연구 동향과 관련 기술에 대한 현황을 분석합니다. 리포트는 언어 모델링의 어려움, 트랜스포머 모델과 사전 학습, LLM의 능력과 혁신에 대한 개요로 시작합니다. 이어서 파인튜닝 기법을 통한 모델 개인화, LoRA 및 QLoRA 방법을 통해 메모리 최적화와 성능 향상을 다룹니다. 또한, Meta AI의 LLaMA 모델의 효율성과 감산 추론 비용 및 대규모 데이터세트를 활용한 특징을 설명합니다. 마지막으로, Open Flamingo v2, ChatGPT의 웹 검색 기능, 세일즈포스의 LLM 출시 등 최신 AI 기술 뉴스와 동향을 소개합니다.

2. 초거대언어모델(LLM)의 개요 및 현주소

  • 2-1. 언어 모델링의 어려움

  • 언어는 본질적으로 문법 규칙에 의해 지배되는 복잡하고 정교한 인간 표현 체계입니다. 이로 인해 언어를 이해하고 파악할 수 있는 유능한 AI 알고리즘을 개발하는 것은 매우 어려운 과제입니다. 언어 모델링은 지난 20년 동안 언어 이해 및 생성을 위해 연구되어 왔으며, 통계적 언어 모델에서 신경망 언어 모델로 발전해 왔습니다. 고차 언어 모델은 기하급수적인 수의 전이 확률을 추정해야 하기 때문에 차원성의 저주 문제를 겪으며, 이를 완화하기 위해 백오프 추정 및 굿 튜링 추정 같은 평활화 전략이 도입되었습니다.

  • 2-2. 트랜스포머 모델과 사전 학습

  • 트랜스포머 아키텍처는 자연어 처리 작업에서 강력한 성능을 보이며, 대규모 말뭉치에 대해 사전 학습된 언어 모델(PLM)이 제안되었습니다. 양방향 LSTM 네트워크를 먼저 사전 학습한 후 특정 작업에 미세 조정하는 방법이 도입되었으며, 이후 트랜스포머 아키텍처를 기반으로 한 BERT 모델이 사전 학습된 문맥 인식 단어 표현을 캡처했습니다. 이러한 접근 방식은 다양한 자연어 처리 작업에서 성능 기준을 크게 높였으며, '사전 학습 및 미세 조정' 학습 패러다임을 설정하는 여러 후속 연구에 영감을 주었습니다.

  • 2-3. LLM의 능력과 혁신

  • 대규모 언어 모델(LLM)은 수천억 개의 파라미터를 포함하는 언어 모델로, 모델 크기와 데이터 크기를 확장하여 성능이 크게 향상됩니다. GPT-3와 같은 모델은 매개변수 규모가 일정 수준을 초과하면 소규모 모델에서는 관찰되지 않는 여러 특별한 능력을 보여줍니다. 예를 들어, GPT-3는 상황 내 학습을 통해 단발성 과제를 해결할 수 있으며, 인스트럭션 튜닝을 통해 명시적인 예제 없이도 새로운 작업에 대한 지침을 따를 수 있습니다. 또한, LLM의 기술적 진화는 AI 커뮤니티 전체에 중요한 영향을 미치며, 이는 AI 알고리즘의 개발 및 사용 방식에 혁신을 가져오고 있습니다. 최근 ChatGPT의 출시는 LLM의 기술적 진화에 있어 중요한 이정표로 간주됩니다.

3. 개인화된 LLM을 위한 파인튜닝 접근 방식

  • 3-1. 파인튜닝의 필요성

  • 초거대언어모델은 일반적인 과제를 잘 처리하는 장점이 있습니다. 예를 들어, ChatGPT는 일반적인 지식 질문이나 추론에 대해 뛰어난 답변을 생성합니다. 하지만 실생활에서 유의미하게 사용되려면 개인 또는 조직 단위로 특수한 데이터를 학습해야 합니다. 이를 위해 파인튜닝 기법이 필요합니다. 파인튜닝은 사전 학습된 초거대 언어 모델(LLM)을 특정한 작업에 맞게 추가 학습시켜 성능을 개선하는 방법입니다. 모델의 목적을 바꾸고, 질적인 면모를 조정하며, 특정 작업에 특화되도록 하는 데 유리합니다.

  • 3-2. LoRA 방법과 가중치 업데이트

  • 파인튜닝 기법 중 하나로, LoRA(Low-Rank Adaptation) 방법이 있습니다. LoRA는 고정 가중치를 가진 모델에 추가 학습이 가능한 Rank Decomposition 행렬을 추가하여 트랜스포머 아키텍처의 각 레이어에 적용합니다. 이는 특정 작업을 위해 모델의 일부 파라미터만 수정하므로, 전체 파라미터를 수정하는 것과 유사한 수준의 성능을 기대할 수 있습니다. 예를 들어, 데이터가 적은 상황에서도 LoRA를 통해 효과적으로 파인튜닝할 수 있는 장점이 있습니다.

  • 3-3. QLoRA와 메모리 최적화

  • 최근에는 QLoRA(Quantized LoRA) 기법이 제시되고 있습니다. QLoRA는 양자화를 통해 메모리 사용량을 최적화하면서도 트레이닝이나 역전파 과정에서 일정한 성능을 유지할 수 있습니다. 이를 통해 파인튜닝된 모델의 저장 및 사용 비용을 줄일 수 있습니다. QLoRA는 양자화를 사용하여 INT8 범위 내 값으로 가중치를 표현하며, 이를 통해 인메모리 로드 부담을 크게 줄입니다. 예를 들어, 실제 연구에서는 QLoRA 기법을 활용하여 더 적은 메모리로도 기존 LoRA와 유사한 성능을 보여주고 있습니다.

4. Meta AI의 LLaMA 모델 분석

  • 4-1. LLaMA 모델의 특징

  • Meta AI의 LLaMA(Large Language Model Meta AI) 모델은 고성능을 유지하면서도 컴퓨팅 비용을 줄일 수 있는 소형 모델로 개발되었습니다. LLaMA는 GPT-3(175B) 대비 작은 모델 사이즈(13B)로, 모든 벤치마크에서 GPT-3을 능가하는 성능을 보입니다. LLaMA 모델은 6.7B, 13B, 32.5B, 65.2B의 4가지 버전으로 출시되었으며, 특히 6.7B 모델은 단일 GPU(V100)에서 실행 가능합니다.

  • 4-2. 감산 추론 비용과 효율성

  • 최근 AI 모델은 추론 비용이 학습 비용보다 커지는 문제를 가지고 있습니다. 예를 들어, ChatGPT 서비스를 제공하는데 하루에 약 3백만 달러가 소요되며, 이는 연간 11억 달러에 달합니다. Meta의 LLaMA 모델은 추론 컴퓨팅 비용을 줄이기 위해 모델 파라미터를 줄이는 방법을 도입하여 효율성을 크게 개선하였습니다. LLaMA-13B 모델은 V100 GPU 한 대에서 실행될 수 있어 추론 비용이 크게 절감됩니다.

  • 4-3. 대규모 데이터세트와 컴퓨팅 자원

  • LLaMA 모델은 총 4.75TB의 대규모 데이터세트를 이용하여 학습되었습니다. 이 데이터는 주로 Wikipedia, Books 데이터세트에서 가져온 것이며, 총 1.4T 토큰의 데이터를 포함하고 있습니다. 학습 과정에서는 xformers 라이브러리를 사용하여 메모리 사용량과 계산량을 줄였으며, 2048개의 A100 GPU를 이용해 학습이 진행되었습니다. LLaMA-65B 모델은 1.4T 토큰을 학습하는 데 약 21일이 걸렸습니다.

5. AI 기술의 최신 동향 및 뉴스

  • 5-1. Open Flamingo v2 출시

  • 오픈 플라밍고 v2는 딥마인드의 모델로, 이미지와 텍스트 모두에서 작동할 수 있습니다. 이 모델은 시각적 질문에 답할 수 있으며 강력한 언어 모델링 성능을 갖추고 있습니다. 오픈 플라밍고 v2는 이러한 모델을 복제하는 작업으로, MPT와 RedPajama 기본 모델을 사용하여 라이선스 사용 제한이 덜합니다. 해당 복제본은 오리지널 플라밍고보다 약 80% 더 강력합니다. 데모, 코드 및 가중치도 사용할 수 있습니다.

  • 5-2. ChatGPT의 웹 검색 기능

  • OpenAI는 ChatGPT 플러스 가입자를 위해 브라우징 기능을 도입하였습니다. 이를 통해 사용자는 원래의 교육 데이터 이외의 시사 및 정보에 대해 ChatGPT가 Bing을 검색하도록 할 수 있습니다. 그러나, 검색 엔진으로서 빙을 독점적으로 사용하는 결정은 OpenAI와 마이크로소프트 간의 긴밀한 관계에서 비롯된 것이며, 과거 Bing이 마이크로소프트 관련 결과를 우선시하고 상위 결과에 허위 정보가 많다는 우려가 제기된 바 있습니다.

  • 5-3. 세일즈포스의 LLM 출시

  • 세일즈포스는 70억 개의 파라미터로 구성된 모델 세트를 GitHub에 공개하였습니다. 이 모델들은 1조 5천억 개의 토큰에 대해 4K 및 8K 시퀀스 길이로 학습되었으며, 현재 출시된 많은 오픈 소스 모델인 MPT 또는 Falcon보다 더 우수하거나 비슷한 성능을 발휘합니다. 상업적으로 실행 가능하지는 않지만 연구 목적으로 사용할 수 있는 인스트럭트 모델도 포함되어 있습니다.

6. 결론

  • 본 리포트는 초거대언어모델(LLM)과 관련된 최신 연구 동향을 종합적으로 분석했습니다. 언어 모델링의 어려움을 극복하기 위해 도입된 트랜스포머 모델과 사전 학습의 중요성, 파인튜닝 기술을 통한 모델 개인화 및 성능 향상 방법이 강조됩니다. 특히, Meta AI의 LLaMA 모델은 효율적인 컴퓨팅 자원 사용과 감산 추론 비용 면에서 큰 장점을 가지며, 이는 앞으로 더 저렴하고 효율적인 AI 솔루션 개발에 기여할 것입니다. 또한, Open Flamingo v2와 ChatGPT의 웹 검색 기능, 그리고 세일즈포스의 LLM 출시와 같은 최신 AI 기술 뉴스와 동향은 AI 커뮤니티의 활발한 연구와 경쟁 상황을 체감하게 합니다. 이 리포트는 LLM의 현재 상태와 향후 연구 방향을 파악하고, AI 기술의 발전과 그 실질적 적용 가능성을 이해하는 데 도움을 줄 것입니다. 지속적인 연구와 협력을 통해 AI 기술은 더욱 발전할 것이며, 다양한 산업 분야에 긍정적인 영향을 미칠 전망입니다.

7. 용어집

  • 7-1. 파인튜닝 [기술]

  • 모델을 개인화하고 특정 작업에 맞춤화하기 위해 기존 모델을 추가 학습하는 과정입니다. LoRA와 QLoRA 방법을 통해 메모리 최적화와 성능 향상 등이 가능합니다.

  • 7-2. LLaMA [모델]

  • Meta AI에서 개발한 대규모 언어 모델로, 감산 추론 비용과 높은 효율성을 목표로 합니다. 이를 통해 대규모 데이터세트와 컴퓨팅 자원을 효과적으로 활용할 수 있습니다.

  • 7-3. Open Flamingo v2 [제품]

  • 최신 AI 기술을 적용한 신규 모델로, OpenAI에서 출시한 버전입니다. 증가된 성능과 새로운 기능을 제공합니다.

  • 7-4. ChatGPT [제품]

  • OpenAI에서 개발한 대화형 AI 모델로, 웹 검색 기능 등 다양한 혁신적인 기능을 포함하고 있습니다.

  • 7-5. 세일즈포스 LLM [모델]

  • 세일즈포스에서 출시한 LLM 모델로, 7억 파라미터를 갖추고 있으며 다양한 AI 응용 분야에서 활용될 수 있습니다.

8. 출처 문서