Your browser does not support JavaScript!

LangChain 완전 정복: 오픈소스 LLM 애플리케이션 개발 가이드

일반 리포트 2025년 05월 08일
goover

목차

  1. 요약
  2. LangChain 개요 및 역사
  3. 주요 구성 요소 및 아키텍처
  4. 기본 사용법 및 응용
  5. 심화 기능: 메모리와 상태 관리
  6. 커뮤니티와 미래 전망
  7. 결론

1. 요약

  • LangChain은 대형 언어 모델(LLM) 기반의 애플리케이션 개발을 지원하는 오픈소스 프레임워크로, 2022년 10월에 해리슨 체이스에 의해 출시되었습니다. 이 프로젝트는 로버스트 인텔리전스의 일환으로, 개발자들이 LLM의 잠재력을 활용하여 보다 복잡하고 유용한 애플리케이션을 간편하게 구축할 수 있도록 설계되었습니다. 출시 이후, LangChain은 커뮤니티의 적극적인 참여로 빠르게 확장되었고, GitHub에서 인기 있는 프로젝트로 자리잡았습니다. 이 프레임워크는 OpenAI의 GPT-4 등 최신 언어 모델과 통합이 가능하며, 다양한 API와 데이터 소스와의 연계를 통해 실시간 데이터 활용이 가능합니다. 본 보고서는 LangChain의 핵심 아키텍처, 기본 사용법, 심화 기능 및 향후 발전 방향을 포괄적으로 다루며, 특히 Chains, Agents, Memory 기능을 중심으로 다양한 AI 애플리케이션 개발 사례와 Vertex AI 통합 방법을 실질적으로 제시합니다.

  • LangChain의 역사적 배경과 발전 과정을 통해 초기 버전에서 기능 확장으로 나아가는 과정을 분석하였고, 사용자 친화적인 개선 작업이 이루어진 점을 강조하였습니다. LangChain은 다양한 초기 활용 사례를 통해 금융 서비스, 고객 서비스 등 여러 분야에서 그 가능성을 입증하였으며, 이를 통해 사용자 맞춤형 솔루션으로의 가능성을 보여주고 있습니다. 특히, 체인 및 에이전트 개념은 복잡한 언어 처리 작업을 간소화하여 효율적으로 문제를 해결하는 데 기여하고 있습니다. 이러한 핵심 기능들은 AI 애플리케이션의 설계 및 운영을 혁신적으로 변화시킬 수 있는 기초가 됩니다.

  • 현재 LangChain의 아키텍처는 모듈화된 구성 요소, 체인, 에이전트, 메모리 기능을 중심으로 구성되어 있으며, 이는 사용자와 대형 언어 모델 간의 원활한 상호작용을 지원합니다. 개발자는 이 아키텍처를 활용하여 맞춤형 솔루션을 손쉽게 구축할 수 있으며, 프롬프트 엔지니어링을 통해 다양한 요청을 효과적으로 처리할 수 있습니다. 향후 계획된 기능 확장 로드맵은 대화 메모리 및 AI 에이전트의 자율성 향상이 포함되어 있으며, 오픈소스 생태계에서의 기여를 통해 LangChain의 발전은 계속될 것입니다.

2. LangChain 개요 및 역사

  • 2-1. 오픈소스 프로젝트 출시 배경

  • LangChain(랭체인)은 대형 언어 모델(LLM)을 기반으로 한 애플리케이션 개발을 위한 오픈소스 프레임워크로, 2022년 10월에 해리슨 체이스(Harrison Chase)에 의해 출시되었습니다. 이 프로젝트는 머신러닝 스타트업인 로버스트 인텔리전스의 일환으로 시작되었으며, LLM의 잠재력을 최대한 활용하여 개발자들이 보다 복잡하고 유용한 애플리케이션을 쉽게 구축할 수 있도록 설계되었습니다. 출시 이후, LangChain은 James2이 포함되어 다양한 커뮤니티의 활발한 참여를 통해 성장하게 되었으며, GitHub에서 빠르게 인기를 얻고 있습니다. 이 프레임워크는 OpenAI의 GPT-4와 같은 최첨단 언어 모델과 통합이 가능하며, 다양한 API 및 데이터 소스와의 연결을 통해 실시간 데이터 활용이 가능합니다.

  • 2-2. 주요 발전 과정

  • LangChain의 발전은 두 가지 주요 축을 중심으로 진행되었습니다. 첫째, 기능의 확장입니다. 초기 버전에서는 기본적인 텍스트 생성 및 질문 응답 기능에 집중하였으나, 점차 다양한 API 통합 및 모듈 형식의 설계로 발전하였습니다. 이러한 발전은 사용자가 특정한 요구에 맞는 기능을 쉽게 추가할 수 있도록 하여 랭체인의 유용성을 극대화했습니다. 예를 들어, LangChain은 에이전트(Agents)을 도입하여 상황에 따라 다른 작업을 선택하고 수행할 수 있는 기능을 추가했습니다. 둘째, 커뮤니티 중심의 성장입니다. 오픈소스 특성을 살려 개발자들은 적극적으로 피드백을 제공하고, 기능 개선 및 버그 수정을 지원하였으며, 이를 통해 지속적인 업데이트가 이루어졌습니다. 이러한 프로세스는 사용자들로 하여금 LangChain을 보다 사용자 친화적으로 만들 수 있는 기틀을 마련하였습니다.

  • 2-3. 초기 활용 사례

  • LangChain은 다양한 초기 활용 사례를 통해 그 가능성을 입증하였습니다. 예를 들어, Morningstar Intelligence Engine과 같은 금융 서비스 애플리케이션에서는 사용자 맞춤형 금융 인사이트를 제공하는 인텔리전스 엔진을 구축하는 데 사용되었습니다. 또한, NCL AI Assistant는 고객 맞춤형 크루즈 여행 계획을 제공하는 AI 어시스턴트로 활용되었으며, Elastic AI Assistant는 보안 경고 요약 및 업무 흐름 제안을 통해 보안 팀의 생산성을 향상시켰습니다. 이러한 다양한 사례는 LangChain의 애플리케이션이 단순한 조회나 텍스트 응답을 넘어, 실시간 데이터와의 상호작용을 통해 실제 비즈니스의 문제를 해결할 수 있는 강력한 도구임을 보여줍니다.

3. 주요 구성 요소 및 아키텍처

  • 3-1. 체인(Chains) 개념

  • 체인(Chains)은 LangChain의 핵심 개념 중 하나로, 여러 작업을 순차적으로 연결하여 복잡한 언어 처리 작업을 간소화합니다. 각 체인은 특정 입력을 받아 단계적으로 처리한 후 최종 출력을 생성합니다. 이러한 체인 구조는 사용자가 간단한 요청부터 복잡한 질의까지 다양한 유형의 입력에 대해 효과적으로 응답할 수 있도록 돕습니다.

  • LangChain의 체인은 여러 상이한 구성 요소를 조합하여 구현되며, 체인의 각 단계는 특정 작업에 대한 호출로 나타납니다. 예를 들어, 사용자가 '기후 변화 보고서에 대한 요약'을 요청하면, 체인은 먼저 기후 변화와 관련된 데이터를 검색하고, 이를 기반으로 LLM에 요약 요청을 한 후, 그 결과를 사용자에게 전달하는 일련의 과정을 포함합니다.

  • 이와 같이 체인은 호출 간의 상호작용을 통해 LLM의 가능성을 극대화하며, 구조화된 데이터와의 통합을 통해 더욱 풍부한 정보 제공을 가능하게 합니다.

  • 3-2. 에이전트(Agents) 역할

  • 에이전트(Agents)는 LangChain의 중요한 구성 요소로, 자동화된 작업을 관리하고 사용자의 지시를 수행하는 비즈니스 로직을 포함합니다. 에이전트는 특정 상황에 따라 사용자가 필요로 하는 작업을 스스로 인식하고 이를 실행할 수 있는 능력을 갖추고 있습니다.

  • 예를 들어, 고객 서비스 애플리케이션에서 에이전트는 사용자의 질문을 분석하고 적절한 답변을 찾기 위해 여러 API를 사용할 수 있습니다. 이는 에이전트가 LLM과 통합되어 작동하여 더욱 효과적인 문제 해결을 가능하게 합니다.

  • 이러한 에이전트는 복잡한 의사 결정 과정을 지원하며, 실시간 데이터에 대한 반응을 통해 사용자의 요구에 실시간으로 응답할 수 있는 유연성을 제공합니다.

  • 3-3. 도구 통합(Tooling)

  • 도구 통합(Tooling)은 LangChain의 또 다른 핵심 기능으로, 다양한 외부 도구 및 서비스와의 통합을 통해 LLM의 성능을 향상시키는 역할을 합니다. LangChain은 외부 API, 데이터베이스, 및 다양한 파일 시스템과 쉽게 연결할 수 있도록 설계되어 있으며, 이는 개발자가 필요로 하는 데이터를 실시간으로 활용할 수 있게 합니다.

  • 예를 들어, 개발자는 금융 분석을 위한 API와 통합하여 애플리케이션에서 데이터를 조회하고 이를 기반으로 고급 분석을 수행할 수 있습니다. 이를 통해 사용자는 단순한 텍스트 응답 이상의 복잡한 정보를 처리할 수 있게 됩니다.

  • 도구 통합 기능은 데이터 접근성을 높이고, 사용자 경험을 향상시키며, LLM의 응답 품질을 개선하는 데 중요한 역할을 합니다.

  • 3-4. 전체 아키텍처 개요

  • LangChain의 전체 아키텍처는 여러 구성 요소가 유기적으로 결합되어 작동하는 구조로 되어 있습니다. 이 아키텍처는 사용자가 대형 언어 모델(LLM)과 복잡한 데이터 세트 및 서비스 간의 상호작용을 원활하게 수행할 수 있도록 설계되었습니다.

  • 아키텍처는 크게 네 가지로 구분할 수 있습니다: 모듈화된 구성 요소, 체인, 에이전트, 그리고 메모리입니다. 각 구성 요소는 개별적으로 관리되며 재사용 가능성을 높여줍니다. 이를 통해 개발자는 기본적인 기능을 손쉽게 조합하여 맞춤형 솔루션을 구축할 수 있습니다.

  • 또한 LangChain은 사용자가 프롬프트를 통해 LLM을 제어하고, 이전 상호작용을 기억하도록 하여 대화형 애플리케이션에서 보다 자연스러운 사용자 경험을 제공합니다. 이처럼 LangChain의 아키텍처는 높은 유연성과 확장성을 제공하여 다양한 AI 애플리케이션의 개발을 지원합니다.

4. 기본 사용법 및 응용

  • 4-1. 설치 및 초기 설정

  • LangChain을 시작하는 첫 단계는 해당 프레임워크의 설치입니다. 설치를 위해서는 Python 3.7 이상의 버전이 필요하며, 개발용 에디터로는 VS Code, PyCharm, Jupyter Notebook 등이 추천됩니다. 설치 과정은 다음과 같습니다. 1. 가상 환경을 생성합니다. 이렇게 하면 프로젝트 간 충돌을 방지할 수 있습니다. ```bash python -m venv langchain-env ``` 2. 생성한 가상 환경을 활성화합니다. Linux/Mac의 경우: ```bash source langchain-env/bin/activate ``` Windows에서는: ```bash langchain-env\Scripts\activate ``` 3. 필수 패키지를 차례대로 설치합니다. ```bash pip install langchain pip install openai ``` OpenAI 모델을 사용하는 경우 추가적인 요청 패키지도 설치합니다: ```bash pip install requests ``` 이 단계를 완료하면 LangChain의 기본 설치는 마친 것입니다.

  • 4-2. 프롬프트 엔지니어링

  • 프롬프트 엔지니어링은 AI 모델에 전달할 요청을 설계하는 과정입니다. LangChain을 통해 우리는 다양한 프롬프트를 쉽게 정의할 수 있으며, 여러 작업을 결합하는 것도 가능합니다. 예를 들어, 아래의 코드로 텍스트 생성과 요약 작업을 연결한 체인을 만들 수 있습니다: ```python from langchain.llms import OpenAI from langchain import LLMChain llm = OpenAI(api_key="your_openai_api_key") # 텍스트 생성 체인 generate_chain = LLMChain(llm=llm, prompt="Generate a short story about a cat.") # 요약 체인 summary_chain = LLMChain(llm=llm, prompt="Summarize this: {input}") story = generate_chain.run() summary = summary_chain.run(input=story) ``` 이렇게 생성된 이야기는 이후에 요약 체인을 통해 간결한 형태로 변환될 수 있습니다. 이처럼 프롬프트의 구조를 이해하고 적절하게 설계하는 것이 효과적인 결과를 위해 중요합니다.

  • 4-3. API 연동

  • LangChain은 다양한 외부 API와 연동하여 기능을 확장할 수 있습니다. API 연동의 기본 원리는 LangChain 내에서 API를 호출할 수 있는 메소드를 정의하고, 이를 적절한 파라미터와 함께 실행하는 것입니다. 예를 들어, 외부 API와 통신하는 다음의 방법을 고려할 수 있습니다: ```python import requests def fetch_data(url): response = requests.get(url) return response.json() # API 호출 예시 url = "https://api.example.com/data" data = fetch_data(url) print(data) ``` 이런 방식으로 언어 모델의 결과와 API의 데이터를 결합하여 더욱 풍부한 기능을 가진 애플리케이션을 만들 수 있습니다.

  • 4-4. Vertex AI 통합 예제

  • Vertex AI와 LangChain을 통합하면 강력한 AI 애플리케이션을 손쉽게 개발할 수 있습니다. Vertex AI는 Google Cloud에서 제공하는 머신러닝 플랫폼으로, LangChain의 유연성과 결합되어 뛰어난 성능을 발휘합니다. 다음은 Vertex AI와 LangChain을 사용하는 기본적인 설정과 예제입니다: 1. Vertex AI 프로젝트를 설정하고 API를 활성화합니다. 2. LangChain과 Google Cloud의 API를 설치합니다: ```bash pip install langchain google-cloud-aiplatform ``` 3. 아래와 같이 기본 설정을 진행합니다: ```python import os from langchain.llms import VertexAI from google.cloud import aiplatform os.environ["GOOGLE_APPLICATION_CREDENTIALS"] = "your-key.json" aiplatform.init(project="your-project-id", location="us-central1") vertex_llm = VertexAI(model_name="your-model-name") ``` 4. LangChain으로 실질적인 텍스트 생성 앱을 만들고, 데이터를 처리하는 방법을 구현합니다... 이 통합을 통해 LangChain은 Vertex AI의 자원을 활용하여 더욱 강력하고 확장 가능한 AI 솔루션을 제공할 수 있습니다.

5. 심화 기능: 메모리와 상태 관리

  • 5-1. 대화 메모리 개념

  • 대화 메모리는 사용자와의 상호작용에서 발생하는 정보의 저장 및 검색을 관리하는 중요한 기능입니다. LangChain의 대화 메모리는 이를 통해 사용자가 이전 대화의 내용을 기억하고, 그에 기반하여 보다 일관되고 맥락에 맞는 응답을 제공할 수 있도록 돕습니다. 이 메모리는 대화형 AI 애플리케이션에서 필수적인 요소로 자리 잡고 있으며, 사용자의 요구에 맞춰 동적으로 변형할 수 있는 유연함을 갖추고 있습니다. 기본적으로, 대화 메모리는 사용자의 요청이나 질문에 따라 대화의 흐름을 유지할 수 있게 설계되어 있습니다.

  • 5-2. Memory 구현 방식

  • LangChain의 대화 메모리는 Python으로 구현된 여러 가지 메서드와 클래스를 통해 작동합니다. 이 시스템은 'ConversationBufferMemory' 클래스를 포함하여 대화의 각 메시지를 버퍼에 저장하고, 이를 기반으로 이전 대화를 불러와 통합된 정보를 제공합니다. 예를 들어, 개발자는 'save_context' 메서드를 사용하여 대화 중 발생하는 문맥을 저장하고, 'load_memory_variables' 메서드를 활용하여 저장된 정보를 불러올 수 있습니다. 이러한 기능들은 대화의 지속성 뿐만 아니라, 사용자에게 더 풍부한 경험을 제공하는 데 큰 기여를 합니다. LangChain 메모리는 빠른 저장 및 검색 속도를 자랑하며, 이는 실시간 상호작용에서 사용자 경험을 극대화하는 데 중요한 요소로 작용합니다.

  • 5-3. 메모리 활용 사례

  • LangChain의 대화 메모리는 다양한 실제 사례에서 활용되고 있습니다. 예를 들어, 챗봇 애플리케이션에서 ConversationBufferMemory를 사용해 사용자가 제시한 질의나 이전 대화를 기억하여 응답의 맥락을 유지할 수 있습니다. 이렇게 함으로써, 사용자는 보다 자연스럽고 흐름이 있는 대화를 경험하게 됩니다. 또한, 대화형 AI의 요구에 따라 대화 요약 기능을 통합하여, 사용자가 현재 대화의 요점을 쉽게 파악할 수 있도록 돕는 등의 방법으로 메모리 시스템을 최적화할 수 있습니다. 이러한 구현은 기업이나 개인이 고객과의 소통을 효과적으로 관리하고, 개인화된 서비스를 제공할 수 있는 기회를 제공합니다.

6. 커뮤니티와 미래 전망

  • 6-1. 오픈소스 생태계 기여 방법

  • LangChain의 성공적인 발전은 오픈소스 생태계의 활발한 기여 덕분입니다. 개발자와 사용자들이 직접 참여하여 버그 수정, 기능 추가 및 개선 작업을 진행함으로써, 프로젝트는 지속적으로 개선되고 있습니다. 기여 방법으로는 GitHub에서 직접 이슈를 제기하거나, 풀 리퀘스트를 통해 코드 수정 사항을 제안하는 방식이 있습니다. 또한, 문서화 작업 및 커뮤니티 포럼에서의 의견 공유로도 많은 기여가 이루어집니다. 이러한 참여는 단순히 코드 기여에 그치지 않고, 사용 사례 공유 및 Best Practice 개발을 통해 LangChain의 활용도를 높여주고 있습니다.

  • 6-2. 기능 확장 로드맵

  • 향후 LangChain의 기능 확장 로드맵은 2025년 3분기에서 4분기까지 비전이 설정되어 있습니다. 이 로드맵은 사용자 피드백 분석에 기반하여 운영되며, 특히 대화 메모리 기능의 고도화와 AI 에이전트의 자율성 향상을 목표로 하고 있습니다. 사용자들이 제안한 여러 기능 중에서 가장 필요성이 높은 기능들은 우선 순위를 두고 개발될 예정입니다. 예를 들어, 더 많은 외부 API와의 통합, 실시간 데이터 처리의 용이성이 포함되어 있으며, 커뮤니티의 요구에 따라 성능 최적화 작업도 적극적으로 진행될 것입니다.

  • 6-3. 생태계 연계 동향

  • LangChain은 다양한 오픈소스 프로젝트와의 생태계 연계를 통해 더욱 강력한 플랫폼으로 자리매김하고 있습니다. 특히, 머신러닝 및 데이터 과학 분야의 다른 오픈소스 도구들과의 협력이 강조되고 있으며, 이러한 연계를 통해 상호보완적인 기능이 제공될 수 있습니다. 예를 들어, Hugging Face의 Transformers 라이브러리와의 깊은 통합은 사용자들이 이미 널리 사용하는 모델을 LangChain과 쉽게 연동할 수 있게 해 주며, 이를 통해 LLM의 성능을 극대화할 수 있습니다. 이와 같은 생태계 확장은 LangChain의 적용 가능성을 넓히고 있으며, 다양한 분야에서의 활용을 촉진하고 있습니다.

결론

  • 이 분석을 통해 LangChain의 중요성과 활용 가치를 재확인할 수 있었습니다. LangChain의 발전은 과거의 성공을 기반으로 하여 현재 진행 중인 다양한 기능 설계와 사용자 피드백을 통합한 결과입니다. 특히, Chains와 Agents, 메모리 기능의 결합은 AI 애플리케이션의 개발 및 운영을 효율적이고 매끄럽게 수행하게 합니다. 이러한 특성은 LangChain이 앞으로도 유망한 플랫폼으로 자리 잡을 수 있도록 도움을 줍니다.

  • 향후 2025년 3분기와 4분기에는 기능 확장을 위한 여러 개발이 예정되어 있으며, 사용자 커뮤니티의 피드백을 반영하여 지속적인 혁신이 이루어질 것입니다. RAG 챗봇과 AI 에이전트 등 다양한 분야에서의 적용 사례들은 LangChain의 확장성과 유용성을 더욱 입증할 것입니다. 이를 통해 기업과 개인은 AI 솔루션을 통해 생산성을 극대화할 수 있으며, 미래의 AI 환경에서 LangChain은 핵심적인 역할을 할 것으로 예상됩니다.

  • 결론적으로, LangChain은 오픈소스 커뮤니티의 지원과 협력을 통해 더욱 발전할 것이며, 이 과정에서 사용자들은 지속적으로 새로운 기능과 향상된 솔루션을 통해 기술을 활용할 수 있는 기회를 가지게 될 것입니다. AI 애플리케이션의 진화가 계속됨에 따라 LangChain은 그 중심에서 중요한 역할을 할 것으로 기대됩니다.

용어집

  • LangChain: LangChain은 대형 언어 모델(LLM)을 기반으로 한 오픈소스 애플리케이션 개발 프레임워크로, 2022년 10월 해리슨 체이스에 의해 출시되었습니다. 이는 개발자들이 복잡하고 유용한 애플리케이션을 쉽게 구축할 수 있도록 설계되었으며, 오픈소스 특성 덕분에 빠르게 성장하고 있습니다.
  • LLM (Large Language Model): 대형 언어 모델(LLM)은 방대한 양의 텍스트 데이터를 기반으로 학습하여 자연어 처리 작업을 수행하는 인공지능 모델입니다. LangChain은 OpenAI의 GPT-4와 같은 최신 LLM과 통합이 가능하여 실시간 데이터 활용이 가능합니다.
  • 체인 (Chains): LangChain의 핵심 개념으로, 여러 작업을 순차적으로 연결하여 복잡한 언어 처리 작업을 간소화합니다. 각각의 체인은 특정 입력을 받아 단계적으로 처리하여 최종 출력을 생성하며, 다양한 입력 유형에 효과적으로 응답할 수 있도록 돕습니다.
  • 에이전트 (Agents): LangChain의 중요한 구성 요소로서, 자동화된 작업을 관리하고 사용자의 지시를 수행하는 비즈니스 로직을 포함합니다. 에이전트는 사용자의 요구에 따라 적절한 작업을 인식하고 수행하는 능력을 가지며, 고객 서비스 등에서 활용됩니다.
  • 메모리 (Memory): 대화 중 사용자와의 상호작용에서 발생하는 정보를 저장 및 검색하는 기능으로, LangChain의 대화형 AI에서 이전 대화의 내용을 기억하여 일관된 응답을 제공하는 데 필수적인 요소입니다.
  • 프롬프트 엔지니어링 (Prompt Engineering): AI 모델에 전달할 요청을 설계하는 과정으로, LangChain을 통해 다양한 프롬프트를 쉽게 정의하고 여러 작업을 조합하는 방법을 포함합니다. 효과적인 요청 설계가 결과의 품질에 큰 영향을 미칩니다.
  • Vertex AI: 구글 클라우드에서 제공하는 머신러닝 플랫폼으로, LangChain과 통합하여 뛰어난 AI 애플리케이션을 개발할 수 있는 도구입니다. LangChain은 Vertex AI의 자원을 활용하여 강력하고 확장 가능한 솔루션을 제공합니다.
  • 도구 통합 (Tooling): LangChain의 기능으로, 다양한 외부 도구 및 서비스와의 통합을 통해 LLM의 성능을 향상시키는 역할을 합니다. 이는 사용자가 복잡한 정보를 처리할 수 있도록 지원합니다.
  • API: 어플리케이션 프로그래밍 인터페이스(API)는 소프트웨어가 서로 상호작용할 수 있도록 정의된 규칙입니다. LangChain은 외부 API와 연동하여 기능을 확장할 수 있습니다.
  • RAG (Retrieval-Augmented Generation): 정보 검색과 생성 과정을 결합한 기법으로, LangChain 내에서 실시간 데이터의 활용성을 높이고, 고급 분석을 가능하게 하는 데 사용됩니다.
  • 상태 관리 (State Management): LangChain에서 사용자와의 대화 상태를 관리하여, 보다 일관된 대화 경험을 제공하기 위해 사용하는 메커니즘입니다. 메모리 기능과 결합되어 대화의 흐름을 유지합니다.
  • 오픈소스: 소스 코드가 공개되어 누구나 사용할 수 있도록 허용되는 소프트웨어 개발 방식으로, LangChain은 이 특성을 바탕으로 사용자와 개발자가 지속적으로 협력하여 발전하고 있습니다.
  • 커뮤니티: LangChain의 발전에 기여하는 사용자들과 개발자들로 구성된 집단으로, GitHub에서 문제 제기, 코드 기여 및 피드백 공유를 통해 프로젝트 개선 및 성장에 기여하고 있습니다.

출처 문서