Your browser does not support JavaScript!

GPU+HBM 대안 찾기: NPU·LPDDR·TCP로 전환 가속화하는 AI 반도체 시장

일반 리포트 2025년 05월 20일
goover

목차

  1. 요약
  2. GPU 주도 시장과 전력 효율성 이슈
  3. 신경망처리장치(NPU)의 부상
  4. 저전력 D램(LPDDR) 기술을 통한 메모리 대안
  5. TCP 기반 혁신: 퓨리오사AI의 전략
  6. 미래 전망 및 시장 전환 시나리오
  7. 결론

1. 요약

  • AI 반도체 시장은 현재 엔비디아의 GPU와 HBM 조합에 의존하는 구조에서 점차 변화하고 있습니다. 전력 효율성과 공급 병목 문제를 해결하기 위한 대안이 절실히 요구되며, 팹리스 후발주자들은 NPU(신경망처리장치)와 LPDDR(저전력 D램) 등의 기술을 통해 이 시장의 판도를 바꾸고 있습니다. NPU는 특히 선택된 특정 작업에 최적화되어 있어 GPU보다 낮은 전력으로도 높은 성능을 발휘할 수 있습니다. 예를 들어, 리벨리온이 시장에 선보일 NPU '리벨'은 대규모 언어 모델 지원을 통해 AI 기술의 혁신을 이끌 것으로 예상됩니다. 이러한 개발은 NPU가 AI 반도체 시장에서 중요성을 더욱 강조하는 사례로 주목받고 있습니다.

  • 그뿐만 아니라, 저전력 D램 기술은 기존 HBM에 대한 의존도를 줄이고 AI 연산의 성능을 개선하는 데 기여하고 있습니다. 삼성전자의 LPDDR5X와 SK하이닉스의 LPDDR6는 이러한 변화의 일환으로, 더 높은 대역폭과 전력 효율성을 통해 AI 서비스의 실용성을 높일 예정입니다. 메모리 업체들은 LPDDR 기술을 활용해 AI 반도체 기술의 저변을 넓히기 위해 적극적으로 투자하고 있으며, 이는 공급망 병목 문제를 완화하는 데도 기여할 것입니다.

  • 퓨리오사AI의 TCP(텐서 축약 프로세서) 기술 또한 주목받고 있습니다. 이 기술은 전통적인 GPU의 한계를 극복하고, AI 연산에서의 전력 효율성을 극대화하는 데 중점을 두고 설계되었습니다. TCP 기술은 AI 시장에서 새로운 경쟁 환경을 조성하고 있으며, 기업들이 향후 연구 개발에서 더욱 주목해야 할 방향성을 제시하고 있습니다. 시장은 현재 성장을 거듭하고 있으며, 향후 기술 발전의 양상을 지켜보는 것이 중요합니다.

2. GPU 주도 시장과 전력 효율성 이슈

  • 2-1. GPU 의존도 문제

  • AI 반도체 시장은 최근 몇 년 동안 엔비디아의 GPU와 HBM의 조합에 의존해 왔습니다. 그 결과, 이 조합은 전 세계 AI 연산 처리에서 매우 중요한 역할을 하게 되었지만, 동시에 몇 가지 중요한 문제점도 노출되었습니다. 특히, GPU는 AI 연산의 높은 성능을 제공하는 대신, 대규모 배치 처리에서의 전력 소비량이 상당히 높아지는 문제가 발생했습니다. 엔비디아의 H100 GPU는 1개당 연간 3.7MWh의 전력을 소비하며, 연간 350만 개가 판매될 경우 총 전력 소비량이 130 TWh에 이릅니다. 이는 한국의 연간 전력 사용량의 약 25%에 해당하는 수치로, 전력 공급의 지속 가능성에 대한 우려를 낳았습니다.

  • 이러한 GPU 의존은 데이터 센터의 전력 수요가 급증함에 따라 AI 기술 발전에 대한 제약 요인으로 작용할 수 있습니다. 마크 저커버그 메타 CEO와 일론 머스크 테슬라 CEO는 각각 AI 산업의 성장은 전력 공급의 여건에 달려 있다고 지적했으며, 이러한 전력 효율성 문제는 이제 AI 반도체 시장의 지속 가능성을 위해 반드시 해결해야 할 과제가 되었습니다.

  • 2-2. 전력 효율성 경쟁

  • GPU의 높은 전력 소비 문제를 해결하기 위한 대안으로, 인텔과 같은 업체들은 전력 효율성을 확보하기 위한 혁신적인 전략을 취하고 있습니다. 인텔의 가우디3 AI 반도체는 H100 GPU에 비해 전력 효율성을 개선할 수 있는 가능성을 제시하며, 최대 2배의 전력 효율을 자랑합니다. 특히, 가우디2나 가우디3가 훈련 및 추론 처리에서 최고의 성능을 보여줄 수 있도록 설계되었다는 점은 주목할 만합니다.

  • 따라서 현재 AI 반도체 시장에서는 단순한 성능 경쟁이 아닌 전력 효율성 경쟁이 새로운 패러다임으로 자리잡고 있으며, 앞으로의 AI 기술 발전 방향을 결정짓는 중요한 요소로 작용할 것입니다. 전력 효율성 개선이 가져올 수 있는 비용 절감 효과 또한 기업들에게 더욱 중요해지고 있습니다.

  • 2-3. 공급망 병목 현상

  • 엔비디아의 GPU 품귀 현상은 공급망 병목 현상을 불러일으켰습니다. AI 반도체의 수요가 급증하면서 소프트웨어 개발자들은 GPU를 긴 대기 시간을 두고 조달해야 하는 상황에 놓이게 되었습니다. 이는 AI 산업이 겪는 공급망 문제를 더욱 심화시켰습니다. 테크 기업들은 GPU를 확보하기 위해 대규모 투자 계획을 세우고 있지만, 이런 과도한 수요가 공급망 전반에 미치는 영향은 경제 전반에 있어 여전히 우려스러운 상황으로 남아 있습니다.

  • 이러한 병목 현상은 AI 기술의 발전에 발목을 잡는 요소로 작용하고 있으며, 공급망의 다양화와 함께 혁신적인 대체 기술들이 요구되고 있습니다. 기업들은 기존 GPU 의존에서 벗어나 LPDDR와 같은 저전력 메모리 기술이나 NPU와 같은 새로운 반도체 기술 개발에 집중함으로써 이러한 공급망 문제를 해결하고 있습니다.

3. 신경망처리장치(NPU)의 부상

  • 3-1. NPU 개발 동향

  • 신경망처리장치, 흔히 NPU라고 불리는 이 기술은 최근 AI 반도체 시장에서 핵심적인 역할을 부각하고 있다. NPU는 인공지능의 학습과 추론을 효율적으로 수행하기 위해 설계된 칩으로, 인간의 두뇌를 모방한 구조로 정보를 처리한다. 전통적으로 GPU가 AI 학습에 최적화되어 있었으나, NPU는 주로 추론 작업에 적합하도록 설계되었다. 특히, NPU는 특정 작업에 특화되어 있어 GPU보다 훨씬 낮은 전력 소모로 데이터를 처리할 수 있다. 이는 AI 서비스의 대중화가 필요한 오늘날, 더욱 중요한 요소로 작용하고 있다.

  • 현재 많은 팹리스 후발주자들이 추론용 NPU를 개발하고 있으며, 이는 AI 반도체 시장의 판도를 변화시키고 있다. 예를 들어, 리벨리온은 올해 NPU ‘아톰’의 양산을 성공적으로 마쳤고, 곧 대규모 언어 모델(LLM)을 지원하는 다음 세대 NPU ‘리벨’을 출시할 예정이다. 이러한 개발은 NPU의 시장 경쟁력을 높이는 좋은 사례로 손꼽힌다. 또 다른 사례로는 모빌린트와 퓨리오사AI가 있으며, 이들은 각각 NPU의 출시를 위한 연구 및 개발에 한창이다. 이처럼 NPU의 빠른 개발 속도는 AI 반도체 시장에서 신선한 바람을 불어넣고 있다.

  • 3-2. 팹리스 스타트업 사례

  • 팹리스(Fabless) 기업들은 NPU 개발의 최전선에 위치하고 있다. 이들 스타트업은 GPU에 대한 의존도를 줄이고 독자적인 기술 개발에 힘쓰고 있다. 예를 들어, SK텔레콤 자회사인 사피온은 특정 AI 서비스에 최적화된 NPU 기술을 바탕으로 AI 연산을 실시간으로 수행할 수 있는 솔루션을 제공하고 있다. 이러한 움직임은 전통적인 반도체 제조 방식과는 다른 신속한 개발과 적시 납품이 가능한 구조를 구축하고 있음을 의미한다.

  • NPU 시장의 향후 전망은 상당히 밝다. 예를 들어, 한국수출입은행 해외경제연구소의 저명한 연구원은 추론에 기반한 AI 서비스의 수요가 증가함에 따라 NPU의 필요성이 더욱 커질 것이라는 예측을 밝혔다. 이처럼 팹리스 스타트업들은 NPU에서의 기술을 통해 시장에서의 입지를 강화하고 있으며, 전 세계 AI 반도체 시장에서 중요한 플레이어로 부상하고 있다.

  • 이외에도 그래프코어와 세레브라스와 같은 글로벌 기업들도 NPU의 상용화에 나서고 있으며, 이들은 타겟 시장의 다양한 요구에 맞춘 최적화된 솔루션을 제공하고 있다. 따라서, NPU는 AI 기술 발전의 중추적인 역할을 수행하는 만큼, 향후 더 많은 혁신이 예상된다.

  • 3-3. 시장 수요 전망

  • NPU의 수요는 현재 급격하게 증가하고 있으며, 이는 추론용 AI 반도체 시장의 전반적인 상승세와 맞물려 있다. 업계 전문가들은 AI 반도체의 수요가 GPU 중심에서 NPU 중심으로 이동할 것으로 내다보고 있다. 한국수출입은행의 보고서에 따르면, 2023년 엔비디아의 데이터센터 사업 매출의 상당 부분이 추론에서 발생했으며, 이는 AI 서비스의 확산이 추론용 칩에 대한 수요를 증대시킬 것임을 시사한다.

  • NPU의 저렴한 가격 역시 시장 수요를 자극하는 중요한 요소다. NPU는 일반적으로 GPU보다 가격이 10배 저렴하며, 이는 기업들이 AI 솔루션을 보다 경제적으로 구축할 수 있도록 해준다. 또한 NPU는 설계 단계에서 특정 용도에 최적화되기 때문에 전기 소모가 적고 효율성이 높아, 전력 비용을 절감할 수 있는 장점이 있다.

  • 결과적으로, NPU의 시장 수요 전망은 매우 긍정적이며, 이는 AI 기술이 더욱 보편화됨에 따라 더욱 강화될 것이다. 반도체 업계 종사자뿐만 아니라 기술 기업들도 이러한 변화에 적극적으로 대응하기 위해 NPU 기술 개발에 투자하고 있다. 따라서 NPU의 부상은 앞으로의 AI 반도체 시장에서 중요한 트렌드로 자리 잡을 것으로 예상된다.

4. 저전력 D램(LPDDR) 기술을 통한 메모리 대안

  • 4-1. HBM 대체 저전력 D램

  • 고대역폭메모리(HBM)는 AI 반도체의 성능을 좌우하는 중요한 요소 중 하나로, 엔비디아 GPU와 같은 강력한 처리 능력을 지원하기 위해 설계되었습니다. 하지만 HBM은 생산 비용이 높고 에너지 소모가 커서 전력 효율성이 중요한 환경에서는 문제로 작용할 수 있습니다. 이러한 단점을 극복하기 위해 저전력 D램(LPDDR) 기술이 주요 대안으로 각광받고 있습니다. LPDDR는 메모리의 전력 소비를 최소화하는 특징을 가지고 있어, 모바일 기기와 같은 전원 관리가 중요한 상황에서 유리합니다. LPDDR는 특히 스마트폰, 노트북, 그리고 엣지 디바이스와 같은 저전력을 요구하는 응용 분야에서 점차 HBM을 대체하는 방향으로 나아가고 있습니다. 최근 삼성전자가 개발한 LPDDR5X는 초소형 패키지로도 높은 성능을 유지하며, SK하이닉스는 LPDDR6를 통해 더욱 혁신적인 대역폭과 전력 효율성을 목표로 하고 있습니다. 이처럼 LPDDR의 발전은 AI 반도체 시장에서 HBM의 절대적 지배력을 약화시키는 데 큰 기여를 하고 있습니다.

  • 4-2. LPDDR 기술 현황

  • 현재 LPDDR 기술은 급속히 발전하고 있으며, 다양한 세대의 LPDDR이 상용화되고 있습니다. 예를 들어, 삼성전자는 2024년 중 LPDDR5X D램을 양산하면서 더욱 강화된 성능과 전력 효율성을 자랑하고 있습니다. 이 제품은 고속 데이터 전송 능력을 갖추고 있으며, 다양한 엣지 디바이스 및 AI 반도체에 탑재되고 있습니다. SK하이닉스 또한 최신 기술을 적용하여 LPDDR5T와 LPDDR6을 개발 중이며, 이 제품들은 앞으로 AI 서비스의 성능을 더욱 높일 것으로 기대되고 있습니다. 특히, LPDDR 기술의 발전에 따라 기존 HBM 의존도를 줄일 수 있는 가능성이 열리고 있으며, 메모리 반도체 시장의 경쟁이 심화될 것으로 보입니다.

  • 4-3. 메모리 업체 움직임

  • 메모리 반도체 기업들은 LPDDR 기술에 대한 관심을 더욱 높이고 있으며, 다양한 개발 및 양산 활동을 통해 시장에서 경쟁력을 강화하고 있습니다. 예를 들어, 퓨리오사AI는 LPDDR을 탑재한 NPU 기반의 엣지 디바이스 개발에 박차를 가하고 있으며, 이러한 제품들이 시장에 등장함에 따라 저전력 D램 사용이 한층 증가할 것으로 예측됩니다. 또한, 삼성전자는 네이버와 협력하여 NPU 기반 AI 가속기인 '마하1'에 HBM 대신 LPDDR을 적용하기로 했습니다. 이는 LPDDR 기술이 향후 AI 반도체 시장의 핵심 요소로 자리 잡는 데 기여할 것으로 보입니다.

5. TCP 기반 혁신: 퓨리오사AI의 전략

  • 5-1. TCP 기술 개념

  • 텐서 축약 프로세서(TCP, Tensor Contraction Processor)는 AI 연산 및 데이터 처리를 위해 설계된 새로운 형태의 프로세서입니다. TCP 기술은 기존의 GPU가 갖고 있는 전력 효율성과 성능의 한계를 극복하기 위해 고안되었습니다. 전통적인 GPU는 범용성과 뛰어난 처리 성능을 제공하지만, 전력 소모가 크고 특정 AI 작업에서 병목 현상이 발생하는 등의 문제를 가지고 있습니다. TCP는 이러한 병목 현상을 해소하기 위해 텐서 축약이라는 개념을 도입했습니다.

  • 텐서 축약은 다차원 배열인 텐서의 차원을 줄이는 과정으로, 데이터의 효율적인 처리를 가능하게 합니다. TCP는 이 텐서를 직접 처리하며, 효율적인 데이터 재사용 및 병렬 처리를 통해 인공지능 알고리즘을 보다 빠르고 저렴하게 실행할 수 있도록 설계되었습니다.

  • 5-2. CUDA와의 비교

  • CUDA(Compute Unified Device Architecture)는 NVIDIA가 개발한 GPU 기반의 병렬 컴퓨팅 플랫폼으로, 고성능의 범용 계산이 가능합니다. CUDA는 개발자들이 GPU의 강력한 성능을 활용하여 다양한 계산 작업을 수행할 수 있도록 하고, 이러한 기술 발달은 GPGPU(General-Purpose computing on Graphics Processing Units)라는 새로운 영역을 열었습니다.

  • 반면, TCP는 특정 AI 작업에 최적화된 아키텍처를 제공하여 전력 효율성을 극대화합니다. 즉, CUDA 기반의 GPU에서는 데이터를 처리하는 데 있어 고강도의 전력 소모가 따르는 반면, TCP는 동일한 작업을 수행할 때 훨씬 더 적은 전력 소모를 통해 높은 성능을 이끌어 낼 수 있습니다. TCP는 특히 심화학습 및 큰 데이터셋을 처리하는 인공지능 애플리케이션에 최적화되어 있어, 다양한 형태의 연산을 신속하게 수행할 수 있습니다.

  • 5-3. 퓨리오사AI 전략

  • 퓨리오사AI는 TCP를 중심으로 인공지능 반도체 시장에서의 우위를 점하기 위한 전략을 구상하고 있습니다. 오는 8월 출시 예정인 2세대 반도체 ‘레니게이드(RNGD)’가 그 주인공입니다. 이 제품은 TCP를 적용하여 다양한 AI 작업을 동시에 수행할 수 있는 다목적 NPU로 발전시켰습니다. 퓨리오사AI는 텐서 축약을 통해 메모리 대역폭의 효율성도 높이고, 전력 소모를 줄여 AI 계산의 저변을 넓히는 것이 목표입니다.

  • 또한, 퓨리오사AI는 장기적으로는 다양한 AI 응용 프로그램에 TCP를 통합하고, 산업 전반에 걸쳐 그 활용성을 높이기 위해 개발력을 집중하고 있습니다. 최근 ISCA(International Symposium on Computer Architecture)에서 TCP 관련 연구 결과와 기술을 발표하며 업계의 주목을 받고 있으며, 이 기술이 AI 반도체 시장의 패러다임 전환을 이끌 것으로 기대하고 있습니다.

6. 미래 전망 및 시장 전환 시나리오

  • 6-1. 시장 전환 가속 요인

  • AI 반도체 시장의 혁신적인 변화는 여러 요인에 의해 가속화되고 있습니다. 첫째로, 엔비디아의 GPU와 HBM 조합에 대한 의존도가 높아짐에 따라 이로 인한 전력 소모 및 공급 부족 문제는 더욱 두드러지고 있습니다. 이러한 문제는 대체 기술의 필요성을 더욱 부각시키고 있으며, 팹리스 후발주자들은 NPU와 같은 신경망 처리 장치를 통해 이러한 틈새를 공략하고 있습니다.

  • 둘째, 저전력 D램(LPDDR) 기술의 발전도 시장 전환을 가속화하는 중요한 요소로 작용하고 있습니다. HBM 대신 LPDDR이 점차 AI 관련 장치에 탑재되면서, 전력 소모를 최소화하면서도 성능을 유지할 수 있는 가능성이 제시되고 있습니다.

  • 셋째, 퓨리오사AI의 텐서 축약 프로세서(TCP)의 등장은 AI 반도체 시장에 새로운 바람을 일으키고 있습니다. TCP는 기존 GPU의 한계를 극복하고, 전력 효율성과 성능을 동시에 확보할 수 있는 기술로 평가받고 있으며, 이러한 경쟁 기술들은 시장 경쟁 구도를 다각화하는 데 기여하고 있습니다.

  • 6-2. 향후 기술 경쟁 구도

  • 앞으로의 기술 경쟁은 NPU와 GPU 간의 경합을 중심으로 진행될 것으로 보입니다. NPU는 특정 AI 작업에 최적화된 설계로서, 전력 효율과 비용 절감 측면에서 장점을 가지고 있어 여러 기업들이 이에 대한 투자를 늘리고 있습니다. 반면, GPU는 여전히 범용성이 뛰어나기 때문에 학습용 및 다양한 데이터 처리에 강점을 유지할 것입니다. 이러한 구도 속에서, 두 기술 간의 협력이나 기능적 융합이 발생할 가능성도 존재합니다.

  • 또한, D램 시장에서는 LPDDR의 증대된 사용이 예상되며, 이를 이용한 메모리 반도체 기업들이 GPU 대비 경쟁력을 갖추기 위한 연구개발에 더욱 집중할 것입니다. 예를 들어, 삼성전자와 SK하이닉스는 LPDDR 기술의 발전을 통해 가격과 성능 경쟁력을 동시에 확보하려고 할 것으로 보입니다.

  • 한편, TCP와 같은 혁신적인 기술이 시장에 등장함에 따라, GPU에 의존하던 AI 반도체 시장이 다각화될 것이며, 이는 기업들의 포트폴리오 다양화를 더욱 가속화할 전망입니다.

  • 6-3. 전략적 시사점

  • AI 반도체 시장의 변동성이 커짐에 따라 기업과 투자자들은 기술의 성숙도와 파트너십 가능성을 신중히 평가해야 합니다. 특히, NPU와 TCP 기반의 반도체는 특정 도메인에 특화된 솔루션을 제공할 수 있는 반면, GPU는 보다 범용적인 솔루션을 제공하기 때문에, 각 기술의 장단점을 파악하여 적절한 전략을 세울 필요가 있습니다.

  • 또한, 신생 기업들은 기존 GPU 생태계로부터 독립적인 기술 개발 및 협력을 통해 새로운 시장을 창출할 수 있는 가능성을 모색해야 합니다. 시장의 다양성이 높아짐에 따라 사용자의 요구도 더욱 세분화될 것이므로, 맞춤형 솔루션에 대한 수요가 증가할 것으로 예상됩니다.

  • 결론적으로, AI 반도체 기술이 진화함에 따라 시장 전환은 불가피해 보이며, 이러한 변화에 적극적으로 대응하는 기업이 미래 시장에서 성공할 가능성이 높아질 것입니다.

결론

  • AI 반도체 시장은 한계에 직면하면서 이제는 다변화된 기술혁신의 필요성이 더욱 절실해지고 있습니다. GPU와 HBM의 조합에 대한 의존도가 떨어지면서 NPU와 LPDDR과 같은 대체 기술들이 시장 내에서 중요한 역할을 수행하게 되었습니다. 특히, NPU는 형성된 AI 연산의 전선에서 하늘을 찌르는 수요를 충족시키기 위해 필수불가결한 기술로 자리잡았고, 이는 추론 및 실시간 처리의 필수 요소로 여겨지고 있습니다. 또한, 저전력 D램 기술의 발전은 비용 절감과 전력 효율성 향상을 통해 메모리 산업의 경쟁을 심화시키며, 시장 참여자들이 기술 개발에 몰두하도록 자극하고 있습니다.

  • 반면, 퓨리오사AI의 TCP는 인공지능 반도체 시장의 패러다임을 변화시키며, 향후 AI 시장의 전력을 더욱 효율적으로 활용할 수 있는 기반이 되어줄 전망입니다. 기업들은 기술 성숙도를 고려하고, 서로 간의 협력을 통해 새로운 사업 기회를 모색해야 하며, 반드시 향후 기술 변화에 유연하게 대응하기 위한 전략을 수립해야 합니다. 가장 중요한 것은 전력 효율, 생태계 개방성 및 제품 검증 속도가 AI 반도체 시장에서 경쟁력을 좌우할 앞으로의 시장 방향성을 결정짓는 핵심 요소가 될 것이라는 점입니다.

용어집

  • NPU: 신경망처리장치(Neural Processing Unit, NPU)는 인공지능의 학습과 추론을 효율적으로 수행하기 위해 설계된 반도체 칩으로, 전통적인 GPU에 비해 특정 작업에 최적화되어 낮은 전력 소모로 높은 성능을 발휘합니다. 최근 AI 반도체 시장에서 중요한 역할을 맡고 있으며, 팹리스 기업들이 활발히 개발하고 있습니다.
  • LPDDR: 저전력 D램(Low Power Double Data Rate, LPDDR)은 메모리 기술의 일종으로, 전력 소모를 최소화하여 모바일 기기와 같은 저전력 환경에 적합하도록 설계되었습니다. 최근 삼성전자의 LPDDR5X와 SK하이닉스의 LPDDR6가 시장에서 큰 주목을 받고 있습니다.
  • TCP: 텐서 축약 프로세서(Tensor Contraction Processor, TCP)는 AI 연산과 데이터 처리를 위한 새로운 형태의 프로세서로, 기존 GPU의 전력 효율성 문제를 해결하기 위해 설계되었습니다. 텐서 축약 기술을 통해 데이터 처리의 효율성을 극대화하며, 특정 AI 작업에 최적화되어 높은 성능을 발휘할 수 있습니다.
  • HBM: 고대역폭 메모리(High Bandwidth Memory, HBM)는 AI 반도체의 성능을 좌우하는 핵심 메모리 기술로, 엔비디아 GPU와 같은 고성능 처리에 사용됩니다. 그러나 높은 생산 비용과 에너지 소모로 인해 저전력 대안이 필요한 상황에서 주목받고 있습니다.
  • GPU: 그래픽 처리 장치(Graphics Processing Unit, GPU)는 데이터의 병렬 처리를 전문으로 수행하는 프로세서로, 본래 그래픽 연산을 위해 개발되었지만 현재는 인공지능 학습 및 추론 작업에서도 널리 사용됩니다. 엔비디아의 GPU는 AI 반도체 시장에서 가장 많이 사용되는 제품 중 하나입니다.
  • 팹리스: 팹리스(Fabless) 기업은 반도체 제조 공정을 소유하지 않고 설계 및 마케팅에만 집중하는 기업을 의미합니다. 이러한 기업들은 혁신적인 기술 개발에 집중하여 NPU와 같은 새로운 반도체 기술을 시장에 선보이고 있습니다.
  • CUDA: CUDA(Compute Unified Device Architecture)는 NVIDIA가 개발한 프로그래밍 언어이자 API로, GPU의 강력한 병렬 처리 성능을 활용하여 다양한 계산 작업을 수행할 수 있게 해줍니다. AI 및 기계 학습 등 여러 분야에서 활용되고 있습니다.

출처 문서