npu

1 개의 포스트

* Option 1 (새 탭에서 열림)

Coral NPU는 저전력 엣지 기기와 웨어러블 장치에서 상시 가동되는 AI를 구현하기 위해 설계된 오픈소스 풀스택 플랫폼입니다. 구글 리서치와 구글 딥마인드가 공동 설계한 이 플랫폼은 기존 클라우드 기반 모델의 한계를 넘어 개인정보 보호와 성능, 그리고 하드웨어 파편화 문제를 동시에 해결하고자 합니다. 이를 통해 스마트 워치나 AR 글래스 같은 배터리 제한적인 기기에서도 효율적인 온디바이스 AI 경험을 제공할 수 있는 기반을 마련했습니다. **엣지 AI 도입의 주요 장벽** * **성능 및 전력 격차:** 최신 ML 모델은 높은 연산력을 요구하지만, 엣지 기기는 전력, 발열, 메모리 자원이 극도로 제한되어 있어 클라우드 없이 실행하기 어렵습니다. * **소프트웨어 파편화:** 다양한 독자적 프로세서에 맞춰 모델을 컴파일하고 최적화하는 과정이 복잡하고 비용이 많이 들어, 기기 간 일관된 성능 유지가 어렵습니다. * **사용자 신뢰와 보안:** 진정한 개인 맞춤형 AI를 위해서는 개인 데이터를 클라우드로 전송하지 않고 기기 로컬 내에서 안전하게 처리하는 환경이 필수적입니다. **AI 우선주의 하드웨어 아키텍처** * **설계의 역발상:** 전통적인 CPU 중심 설계 대신 ML 매트릭스 엔진을 최우선으로 배치하여, 실리콘 단계부터 AI 추론 효율성을 극대화하도록 재설계되었습니다. * **RISC-V 기반 IP 블록:** 개방형 표준인 RISC-V ISA를 준수하는 아키텍처를 통해 SoC 설계자가 설계를 자유롭게 수정하거나 확장할 수 있는 유연성을 제공합니다. * **초저전력 고성능:** 수 밀리와트(mW) 정도의 전력만 소모하면서도 약 512 GOPS(Giga Operations Per Second)의 성능을 제공하여 상시 주변 감지(Ambient sensing)가 가능합니다. **Coral NPU의 핵심 구성 요소** * **스칼라 코어(Scalar Core):** 데이터 흐름을 관리하는 경량 RISC-V 프런트엔드로, 초저전력 구동을 위해 단순한 실행 모델을 채택하고 전통적인 CPU 기능을 수행합니다. * **벡터 실행 유닛(Vector Unit):** RISC-V 벡터 명령어 세트(RVV v1.0)를 준수하는 SIMD 코프로세서로, 대규모 데이터 세트를 동시에 처리하는 능력을 갖췄습니다. * **매트릭스 실행 유닛(Matrix Unit):** 신경망 연산의 핵심인 양자화된 외적 곱셈-누산(MAC)을 가속하기 위해 특별히 설계된 엔진으로, 현재 개발 중이며 곧 오픈소스로 공개될 예정입니다. **통합된 개발자 경험 및 소프트웨어 스택** * **유연한 프레임워크 지원:** TensorFlow, JAX, PyTorch 등의 모델을 IREE나 TFLM 같은 현대적 컴파일러를 통해 쉽게 배포할 수 있는 환경을 제공합니다. * **MLIR 기반 도구 체인:** StableHLO와 MLIR 포맷을 활용하여 모델을 효율적으로 변환하고, 시뮬레이터와 커스텀 커널을 통해 최적화된 경로를 지원합니다. * **C언어 프로그래밍 가능:** 하드웨어 가속기임에도 개발자가 익숙한 C언어로 프로그래밍할 수 있어 하드웨어의 강점을 활용하면서도 개발 난이도를 낮췄습니다. Coral NPU는 하드웨어 설계자에게는 확장 가능한 참조 아키텍처를, 소프트웨어 개발자에게는 파편화되지 않은 통합 도구를 제공합니다. 배터리 소모를 최소화하면서도 강력한 AI 기능을 구현하고자 하는 제조사나 개발자라면 구글이 공개한 문서와 깃허브(GitHub)의 오픈소스 도구를 통해 차세대 온디바이스 AI 기기 개발을 시작해 볼 수 있습니다.