(출처: 퀄컴)
퀄컴이 헥사곤 NPU 기반의 AI 프로세서인 AI 200과 AI 250 칩을 공개하고 이를 이용한 랙 (rack) 시스템도 함께 공개했습니다. 구체적인 성능과 스펙에 대한 것은 아직 공개되지 않았는데, 흥미로운 사실은 HBM 메모리가 아닌 LPDDR 메모리를 사용한다는 것입니다. 그것도 최대 768GB를 지원한다고 합니다. 최근 인텔 역시 160GB의 LPDDR5x 메모리를 사용하는 AI 칩인 크레센트 아일랜드를 발표한데 이어 퀄컴도 데이터 센터 AI 제품에 LPDDR 메모리를 적용한다고 밝힌 셈입니다.
크레센트 아일랜드: https://blog.naver.com/jjy0501/224042853947
LPDDR 메모리의 장점은 본래 모바일 메모리로 개발되어 저전력이라는 것입니다. 갈수록 전력 소모가 급격히 늘어나는 AI 데이터 센터 입장에서는 반길만한 부분이 있는 셈입니다. 그럼에도 퀄컴의 랙 시스템은 160kW의 전력을 사용하며 수냉 시스템을 사용합니다. LPDDR 메모리의 또 다른 장점은 가격이 상대적으로 저렴하고 HBM 메모리보다 수급이 용이하다는 것입니다.
최근 AI 붐으로 인해 엔비디아가 HBM 메모리를 쓸어담는 중이라 아무래도 주문이 많을 수 없는 퀄컴 입장에서는 HBM 메모리 수급이 쉽지 않을 수 있습니다. 따라서 모바일 용으로 이미 널리 사용되는 LPDDR 메모리가 훨씬 가격 면에서 유리할 것입니다. 다만 메모리 대역폭이 상대적으로 낮은 문제는 해결해야 할 숙제입니다. 768GB까지 메모리를 지원한다는 점으로 봐서 128bit나 192bit가 아닌 훨씬 많은 메모리를 탑재해 이 문제를 극복할 것으로 예상됩니다.
퀄컴의 AI 200과 AI 250은 AI 추론에 특화된 제품으로 알려져 있습니다. AI 데이터 센터에 도전하는 퀄컴이 이번에는 서버 시장에서 자신의 자리를 찾을 수 있을지 주목됩니다.
참고
https://wccftech.com/qualcomm-new-ai-rack-scale-solution-actually-uses-lpddr-mobile-memory-onboard/


댓글
댓글 쓰기