‘AI 하드웨어 서밋’에 전시된 SK하이닉스 AiM 칩과 AiMX 카드 [SK하이닉스 제공]
[헤럴드경제=김민지 기자] SK하이닉스가 지난 9일부터 나흘간 미국 캘리포니아주 새너제이(San Jose)에서 열린 ‘AI 하드웨어 & 엣지 AI 서밋 2024(이하 AI 하드웨어 서밋)’에 참가했다고 19일 밝혔다. AI 하드웨어 서밋은 글로벌 IT 기업과 유망 스타트업 등이 참가해 최신 기술과 연구 결과를 공유하고 네트워킹을 통해 산업 내 협력 기회를 모색하는 자리다.
이번 서밋에서 SK하이닉스는 ‘데이터센터부터 엣지 디바이스까지, AI 성능을 가속하는 AiM’이라는 슬로건을 걸고, 가속기 카드인 AiMX 등 AI 시대를 위한 기술을 선보였다.
AiM과 AiMX은 생성형 AI를 위한 최고의 솔루션으로 꼽힌다. AiM은 SK하이닉스의 PIM(프로세스 인 메모리) 반도체 제품명으로, PIM은 메모리 반도체에 연산 기능을 더해 데이터 이동 병목현상을 개선시킨 차세대 기술이다. AiMX(AiM based Accelerator)는 GDDR6-AiM 칩을 사용해 대규모 언어 모델(LLM)에 특화된 가속기 카드 제품을 의미한다. SK하이닉스는 자사 AiM이 기존 메모리 대비 높은 대역폭과 우수한 에너지 효율성을 보이며, LLM 기반의 생성형 AI가 요구하는 높은 컴퓨팅 성능을 더 경제적으로 구현할 수 있게 해준다고 설명했다.
‘AI 하드웨어 서밋’에 설치된 SK하이닉스 부스 모습 [SK하이닉스 제공]
전시 부스에서는 최신 LLM인 ‘라마(Llama)3 70B’ 활용해 AiMX의 성능을 시연했다. 이번에 공개된 AiMX는 메모리 용량이 16GB에서 32GB로 기존 대비 두 배 늘어 났으며, 여러 데이터 그룹을 동시에 처리하는 기법인 멀티 배치(Multi-Batch)로 업계 관계자들의 많은 관심을 받았다.
또한, SK하이닉스는 이번 행사에서 엣지 디바이스(온디바이스 AI)에도 적용 가능한 AiM 솔루션을 공개했다. 회사는 “기존 엣지 디바이스의 메모리 인터페이스를 변경하지 않고도 성능을 높일 수 있는 것이 이번 솔루션의 강점”이라며 “모바일 D램을 자사의 AiM으로 대체할 경우, 기존 대비 최대 3배 이상의 LLM 속도 향상과 에너지 효율이 기대된다”고 밝혔다.
임의철 SK하이닉스 솔루션AT 담당 부사장은 세션 발표를 통해 ‘LLM 서비스의 성능 향상(Accelerating LLM Services from Datacenter to Edge Device)’을 주제로 데이터센터부터 엣지 디바이스까지 AiM 기술이 LLM 서비스를 위한 핵심 솔루션임을 강조했다. 특히 모바일 D램을 기반한 온디바이스 AI용 AiM 제품 개발 계획을 공유하며, 미래 비전을 제시했다.
jakmeen@heraldcorp.com