SK하이닉스, 'AI 하드웨어 서밋'서 최신 AiM 솔루션 제시
2024-09-19 김명현 기자
매일일보 = 김명현 기자 | SK하이닉스가 지난 9일부터 나흘간 미국 캘리포니아주 새너제이에서 열린 ‘AI Hardware & Edge AI Summit 2024(이하 AI 하드웨어 서밋)’에 참가했다고 19일 밝혔다. AI 하드웨어 서밋은 글로벌 IT 기업과 유망 스타트업 등이 참가해 최신 기술과 연구 결과를 공유하고 네트워킹을 통해 산업 내 협력 기회를 모색하는 자리다.
회사는 이번 AI 하드웨어 서밋에서 ‘데이터센터부터 엣지 디바이스까지, AI 성능을 가속하는 AiM(Boost Your AI: AiM is What You All Need From Data Center to Edge Device)’이라는 슬로건을 걸고, 가속기 카드인 AiMX 등 AI 시대를 위한 기술을 선보였다. 이번 행사에서 선보인 AiM/AiMX은 최근 비약적으로 발전하고 있는 생성형 AI를 위한 최고의 솔루션으로 회사 측은 설명했다. 생성형 AI에 활용되는 대규모 언어 모델(LLM)의 크기가 지속적으로 증가하고 있으며, 이로 인한 데이터센터의 컴퓨팅 비용 역시 빠르게 상승하고 있다. SK하이닉스는 자사의 AiM이 메모리 내에서 일부 연산을 수행해 기존 메모리 대비 높은 대역폭과 우수한 에너지 효율성을 보이며, LLM 기반의 생성형 AI가 요구하는 높은 컴퓨팅 성능을 더 경제적으로 구현할 수 있게 해준다고 설명했다. 전시 부스에서는 최신 LLM인 ‘Llama3 70B’ 활용해 AiMX의 성능을 시연했다. 이번에 공개된 AiMX는 메모리 용량이 16GB에서 32GB로 기존 대비 두 배 늘어났으며, 여러 데이터 그룹을 동시에 처리하는 기법(Multi-Batch)으로 데이터를 처리해 업계 관계자들의 많은 관심을 받았다. Llama3는 메타의 최신 LLM 모델로 700억개의 매개변수를 가진다. 또 SK하이닉스는 이번 행사에서 데이터센터뿐만 아니라 엣지 디바이스(온디바이스 AI)에도 적용 가능한 AiM 솔루션을 공개했다. 회사는 “기존 엣지 디바이스의 메모리 인터페이스를 변경하지 않고도 성능을 높일 수 있는 것이 이번 솔루션의 강점”이라며 “모바일 D램을 자사의 AiM으로 대체할 경우, 기존 대비 최대 3배 이상의 LLM 속도 향상과 에너지 효율이 기대된다”고 밝혔다. 한편 SK하이닉스는 세션 발표를 통해 AiM 솔루션의 미래 비전도 제시했다. 임의철 부사장은 ‘LLM 서비스의 성능 향상(Accelerating LLM Services from Datacenter to Edge Device)’을 주제로 데이터센터부터 엣지 디바이스까지 AiM 기술이 LLM 서비스를 위한 핵심 솔루션임을 강조했다. 특히 모바일 D램을 기반한 온디바이스 AI용 AiM 제품 개발 계획을 공유하며, 청중들의 이목을 끌었다. SK하이닉스 관계자는 “앞으로도 다양한 AiM 솔루션을 통해 글로벌 기업들과 협력해 차세대 AI 가속기 생태계를 구축하고, 온디바이스 AI 시장에서도 리더십을 강화해 나간다는 계획”이라고 전했다.