SK하이닉스 "이달 말 HBM3E 12단 양산…HBM4 최고의 성능낼 것"
2024.09.04 17:31
수정 : 2024.09.04 17:31기사원문
[파이낸셜뉴스] SK하이닉스 김주선 인공지능(AI)인프라 담당(사장)은 4일 "이번달 말부터 고대역폭메모리 5세대(HBM3E) 12단 제품 양산에 돌입할 계획"이라고 밝혔다.
김 사장은 이날 대만 타이베이에서 열린 대만 타이베이에서 개막한 아시아 최대 반도체 행사 '세미콘 타이완 2024'에 참석, 'AI 메모리 기술의 새로운 가능성을 열다'를 주제로 진행한 강연에서 "AI 구현에 적합한 초고성능 메모리 수요가 증가하고 있다"며 "이런 장애물들을 극복하기 위해 SK하이닉스는 현재 HBM3E, 고용량 서버 듀얼 인라인 메모리 모듈(DIMM), 쿼드레벨셀(QLC) 기반 고용량 기업용솔리드스테이트드라이브(eSSD)와 저전력더블데이터레이트(LPDDR)5T를 시장에 공급하고 있다"고 설명했다.
앞서 SK하이닉스는 올 3·4분기 HBM3E 12단 양산 계획을 밝힌 바 있는데, 이보다 구체적인 양산 시점을 공개한 것이다.
김 사장은 AI가 발전해 일반인공지능(AGI) 수준에 다다르기 위해서는 전력과 방열, 메모리 대역폭과 관련된 난제들을 해결해야 한다고 강조했다.
그는 "가장 큰 문제 중 하나는 전력에 대한 것"이라며 "2028년에는 데이터센터가 현재 소비하는 전력의 최소 두 배 이상을 사용할 것으로 추정되며, 충분한 전력 공급을 위해 소형모듈원전 같은 새로운 형태의 에너지가 필요할 수도 있다"고 말했다.
이어 "데이터센터에서 더 많은 전력이 사용되면 비례해서 발생하는 열도 늘어나는 만큼 AI 기술의 지속 발전을 위해서는 열 문제를 해결하기 위한 효과적인 방안을 찾아야 한다"면서 "이를 위해 SK하이닉스는 파트너들과 함께 고용량, 고성능에도 전력 사용량을 최소화해 열 발생을 줄일 수 있는 고효율 AI 메모리 개발을 시도하고 있다"고 전했다.
또 "AI 구현에 적합한 초고성능 메모리 수요가 증가하고 있다"며 "챗GPT가 도입되기 전까지 대역폭과 관련된 문제는 그다지 중요하지 않았으나 AI 기술이 발전할수록 메모리 대역폭 향상에 대한 요구가 점점 더 커지고 있다"고 덧붙였다.
그는 일반 서버와 비교해 AI 서버는 4배 이상의 메모리 용량이 필요한데, 이를 위해 SK하이닉스는 실리콘관통전극(TSV) 기술 기반 서버용 256기가바이트(GB) DIMM을 공급 중"이라며 "또 SK하이닉스는 QLC 기반 고용량 eSSD를 양산하는 유일한 공급업체로, 향후 전력 효율과 공간 최적화에 크게 기여할 120테라바이트(TB) 모델을 선보일 계획이다. 마지막으로 LPDDR5T는 초당 9.6기가비트의 속도로 데이터를 처리하는 온디바이스 AI에 최적화된 제품"이라고 설명했다.
김 사장은 HBM4(HBM 6세대) 등 차세대 제품과 기술 개발도 순조롭게 진행하고 있다고 강조했다.
그는 "베이스다이에 로직 기술을 처음으로 적용하는 HBM4는 TSMC와 협업을 통해 생산할 예정이며 최고의 성능을 발휘하게 될 것"이라며 "저전력 컴프레션 어태치드 메모리 모듈(LPCAMM), 컴퓨트 익스프레스 링크(CXL), 512GB 고용량 DIMM 등 차세대 메모리 제품을 착실히 준비하고 있다"고 전했다.
김 사장은 낸드 분야에서도 SK하이닉스는 최첨단 제품을 지속 개발할 것이라고 했다.
그는 "SK하이닉스는 최대 초당 40기가바이트(Gb)를 지원하는 업계 최고 성능의 그래픽더블데이터레이트(GDDR)7를 양산할 준비가 마무리 단계에 들어섰으며, 혁신적인 대역폭과 전력을 갖춘 LPDDR6도 개발하고 있다"고 했다.
mkchang@fnnews.com 장민권 기자