SK하이닉스가 세계 최초로 인공지능(AI)용 초고성능 고대역폭 메모리(HBM4) 개발을 마무리하고 양산 체제를 구축했다고 12일 밝혔다.
HBM은 D램 여러 개를 수직으로 쌓아 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치·고성능 제품이다. AI 수요의 폭발적 증가로 인기가 치솟은 엔비디아의 AI 칩에 붙어 데이터를 빠른 속도로 저장 및 처리해주는 역할을 한다. SK하이닉스는 엔비디아에 현재 시장 주류인 5세대 HBM3E을 공급해왔다.
이번에 개발이 완료된 HBM4는 이전 세대인 HBM3E보다 2배 늘어난 2048개 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율을 40% 이상 끌어올린 것이 특징이다. SK하이닉스는 이를 통해 세계 최고 수준의 데이터 처리 속도와 전력 효율을 실현했다고 설명한다.
데이터 처리량이 빠르게 증가하는 데다 데이터센터는 막대한 전력을 소모하는 만큼 메모리의 전력 효율 확보는 중요한 요소로 꼽혀왔다. SK하이닉스는 이 제품을 고객 시스템에 도입할 경우 AI 서비스 성능을 최대 69%까지 높일 수 있어 데이터 병목 현상을 해소하면서 데이터센터 전력 비용도 크게 낮출 수 있을 것으로 기대한다.
개발을 이끈 SK하이닉스 조주환 부사장은 “HBM4 개발 완료는 업계에 새로운 이정표가 될 것”이라고 “고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입을 실현할 것”이라고 밝혔다.
HBM4은 10Gbps(초당 10기가비트) 이상의 동작 속도를 구현, 국제반도체표준현의기구(JEDEC)의 HBM4 표준 동작 속도(8Gbps)를 뛰어 넘었다.
SK하이닉스는 HBM4 개발에 자체 어드밴스드 MR-MUF 공정과 10나노급 5세대(1bnm) D램 기술을 적용해 양산 과정의 리스크도 최소화했다. MR-MUF 공정은 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호제를 공간 사이에 주입하고 굳이는 공정이다. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고 열 방출에도 효과적이라는 평가를 받는다.
SK하이닉스 김주선 AI 인프라 사장은 “이번 HBM4는 AI 인프라의 한계를 뛰어넘는 상징적인 전환점이나 AI 시대 기술 난제를 해결할 핵심 제품”이라며 “SK하이닉스는 AI 시대가 요구하는 최고 품질과 다양한 성능의 메모리를 적시에 공급해 풀 스택 AI 메모리 프로바이더로 성장해가겠다”고 말했다.