실시간 뉴스



[박래혁의 테크리퍼블릭] HBF, 메모리가 꿈꾸는 혁신


[박래혁의 테크리퍼블릭] AI의 대확산 속에서 그야말로 HBM(고대역폭메모리, High Bandwidth Memory)의 역할은 빛났다.

HBM은 메모리의 발전 형태로 D램을 수직으로 적층하여 AI 컴퓨팅의 성능을 최적화하는데 필수적이었기 때문이었다. 단연코 GPU(그래픽처리장치)-HBM 조합은 AI 시대의 주인공들이었다.

SK하이닉스의 HBM4 제품. [사진=SK하이닉스]

이제 메모리는 HBM에서 다시금 진화하여 새로운 혁신을 잉태하려 한다. 바로 ‘HBF(고대역폭플래시, High Bandwidth Flash)’.

HBM은 AI 모델 크기와 처리해야 할 데이터 규모가 기하급수적으로 증가함에 따라 GPU의 연산 능력만으로는 성능 향상을 유지하기 어려운 구조적 한계가 드러나고 있다.

GPU의 연산속도는 빠르게 개선되고 있지만, 메모리 전송속도는 이를 따라가지 못해 전체 파이프라인에서 심각한 병목현상이 발생하고 있다.

현재 AI 시스템에서 GPU가 실제 연산에 사용하는 시간은 전체의 20~30%에 불과하며, 나머지는 필요한 데이터를 기다리는 데 소요된다고 알려져 있다.

이러한 문제를 해결하기 위해 등장한 기술이 바로 HBF로, HBM과 함께 차세대 AI 메모리 시장을 구성할 핵심 축으로 주목받고 있다.

HBF는 대용량이지만 상대적으로 느린 낸드 플래시를 HBM처럼 3차원으로 적층하고 TSV(관통전극) 기술을 적용해 GPU 바로 옆에서 고대역폭 데이터 공급이 가능하도록 설계된 새로운 형태의 메모리다.

기존 HBM이 초고속 데이터 접근을 담당하는 ‘수도꼭지’ 역할을 수행한다면, HBF는 10~100배에 달하는 압도적인 저장 용량을 제공하는 ‘대규모 저수지’ 역할을 수행하게 된다.

이는 기존 데이터센터에서 네트워크를 통해 데이터를 전달받던 구조를 근본적으로 바꾸어 GPU 부근에서 대규모 데이터 처리가 가능해지는 효과를 만들어낸다.

삼성전자 'QLC 9세대 V낸드' 제품 이미지. [사진=삼성전자]

특히 AI 추론 단계에서의 효율성 향상은 HBF의 가장 큰 강점으로 꼽힌다. 초거대 모델들은 훈련 단계에서는 상대적으로 높은 속도를 요구하지만, 추론 단계에서는 대량의 정적인 데이터를 반복적으로 참조하는 특성이 강하다.

이때 HBF는 낸드 기반의 대용량 구조로 인해 HBM 대비 훨씬 큰 데이터 풀을 GPU에 가까운 위치에서 제공할 수 있고, 결과적으로 AI 추론 시스템의 비용·성능·전력 효율을 동시에 개선하는 역할을 수행하게 된다.

HBF가 빠르게 발전할 수 있는 중요한 이유는 기존의 HBM 개발 과정에서 축적된 기술인프라를 상당 부분 공유하기 때문이다.

TSV, 웨이퍼 본딩, 적층 공정, 패키징 등 고난도의 제조 기술들이 이미 현실화되어 있어 이를 HBF에 재활용할 수 있다. 이러한 기술적 연속성 덕분에 업계에서는 HBF가 2027년 최초로 상용화되고, 2028년에는 HBF를 탑재한 시스템이 본격적으로 출시될 것으로 전망하고 있다.

실제로 SK하이닉스와 샌디스크(Sandisk)가 2025년 8월 공동으로 HBF 표준화를 추진하기 시작했으며, HBF 생태계를 선점하기 위한 글로벌 기업들의 경쟁도 빠르게 가속되는 중이다.

물론 해결해야 할 기술적 과제도 존재한다. 낸드플래시는 전하 저장 구조상 쓰기 횟수가 증가할수록 셀의 누설과 손상 문제로 인해 수명이 급격히 단축되는 특성이 있다.

샌디스크, 내장형 플래시 메모리 '아이낸드 7232' 출시

일반 낸드는 약 10만 번 쓰면 사실상 사용이 어려워지는 반면, DRAM 기반의 HBM은 쓰기 횟수에 제한이 없는 구조를 가지고 있다.

즉, HBF가 아무리 고대역폭 구조를 갖추더라도 낸드의 근본적 한계를 해결하지 못하면 장기적인 신뢰성과 성능 보장이 쉽지 않다. 이 문제는 HBF 개발의 가장 중요한 기술적 난제이며, 소재 혁신, 셀 구조 개선, 에러 보정 기술 고도화 등이 필수적이다.

전력 문제 또한 주목해야 할 요소다. AI 확산과 함께 폭발적인 글로벌 전력 소모가 심각한 산업적 문제로 부상하고 있으며, HBF는 메모리를 GPU 근처로 옮겨 네트워크 전송비용을 줄이는 데 도움을 줄 수 있다.

그러나 본질적으로 폰노이만 구조 기반의 메모리 시스템은 AI 연산의 전력 소모를 획기적으로 줄이는 데 한계가 있다.

HBF는 효율성을 높일 수는 있으나 전력 문제의 근본적인 해결책이 아니며, 오히려 HBM·HBF·GPU 간의 시스템적 최적화가 동시에 이루어질 필요가 있다.

현재 삼성전자, SK하이닉스, KAIST 등 주요 연구기관들은 AI 기반 시뮬레이션 기법을 활용해 HBM과 HBF의 이상적인 조합 구조를 설계하는데 집중하고 있다고 한다.

HBF 도입은 단순한 메모리 교체가 아니라 AI 시스템의 전체 아키텍처를 변화시키는 신호탄이 될 수 있으며, 이는 서버 구조, 소프트웨어 스택, 데이터 관리 방식의 변화에까지 영향을 끼칠 가능성이 크다.

데이터 흐름을 최적화하기 위해 AI가 다시 AI 시스템 설계를 돕는 ‘순환적 혁신 구조’가 형성되고 있는 중이랄까.

SK텔레콤의 데이터센터. [사진=SKT]

HBF는 단일 기술이 아니라 HBM과 함께 발전하는 복합 구조의 일부가 될 것이다.

미래의 AI 가속기는 HBM이 초고속 캐시 메모리를 담당하고, HBF가 대규모 데이터 풀을 가까운 위치에서 제공하며 이를 통해 GPU의 전체 활용도를 끌어올리는 방식으로 설계될 가능성이 매우 높아 보인다.

이러한 HBM+HBF 하이브리드 구조는 AI 추론시대의 요구 사항에 최적화된 새로운 표준으로 자리 잡을 것으로 예상된다.

귀결하면, HBF는 AI 메모리의 새로운 축이자, HBM과 병행해 발전할 차세대 핵심기술로 부상하고 있다.

속도와 용량이라는 두 가지 상반된 요구를 각각 HBM과 HBF가 맡아 처리하는 분업구조가 확립되면 AI 가속기의 효율성은 비약적으로 증가하게 될 것이다.

따라서 기술적 과제를 해결할 수 있는 국가와 기업이 차세대 AI·데이터센터 패권을 잡게 될 가능성이 매우 높다.

HBF의 등장은 메모리 산업뿐 아니라 AI 시스템 구조 전체를 바꿀 수 있는 변곡점이며, 2027~2028년은 이러한 변화가 현실화되는 혁신의 시기가 될 것으로 전망된다. 메모리는 언제나 혁신을 꿈꾸고 있다.

SK하이닉스의 HBM4 제품. [사진=SK하이닉스]
박래혁 전 국회정책연구위원. [사진=본인 제공]

박래혁 전 국회정책연구위원은?

고려대 불어불문학·한국사학과 졸업 후 서울대 행정대학원(정책학 전공)에서 석사를 수료했다.

국회 과학기술방송정보통신위원회 당 측 전문위원, 전략기획국에서 활동했으며, 전 국회정책연구위원을 지냈다.

제18대 대통령직인수위 교육과학분과 실무위원, 제20대 대통령직인수위 사회복지문화분과 실무위원으로 일했다.





주요뉴스



alert

댓글 쓰기 제목 [박래혁의 테크리퍼블릭] HBF, 메모리가 꿈꾸는 혁신

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스