AI CPU가 삼킨 D램, 메모리 ‘숏티지’ 1년 더 간다
AI CPU가 삼킨 D램, 메모리 ‘숏티지’ 1년 더 간다
2027년까지 D램 공급부족 장기화
GPU에 이어 CPU도 D램 고용량화
‘AI 조율자’된 CPU...대용량 기억력 필수
CPU에 필수인 DDR5 ‘수급 불균형’ 심화
메모리 업계가 가격이 100% 이상 급등한 ‘범용 D램’에 힘입어 전례 없는 실적을 기록한 가운데 인공지능(AI)용 중앙처리장치(CPU)의 확산까지 맞물리며 ‘숏티지(Shortage·공급부족)’ 현상이 1년 더 이어질 것이라는 전망이 제기된다.
인텔이 최근 선보인 ‘AI CPU’에는 기존보다 최대 4배 많은 범용 D램이 탑재될 것으로 예상되는 상황에 고용량 D램을 요구하는 그래픽처리장치(GPU) 수요까지 겹치면서 삼성전자와 SK하이닉스의 메모리 공급 능력이 수요를 따라가지 못할 것이라는 관측이 나온다.
2일 업계에 따르면 CPU 제조사들이 AI CPU에 300~400GB(기가비트) 용량의 D램 탑재를 추진 중인 것으로 파악됐다. 이는 일반적인 CPU 제품(96~256GB) 대비 최대 4배에 달하는 압도적인 규모다.
‘AI 조율자’로 부상한 CPU
AI CPU의 고용량 D램 수요 급증은 AI 산업이 ‘추론’ 중심으로 재편되는 흐름과 맞물려 있다. 과거에는 AI 추론이 단순 질의응답에 머물렀다면 이제는 다양한 ‘에이전틱 AI’를 총괄하는 ‘오케스트레이션(조율자)’ 역할까지 맡게 됐다.
이 과정에서 핵심은 ‘컨텍스트(문맥) 기억’이다. CPU가 각 에이전틱 AI의 생성물을 참조해 전체 업무 흐름을 조율하려면 내용을 기억해야 한다. 이를 위해 기억 공간인 메모리의 대용량화가 필수가 된 것이다.
그간 AI 데이터센터는 고대역폭메모리(HBM)가 장착된 GPU 중심의 컴퓨팅 인프라를 구축해왔다. AI에 방대한 데이터를 동시 학습시키는 GPU의 특성을 살려 ‘AI 훈련’에만 집중해 온 것이다. 이에 따라 서버 구성도 GPU 8대에 CPU 1대가 붙는 식이었다. 그러나 업계의 무게중심이 추론으로 이동하면서 CPU 비중을 대폭 늘