엔비디아 ‘루빈’ 계기, SK vs 삼성 경쟁판도 달라질까

‘루빈 CPX’ 등장…“범용 가속기 아닌, AI 추론 ‘프리필’에 특화된 칩” 기존 HBM 비중 줄이고, 저렴한 비용의 AI 추론 ‘GDDR7’ 사용 삼성, 세계 최초 GDDR7 개발, HBM 중심 SK하이닉스보다 유리? SK하이닉스도 GDDR7 개발 참여, ‘용도별 특화 칩 시대’ 대응

2025-11-18     이상영 기자
엔비디아가 공개한 새로운 '루빈 CPX' 칩. [출처=엔비디아]

[중소기업투데이 이상영 기자] 엔비디아가 최근 새로운 블랙웰 플랫폼 ‘루빈(Rubin) CPX’를 발표하면서 국제 AI반도체 공급망 지형도 변화가 예상된다. 특히 ‘루빈’은 기존 고가의 고대역폭 메모리(HBM) 대신, 상대적으로 저렴한 GDDR7 메모리를 사용하는게 가장 큰 차이점이다.

그 결과에 따라선 SK하이닉스가 HBM기술을 앞세워 선두를 달리고, 그 뒤를 삼성이 추격하는 모양새에 어떤 형태로든 변화가 올 것으로 예상되고 있다.

GDDR7, HBM 비해 AI 추론 ‘가성비’ 우수

GDDR7은 HBM에 비해 저렴한 비용임에도 AI 추론(inference) 분야에서 뛰어난 성능을 발휘하는 그래픽 메모리다. 높은 대역폭과 낮은 지연 시간으로 실시간 데이터 처리에 적합한 메모리 솔루션이다. 앞서 지난 2023년 7월, 삼성전자는 업계 최초로 GDDR7 개발을 완료했다고 발표했다. 당시 32Gbps의 속도와 1.5TB/s의 대역폭을 지닌 GDDR7 메모리는 종직전의 GDDR6보다 1.4배 성능이 향상되었고, 전력 효율을 20%나 개선했다.

GDDR7은 AI, 고성능 컴퓨팅(HPC), 자율주행차 등 차세대 애플리케이션을 위한 핵심 기술로 주목받고 있다. 현재는 삼성전자, SK하이닉스 등 주요 메모리 제조업체들이 GDDR7 개발에 참여하고 있으며, 2024년 말부터 검증을 시작하여 2025년부터 본격적인 양산에 들어갈 예정이다.

이번 ‘루빈’을 계기로 지구촌 메모리 시장은 구조적 변화가 예상된다. 여전히 HBM은 최상위 AI 칩의 필수 구성 요소로 여전히 고성장을 지속하고 있다. 그러나 GDDR7이 HBM 대비 저렴한 비용으로 중간 성능 구간에서 새로운 시장을 창출하고 있다.

또한, AI 칩 설계에서도 “워크로드별 최적 메모리 선택”이라는 새로운 설계 철학(선택과 집중에 의한 최적화)이 업계 표준으로 정착할 것으로 분석된다.

특화된 AI칩 시대에 적합한 GDDR7. [출처=삼성전자]

세계 반도체 시장, HBM 벗어나 ‘다변화’ 추세

‘루빈’ 발표에 앞서 이미 세계 반도체 시장은 고대역폭 메모리(HBM) 중심에서 다변화된 포트폴리오로 전환하고 있다. 전 세계 HBM 시장은 꾸준히 성장하고 있지만, 이번 ‘루빈 CPX’ 도입을 계기로 GDDR7 수요도 증가하고 있다. 이에 “향후 HBM 비중은 감소하고 GDDR7 비중이 상대적으로 증가하며 메모리 시장 다변화가 가속화될 전망”이 유력시되고 있다.

이로 인해 특히 새로운 기회를 잡은 곳은 삼성전자다. 이 회사는 지난 2024년 10월 세계 최초로 24Gb GDDR7 DRAM 개발에 성공했다. 이는 업계 최고 속도를 달성하고 전력효율을 직전의 GDDR6에 비해 크게 개선한 것이다. 이번 엔비디아의 ‘루빈 CPX’의 설계 철학과 완벽하게 부합하는 셈이다.

이번 발표를 전후해 삼성은 엔비디아로부터 루빈 CPX용 GDDR7 대량 주문을 확보했다. 우선 매 분기별로 3500만~4000만 개의 메모리를 공급할 예정이다. 그 때문에 ‘루빈 CPX’ 핵심 공급망에 진입하며 최대 수혜자로 등극했다는 해석이다.

그렇다고 SK하이닉스가 기존 AI반도체 메모리 최강자의 입지가 줄어드는 것은 아니다. 2025년 9월 세계 최초로 차세대 HBM4 개발을 완료, I/O 핀 수를 2배 확대하고 AI 성능을 개선한 것은 이 회사의 역대급 성과로 꼽힌다. 그 후 AI 메모리 분야 기술의 선도기업으로서 지위를 공고히 한 것이다. 여기서 I/O 핀(Input/Output Pin)은 메모리와 프로세서를 오가는 데이터 전송을 담당하는 입출력 연결 단자다. 개수가 많을수록 더 높은 대역폭을 제공하게 된다.

SK는 2025년 하반기엔 엔비디아에 HBM4을 본격적으로 공급할 것으로 알려졌다. 특히 엔비디아 ‘루빈’ GPU에도 자사의 ‘12Hi HBM4’ 칩 8개가 탑재됨으로서써 HBM 시장 점유율 1위를 고수할 것으로 보인다.

다만 ‘루빈’은 기존 범용의 가속기 대신, 용도별로 특화된 AI 칩 시대로 전환하는 신호탄이 뒬 것이란 예측이다. 지난 9월, 엔비디아는 자사의 ‘AI 인프라 서밋’에서 기존의 범용 GPU 개념을 벗어난 ‘특화 AI 칩’, 즉 ‘루빈 CPX’를 공식 발표했다. 이는 AI 추론 작업 중 ‘prefill’(프리필) 단계만을 위한 전용 가속기다.

‘prefill’은 AI 추론에서 사용자 입력에 따라 ‘첫 번째 토큰’을 생성하는 단계로서, 연산 집약적 특성을 지닌 단계다. 본래 AI 추론 작업은 첫 토큰 생성을 담당하는 prefill 단계와, 후속 토큰을 순차 생성하는 decode(디코드) 단계로 구분된다. prefill은 연산 집약적 특성으로 메모리 대역폭 활용도는 매우 낮다. 반면에 decode는 메모리 대역폭 집약적 특성에도 불구, 연산량은 상대적으로 적다.

SK하이닉스가 가장 먼저 개발에 성공한 HBM4. [출처=SK하이닉스]

연산 특성 고려, HBM vs GDDR7 ‘분리’ 추세

만약 단일 GPU에서 prefill과 decode를 동시 처리할 경우 두 작업이 서로 간섭, 전체 성능이 떨어지고, 자원 활용률이 줄어든다. 다시 말해 고가의 HBM 메모리가 크게 낭비되며 비용만 더 든다. 특히 사용자 입력이 길 경우가 그렇다. 즉 prefill 작업은 추론을 위한 ‘부동소수점’(FLOPS) 계산을 100% 활용하는데 비해, 메모리 대역폭 활용률은 10% 미만으로 떨어진다. 큰 낭비가 아닐 수 없다.

이에 “현재 시장에서 활용되는 범용 가속기로는 단계별 최적화가 불가능하므로, 단계별로 서로 다른 연산 특성을 고려한 전용 하드웨어 기반의 분리 처리 방식이 해결책”이란 주장이다. 그래서 ‘루빈 CPX’는 기존 고가의 고대역폭 메모리(HBM) 대신, 상대적으로 저렴한 GDDR7 메모리를 사용하는 방식을 택했다. 즉 각기 다른 연산 특성을 감안한 것이다. 이를 통해 “데이터센터 운영 비용 절감과 성능 최적화를 동시에 추구하게 되었다”는 설명이다.

그동안 AI 칩 시장은 훈련과 추론을 모두 처리할 수 있는 범용 가속기 중심으로 발전해 왔다. 그러나 이번 ‘루빈 CPX’를 계기로 AI 칩의 용도별 전문화 시대가 본격적으로 열릴 것으로 전망된다. 이는 결국 SK하이닉스, 삼성 등은 물론, 엔비디아의 경쟁사인 AMD, 인텔, 그리고 구글 등의 자체 AI 칩 개발 업체들에게도 큰 영향을 끼칠 것으로 보인다.