엔비디아 신제품 B200 공개 이어, SK하이닉스 핵심소재 ‘HBM3E’ 양산 발표
H100보다 속도 30배, 전력 25분의1, 열 방출 10% 향상, 초당 최대 1.18TB
소재 수요·공급관계 양사 움직임, 업계 ‘세계 반도체 지형 변혁’ 가능성 주시

SK하이닉스가 최근 HBM3의 후속작인 HBM3E의 양산에 들어갔다. 사진은 HBM3. [SK하이닉스]
SK하이닉스가 최근 HBM3의 후속작인 HBM3E의 양산에 들어갔다. 사진은 HBM3. [SK하이닉스]

[중소기업투데이 이상영 기자] 이번 주 들어 세계 반도체업계가 엔비디아와 SK하이닉스를 주목하고 있다. 엔비디아가 기존 H100보다 속도가 최대 30배나 빠르다는 차세대 칩 ‘블랙웰’(B200)을 발표한 다음 날인 19일 한국의 SK하이닉스가 “엔비디아의 인공지능 칩셋에 사용되는 차세대 고대역폭 메모리(HBM3E) 칩 양산을 시작했다”고 밝힌 것이다.

소재 수요․공급 상태인 양사가 입을 맞추기나 한 듯, 세계 반도체 시장의 또 다른 지각 변동을 생각게하는 ‘액션’을 취한 셈이다.

SK하이닉스는 이 달 내로 엔비디아에 새로운 칩 ‘HBM3E’을 공급할 것으로 알려졌다. ‘HBM3E’는 이미 국제적으로 치열한 품질경쟁이 벌어지고 있는 핵심 소재다. 기존 ‘HBM3’보다 성능이 크게 향상된 것으로 지난달 마이크론 테크놀로지도 이를 양산하기 시작했다. 더욱이 삼성전자는 이보다 앞서 “업계 최초로 12스택 HBM3E 칩을 개발했다”고 밝혔다.

그럼에도 SK하이닉스는 세계 AI 칩 시장의 80%를 점유하고 있는 엔비디아에게 HBM3을 단독 공급하며, HBM 칩 시장을 주도해왔다. 엔비디아로선 다른 어떤 기업보다 메모리칩 분야에서 삼성 다음인 SK하이닉스야말로 자신들의 최적화되고 안정적인 공급원이라고 인식한 때문이다.

SK하이닉스는 이날 “본사는 ‘HBM3E’의 성공적인 양산을 기대하고 있으며, 그간의 노하우를 바탕으로 업계 최초의 HBM3 공급업체로서 AI 메모리 분야에서 리더십을 더욱 확고히 할 것으로 기대한다”고 로이터통신에 밝혔다. 이번에 양산에 들어갈 새로운 HBM3E 칩은 열 방출이 10% 향상되었고, 초당 최대 1.18테라바이트의 데이터를 처리한다.

증권가 애널리스트들은 “AI 칩셋에 대한 폭발적인 수요로 인해 이에 사용되는 고급 메모리 칩에 대한 수요도 폭증하고 있다”면서 “SK하이닉스의 HBM 생산 공정은 이미 2024년엔 완전히 예약이 된 상태”라고 밝혔다.

IBK투자증권 김운호 애널리스트는 “SK하이닉스는 절대적인 시장 지위를 확보했고, 하이엔드 메모리 반도체 물량 확대도 반도체 업체 중 가장 공격적일 것으로 예상된다”고 로이터통신을 통해 예상했다.

엔비디아의 AI칩 H100. [엔비디아]
엔비디아의 AI칩 H100. [엔비디아]

SK하이닉스 하루 전, 엔비디아 “H100 능가, B200 출시” 발표

이같은 SK하이닉스의 양산 소식이 있기 하루 전인 18일에는 엔비디아가 자사의 새로운 AI 칩인 B200을 공개한 바 있다. 이는 기존의 H100보다 최대 30배나 더 빠른 속도를 보인 것으로 알려졌다.

LLM을 훈련하는데 최적화된 엔비디아의 H100 칩은 출시 2년도 채 되지 않아 세계에서 가장 성능좋은 칩으로 자리잡으며, ‘귀하신 몸’이 되었다. 그 덕분에 엔비디아 역시 세계에서 가장 시장가치가 큰 회사 중 하나로 성장했다.

그런 가운데 기존 H100을 한참 능가하는 고성능 칩이 새로 나와 비상한 관심을 끌고 있다. 이를 위한 신개념 고대역폭 메모리 ‘HBM3E’를 납품키로 한 SK하이닉스와 함께 전 세계 반도체업계의 시선을 한몸에 집중시킨 것이다.

이날 젠슨 황 엔비디아 CEO는 자사가 주최한 ‘개발자 컨퍼런스’에서 “차세대칩 ‘블랙웰’(B200)은 기존 H100보다 최대 30배나 속도가 바른 차세대 칩”이라며 “H100보다 7~30배 빠르고 전력 소모는 25분의 1에 불과하다”고 소개했다.

실제로 이는 H100이 제공한 4페타플롭에 비해 20페타플롭의 속도로 AI기업의 개발 성능을 크게 높일 수 있다. H100의 경우 속도를 좌우하는 트랜지스터가 800억 개다. 이에 비해 블랙웰의 트랜지스터는 2080억 개에 달한다. 그 만큼의 시너지를 통해 최대 30배나 속도를 높일 수 있게 된 것이다.

개발 과정에선 이를 위해 엔비디아는 초당 최대 10테라바이트의 속도로 서로 통신할 수 있는 두 개의 대형 칩 다이를 연결하는 방식을 동원한 것으로 전해졌다.

‘B200’의 가격은 아직 공개되지 않았다. 다만 CNBC에 따르면 H100 칩의 경우는 현재 1개에 2만5000~4만달러이며, 이 칩으로 구동되는 전체 시스템의 가격은 최대 20만달러에 달한다. ‘B200’은 그보다 성능이 더 뛰어나므로, 가격도 그 이상이 될 것이란 예상이다.

월스트리트저널(WSJ)에 따르면 이날 엔비디아는 특히 자사의 사세를 한껏 과시하는 보도자료를 배포했다. 즉 글로벌 기업들이 자사의 고성능 칩에 얼마나 절대적으로 의존하고 있는지 보여주기 위해 7개 빅테크 CEO들의 추천사를 담아 배포한 것이다. OpenAI 샘 앨트먼, 마이크로소프트 사티야 나델라, 알파벳 구글의 순다르 피차이, 메타의 마크 저커버그, 구글 딥마인드 데미스 하사비스, 오라클 래리 엘리슨, 델의 마이클 델, 테슬라의 일론 머스크 등이다.

이에 그치지 않고 머스크는 엔비디아 찬가에 가까운 성명을 내보내기도 했다. “현재 엔비디아 제품 더 좋은 것은 없다. 새로 나온 블랙웰도 엄청난 성능 향상을 제공하고 최첨단 모델을 제공하는 능력을 가속화할 것”이라며 “AI 컴퓨팅을 향상하기 위해 엔비디아와 계속 협력하게된 사실이 너무나 기쁘다”고 추켜세웠다.

이처럼 내로라 하는 글로벌 빅테크들이 엔비디아의 눈치를 보다보니, H100을 포함한 엔비디아 칩은 가격이 비싸더라도 수요가 늘 폭증한다. 지난해에는 배송 대기 시간만 최대 11개월에 달했다. 심지어는 “엔비디아의 AI 칩을 확보하는 것은 곧 AI 인재를 유치하려는 기술 기업의 지위를 상징하는 것”이란 인식까지 퍼질 정도다. 그런 와중에 새로운 ‘블랙웰’이 나오고, 그 전방 핵심소재 공급업체인 SK하이닉스가 ‘대량 생산’ 계획을 공개하는 바람에 AI업계는 더욱 예의주시하며 긴장하고 있다.

저작권자 © 중소기업투데이 무단전재 및 재배포 금지