HBM과 레거시 DRAM, 그리고 eSSD로 살펴보는 메모리 반도체 업체들의 현황

페이지 정보

642 조회
6 댓글
8 추천

본문


국내 반도체로 유명한 애널리스트 중 가장 보수적이면서도 삼성전자에 항상 의심의 눈초리를 거두지 않는 송명섭 애널리스트가 속한 하이투자증권에서, 삼성전자와 하이닉스의 2024년도 실적치를 지속적으로 업데이트하고 있는데 그 예측치가 경이롭습니다.

삼성전자 반도체부문은 올해 매출 113.7조원, 영업이익 25.0조원

하이닉스는 올해 매출 64.7조원, 영업이익 24.5조원

게다가 향후 실적도 꾸준한데요, 국내 반도체 업계에서 제일 보수적인 송명섭 애널리스트가 이정도로 예측할 정도니 다른 회사들은 가히 믿기지 않는 숫자들을 내놓습니다. (삼성전자는 DS를 제외한 계열사도 속해있으니 이를 감안하여 표를 보시면 됩니다)

23년도에 그야말로 죽을 아주 많이 쒔던 두 메모리회사가 어떻게 기상회생하였는지 그리고 이 슈퍼사이클을 메모리업계는 어떻게 수혜를 입을 지 간단하게 얘기해보죠.


1) AI 시대 메모리 업계의 총아 HBM, 그리고 하이닉스의 뛰어난 기술력

기술적인 얘기는 차치하고, 엔비디아의 H100 같은 엔터프라이즈용 GPU의 핵심 부품 중 하나가 HBM인데, 이게 생산 난이도 자체가 극악이고 수요도 급증하다보니 부르는게 값인 상황입니다. 그리고 이 수혜를 가장 많이 입은 회사가 바로 하이닉스. 엔비디아에 단독 대량 공급(마이크론은 미미한 수준이라...)을 하고 있는 회사로서 삼성이나 마이크론에 비해 압도적인 기술우위를 바탕으로 HBM 시장의 이익을 싹쓸이해가고 있는데요, 트렌드포스 등 각 기관들 예상치를 살펴보면 앞으로 수 년간 HBM 시장은 폭발적으로 성장할 것이 거의 확실하고 결국 하이닉스가 여기서 아주 않은 이익을 낼 것이죠. 올해 하이닉스의 HBM 영업이익율은 60%에 가까울 정도로 예측됩니다...ㄷㄷ


2) HBM이 만들어낸 레거시 DRAM 시장의 Shortage, 그리고 삼성의 압도적 CAPA

HBM은 DRAM을 쌓아올리는 적층형메모리로서, 엄청나게 많은 양의 DRAM을 잡아먹습니다. 그리고 하이닉스가 HBM에 DRAM 역량을 쏟아부으면서 오히려 레거시 DRAM 공급이 감소하고 있습니다. 다만 삼성은 하이닉스보다 압도적 CAPA를 가지고 있다는 장점을 살려서, 부족한 HBM에서의 이익을 레거시 DRAM에서 메꾸려고 하는 것 같습니다. 실제로 DRAM의 이익율도 급격하게 올라가고 있으며 특정 기관의 경우 24년도 말이면 DRAM 이익율이 HBM에 가까워 질 수 있다라는 전망도 하고 있더라구요. 그래서 HBM의 폭발적인 성장으로 인해 덩달아 공급부족으로 호황을 맞이한 레거시 DRAM 시장에서는 압도적 CAPA를 지닌 삼성이 물량으로 이익을 쓸어갈 것으로 예상되구요.


3) AI 시대 DRAM에는 HBM이 있다면, NAND에는 QLC eSSD가 있다

NAND 시장에도 봄이 왔는데요, DRAM하고는 살짝 결이 다릅니다. HBM 붐과 함께 DRAM은 시장이 전체적으로 떡상했다면, NAND 시장은 기업용 QLC eSSD만 봄이 온 느낌이에요. AI 시장이 커지면서 데이터센터를 확충할 필요성이 커진데다가, 코로나시기 과투자된 데이터센터들을 교체하고 정비할 시기가 오는 것이 맞물렸구요, 그 중에서도 값이 저렴하면서도 어느정도의 성능은 뒷받침해주는 QLC eSSD가 불티나게 팔리고 있습니다. 송명섭 애널리스트는 이 영향으로 삼성전자 NAND 영업이익율이 DRAM에 맞먹는 수준으로 예상(근데 이건 아닐거에요 NAND의 한계점이 너무 명확해서;;;)할 정도구요. 그리고 이 시장에서의 선두주자 삼성과 하이닉스(솔리다임)이 기업용 SSD 시장의 이익도 싹 쓸어갈 것으로 보이구요.


이렇게 AI 시대가 폭발하며 HBM 떡상 → 레거시 DRAM도 함께 떡상하였고, 기업용 QLC eSSD의 급성장으로 삼성과 하이닉스 두 메모리 회사들의 슈퍼사이클이 24년도 1분기를 기점으로 본격적으로 시작하는 듯 합니다.


그런데 여기서 이름이 빠진 두 기업이 있네요...바로 마이크론과 키옥시아인데요...이 두 회사는 참 안타깝습니다...다른 글에서 더 자세히 알아볼테니 아주아주 간단하게 정리하자면


1) 마이크론은 지난 다운턴 시기동안 FAB 증설에 소홀했고, 글로벌 FAB 운영 관점에서 CAPA 확보가 어려워서 급성장하는 DRAM 시장에 제대로 대응하기 어렵다, 그래도 하던 짬바가 있어서 이익을 어느정도 내기는 하겠지만...

2) 정말 심각한 기업은 키옥시아인데요, 키옥시아는 지난 다운턴 시기동안 연구개발에 매우 소홀했고, 이로 인해서 NAND 원툴 회사임에도 불구하고 기업용 eSSD 시장에서의 영향력이 너무나도 미미하기 때문에 이익을 제대로 내지 못할 가능성이 크고, 그동안 어마어마하게 쌓인 부채를 해결하지 못한다면 자칫 망할수도 있는 지경까지 와버렸습니다...


이 두 기업(마이크론, 키옥시아)에 대해서는 다른 글에서 조금 더 풀어보겠습니다...

그나저나 메모리 슈퍼사이클, 이번에는 조금 더 길게 갔으면 좋겠군요ㅎㅎ

댓글 6

멍게소라님의 댓글

유튜브에서 설치형 chat ai 리뷰를 보니 gpu 메모리를 엄청 잡아먹더라구요. 단지 프롬프트 채팅 AI인데 말이죠. AI 붐이 진짜라면 HBM은 수요가 엄청나긴할 것 같습니다.

gmkhaagv님의 댓글의 댓글

내년도 하이닉스의 HBM 완판, TSMC의 CoWoS 완판된거 보면 25년도까지는 끄떡없을거구요

마이크로소프트가 AI를 활용하여 실적개선을 어떻게 도모할 수 있는지 벌써 보여줬고, 기타 빅테크들이 정신없이 뛰어드는걸 보면 제 생각엔 HBM 수요 증가는 멈추지 않을거에요

다만 현재 HBM과 DRAM에 투자되는 CAPA들이 분명히 몇 년 뒤에는 공급과잉으로 되돌아올거고 그 충격이 얼마정도 될거냐...는 생각해봐야겠어요
HBM이 파운드리성격에 가깝다고 해도 어쨌든 메모리고 사이클을 탈 수 밖에 없어보여서요

Nalto님의 댓글

문맥상 틀리다고 보긴 힘든데,
2번 항목에서 HBM이 많은 양의 DRAM이 필요한 것은 적층 구조라서 그런 것이 아니고 AI 칩이 많은 용량의 DRAM을 필요로 하기 때문이라는 말이 맞을 것 같습니다.
적층구조로 쌓아서 TSV로 각 칩들을 연결하는 것이 Band width 확보에 유리할텐데,  일반적으로 적층구조는 한정된 칩 크기에서 고용량을 구현하기위해 아주 예전부터 써오던 방식이거든요.

다시 정리하면,
AI 칩 동작시 고속 & 고대역폭 & 고용량의 메모리가 필요한 상황이라
1. TSV를 이용한 적층구조가 고대역폭(High Band Width)확보에 유리.
2. HBM을 위해 일반 DRAM보다 빠른 DRAM이 필요.
3. 고용량 확보를 위해 적층구조로 만듬
뭐 이런 식으로 되는 거죠.

gmkhaagv님의 댓글의 댓글

네 중간에 뛰어넘은 부분이 있었는데 정확하게 짚으셨네요

지적하신 것 처럼 HBM 구조 자체야 옛날부터 있던거고, 그 수요가 폭발해서 기존 DRAM CAPA들이 삭제되고 있는건 엔비디아가 A100, H100을 본격적으로 생산하고 H100이 메가히트를 친 시점부터가 맞습니다
전체 607 / 1 페이지
전체 검색