HBM과 레거시 DRAM, 그리고 eSSD로 살펴보는 메모리 반도체 업체들의 현황

페이지 정보

671 조회
6 댓글
8 추천

본문


댓글 6

멍게소라님의 댓글

유튜브에서 설치형 chat ai 리뷰를 보니 gpu 메모리를 엄청 잡아먹더라구요. 단지 프롬프트 채팅 AI인데 말이죠. AI 붐이 진짜라면 HBM은 수요가 엄청나긴할 것 같습니다.

gmkhaagv님의 댓글의 댓글

@멍게소라님에게 답글 내년도 하이닉스의 HBM 완판, TSMC의 CoWoS 완판된거 보면 25년도까지는 끄떡없을거구요

마이크로소프트가 AI를 활용하여 실적개선을 어떻게 도모할 수 있는지 벌써 보여줬고, 기타 빅테크들이 정신없이 뛰어드는걸 보면 제 생각엔 HBM 수요 증가는 멈추지 않을거에요

다만 현재 HBM과 DRAM에 투자되는 CAPA들이 분명히 몇 년 뒤에는 공급과잉으로 되돌아올거고 그 충격이 얼마정도 될거냐...는 생각해봐야겠어요
HBM이 파운드리성격에 가깝다고 해도 어쨌든 메모리고 사이클을 탈 수 밖에 없어보여서요

Nalto님의 댓글

문맥상 틀리다고 보긴 힘든데,
2번 항목에서 HBM이 많은 양의 DRAM이 필요한 것은 적층 구조라서 그런 것이 아니고 AI 칩이 많은 용량의 DRAM을 필요로 하기 때문이라는 말이 맞을 것 같습니다.
적층구조로 쌓아서 TSV로 각 칩들을 연결하는 것이 Band width 확보에 유리할텐데,  일반적으로 적층구조는 한정된 칩 크기에서 고용량을 구현하기위해 아주 예전부터 써오던 방식이거든요.

다시 정리하면,
AI 칩 동작시 고속 & 고대역폭 & 고용량의 메모리가 필요한 상황이라
1. TSV를 이용한 적층구조가 고대역폭(High Band Width)확보에 유리.
2. HBM을 위해 일반 DRAM보다 빠른 DRAM이 필요.
3. 고용량 확보를 위해 적층구조로 만듬
뭐 이런 식으로 되는 거죠.

gmkhaagv님의 댓글의 댓글

@Nalto님에게 답글 네 중간에 뛰어넘은 부분이 있었는데 정확하게 짚으셨네요

지적하신 것 처럼 HBM 구조 자체야 옛날부터 있던거고, 그 수요가 폭발해서 기존 DRAM CAPA들이 삭제되고 있는건 엔비디아가 A100, H100을 본격적으로 생산하고 H100이 메가히트를 친 시점부터가 맞습니다
전체 678 / 1 페이지
전체 검색