AMD, Instinct MI325X AI 가속기 출시, MI355X AI 파워하우스 및 새로운 DPU 공개

알림
|
X

페이지 정보

작성자 심심해 125.♡.200.205
작성일 2024.10.11 07:50
분류 IT
839 조회
3 추천
쓰기

본문


해외 기사를 번역(GPT-4o mini)한 것이므로 오역이 있을 수 있습니다.
 

 
 
 
AMD, Instinct MI325X AI 가속기 출시, MI355X AI 파워하우스 및 새로운 DPU 공개

 

 

샌프란시스코에서 진행 중인 Advancing AI 행사에서 AMD는 다양한 신제품과 기술을 발표하고, 지난 한 해 동안 여러 행사에서 공개된 다른 장치들에 대한 업데이트를 제공했습니다.


https://youtu.be/vJ8aEO6ggOs

 

AMD는 Zen 5 기반의 "투린" EPYC 서버 프로세서와 기업용 노트북을 위한 새로운 Ryzen AI PRO 300 프로세서에 대해 이야기했으며, Instinct AI 및 HPC 가속기 라인과 Pensando DPU에 대한 업데이트도 제공했습니다.

 

투린과 Ryzen AI PRO 300 시리즈에 대한 보도가 있으니 꼭 확인해 보세요. 여기서는 AMD의 Instinct와 Pensando 발표에 집중하겠습니다.

 

 

AMD Instinct MI325X AI 가속기가 이번 분기에 NVIDIA의 H200과 경쟁하기 위해 출시됩니다.


기억하시겠지만, AMD는 올해 초 매우 성공적인 MI300X의 후속 제품인 Instinct MI325X를 공개했습니다. MI325X는 메모리 풋프린트를 거의 두 배로 확장한 높은 성능의 HBM3E로 이전 제품을 확장하지만, AMD가 처음에 이야기했던 것만큼의 강력함은 아닙니다. 이에 대해서는 잠시 후에 더 이야기하겠습니다.

 

 

AMD Instinct MI325X는 GPU 구성 측면에서 MI300X와 유사하지만, 전력 관리 및 주파수, 전압 곡선이 최적화되어 컴퓨팅 성능을 높였고, 더 빠르고 용량이 큰 HBM3E 메모리와 결합되었습니다. MI300X는 192GB HBM3 메모리를 특징으로 하는 반면, MI325X는 256GB HBM3 메모리를 가지고 있습니다.

 

이 HBM3 메모리는 클럭이 더 높고, 6TB/s 이상의 피크 대역폭을 제공하며, 이는 MI300X의 5.3TB/s에서 13% 증가한 수치입니다. 그러나 256GB는 AMD가 처음 발표했던 288GB보다 32GB 줄어든 것입니다. Advancing AI 행사에서 AMD 관계자들은 MI325X의 목표가 다소 변경되었으며, 시장 기회를 가장 잘 대응하기 위해 메모리 용량을 약간 줄이기로 결정했다고 밝혔습니다.

 

상대적으로 높은 주파수(정확한 숫자는 없지만)와 추가 메모리 및 메모리 대역폭은 효과적으로 MI325X의 컴퓨팅 성능을 향상시킵니다. GPU에 더 많은 데이터를 가깝게 두고, 이 데이터를 훨씬 빠르게 칩으로 공급함으로써, GPU 리소스가 보다 효과적이고 효율적으로 사용되어 실제 성능이 향상됩니다.

 

 

NVIDIA의 H200 및 H200HGX와 비교할 때, AMD는 다양한 모델 및 작업 부하에서 상당한 성능 향상을 주장하고 있습니다. AMD는 다양한 크기의 여러 모델로 추론 작업에서 상당한 우위를 보였으며, 경쟁력 있는 훈련 성능도 보였습니다. 그러나 Instinct MI325X의 더 높은 메모리 용량과 AMD의 AI 소프트웨어 스택의 지속적인 최적화는 향후 더 많은 메모리 용량이 필요한 모델을 위한 좋은 토대가 됩니다.

 

AMD가 Instinct MI355X AI 가속기를 발표했습니다.


 

Instinct MI325X의 후속 모델인 Instinct MI355X도 오늘 공개되었습니다. MI355X에 대한 세부 사항은 부족하지만, Computex에서 제공된 초기 힌트와 일치하는 몇 가지 세부 사항이 공개되었습니다. Instinct MI355X는 새로운 GPU 아키텍처인 CDNA 4를 기반으로 하며, 내년 하반기 중에 출시될 예정입니다. 현재 세대의 CDNA 3 기반 MI300X 패밀리와 비교하여 MI355X는 더 발전된 3nm 공정 노드를 사용하여 제조되며, 288GB의 HBM3E 메모리를 특징으로 하고 새로운 FP4 및 FP6 데이터 타입을 지원합니다.

 

 

AMD는 Instinct MI355X가 FP8 및 FP16 데이터 타입과 비교하여 CDNA 3 대비 AI 추론 성능이 최대 1.8배 향상될 것이라고 주장하고 있지만, 그 소프트웨어와 알고리즘은 자주 발전하기 때문에 성능 목표는 지속적으로 변화할 가능성이 높습니다.

 

 

AMD는 차세대 아키텍처 기반의 새로운 Instinct 가속기를 공격적인 연간 리듬으로 출시할 계획도 재확인했습니다. 이는 CDNA 5 기반의 가속기 시리즈가 2026년 어느 시점에 출시될 것임을 의미하지만, AMD는 MI400이라는 상표명 외에는 구체적인 세부 사항을 제공하지 않았습니다. 또한 AMD의 소비자 및 데이터 센터/AI GPU 아키텍처 통합 계획이 있기 때문에, 향후 제품들이 다소 변화할 가능성이 높습니다.

 

새로운 AMD Pensando DPU 네트워킹 기술


오늘날 AI 데이터 센터의 모든 시스템 간 빠르고 안정적인 연결의 중요성은 무시할 수 없습니다. 프런트 엔드는 AI 클러스터로 데이터를 이동하고, 백엔드는 가속기와 클러스터 간의 데이터 전송을 처리합니다. 프런트 또는 백 엔드가 병목 현상에 빠지면, AI 시스템 내의 CPU 및 다양한 가속기에 최적의 데이터를 공급하지 못해 활용도가 낮아지고 수익 손실이나 서비스 품질 저하로 이어질 수 있습니다.

 

 

바로 그 점에서 AMD의 Pensando DPU(데이터 처리 장치)가 등장합니다. 프런트 및 백엔드 네트워크를 가속화하고 효율적으로 관리하며, 시스템의 CPU를 오프로드하기 위해 AMD는 프런트 엔드용 Pensando 살리나 DPU와 산업 최초의 초고속 이더넷 컨소시엄(UEC) 준비된 AI NIC인 Pensando 폴라라 400을 소개했습니다.

 

 

AMD Pensando 살리나 DPU는 이 회사의 고성능 프로그래머블 DPU의 3세대 제품으로, 400G 처리량을 지원해 2세대 "엘바" DPU 대비 성능과 대역폭이 두 배로 증가했습니다.

 

 

AMD Pensando 폴라라 400은 AMD P4 프로그래머블 엔진으로 구동되며, 회사는 이를 업계 최초의 UEC 준비 완료 AI NIC이라고 주장하고 있습니다. AMD 펜산도 폴라라 400은 차세대 RDMA 소프트웨어를 지원하며, 고속 네트워크의 신뢰성과 확장성을 최적화하고 향상시키기 위한 여러 새로운 기능을 제공합니다.

 

예를 들어, 펜산도 폴라라 400은 경로 인식 혼잡 제어를 지원하여 네트워크 트래픽을 보다 효율적으로 라우팅할 수 있습니다. 또한 빠른 패킷 손실 복구를 지원하여 손실된 패킷을 신속하게 감지하고 단일 패킷만 다시 전송해 대역폭 활용을 최적화할 수 있습니다. 그리고 빠른 네트워크 장애 복구도 지원합니다. AMD 펜산도 살리나 DPU와 펜산도 폴라라 400 UEC AI NIC는 내년 초에 출시될 예정입니다.

 

AMD는 AI 발전 행사에서 과감한 주장을 했으며, Instinct 가속기에 대한 정보의 대부분은 이전 발표의 정제된 것이었지만, AMD의 비전과 계획, 그리고 CPU, DPU, GPU 전 제품군을 보니 폭발적으로 성장하는 AI 데이터 센터 기회를 위한 설득력 있는 전략이 그려집니다.

댓글 0
쓰기
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색