local 에서 LLAMA 3.x 를 돌리려면..

알림
|
X

페이지 정보

작성자 no_profile 날씨는어때 95.♡.77.176
작성일 2024.12.17 15:51
분류 질문
300 조회
0 추천
쓰기

본문


제가 알기로 70b 같은 모델을 돌리려면 GPU의 VRAM 이 많이 필요하다고 알고 있습니다.

정확히 최소 사양은 잘 모릅니다만..


그런데 rtx 4090만 하더라도 24GB가 전부라서 불가능하다고 들었구요..


a6000 같은 그래픽카드를 사용하지 않는한,


차라리 Silicon Mac 종류에서 RAM을 64GB 나 128GB 로 구매하는것이 더 낫다고들 하는데..


이게 맞는 말인가요?


예를들어 llama 3.3 70b 모델이라면 어떤 하드웨어를 구매해야 하는건가요?



댓글 5 / 1 페이지

인생물상님의 댓글

작성자 no_profile 인생물상 (106.♡.137.224)
작성일 12.17 18:16
mac에서 64GB면 충분히 돌릴 수 있습니다. m3max에서 돌리면 답변 듣는데 수초에서 십몇초 정도 걸립니다. 매우 긴 답은 더 오래 걸릴 수 있습니다. m4면 좀 더 빠르게 될 것 같네요.

슈로더님의 댓글의 댓글

대댓글 작성자 슈로더 (223.♡.80.59)
작성일 12.18 08:30
@인생물상님에게 답글 노트북 m4 64기가 이상으로 사면 될까요

인생물상님의 댓글의 댓글

대댓글 작성자 no_profile 인생물상 (106.♡.137.224)
작성일 12.18 11:37
@슈로더님에게 답글 여유가 되시면 향후 나올 수도 있는 다른 모델까지 고려하여 128기가를 권해드리지만, 그정도만 해도 llama 3.3 70b는 돌릴 수 있습니다.

RaPo님의 댓글

작성자 no_profile RaPo (27.♡.253.142)
작성일 12.18 11:00
ollama 에서 llama 3.3 70b Q4 모델이 43GB네요. 64GB 메모리만 있으면 돌릴 수 있습니다.

MDBK님의 댓글

작성자 MDBK (59.♡.19.130)
작성일 12.19 16:13
맥미니 프로 64기가가 299만원!
고민이지만 비싸서....
쓰기
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색