다모앙 커뮤니티 운영 규칙을 확인하세요.
X

MBP M4 pro에서 로컬 LLM 돌릴 때 어떤(?) 가요?

페이지 정보

작성자 멤피스
작성일 2025.04.13 19:31
분류 질문
656 조회
0 추천

본문

사용해 본게 서버에 실장된 GPU뿐이라 맥은 어떤 지 궁금합니다. 어떤 글을 보면 과도한 모델을 돌리는 경우 시스템 앱들이 사용할 메모리도 많이 사용하다 보니 사용자가 체감할 만큼 시스템 사용에 영향을 준다고도 하고 overheating 된다는 말도 있고 , 이륙한다는 말도 있고. 

생각하는 게 48GB 면 더 큰 모델(70b는 아니고 32b 정도)를 사용할 수 있으면 좋겠지만, 사용할 때 GPU 등을 최대한 사용할 거라 위에서 궁금했던 것 같이 시스템이 몹시 힘들어하면 실제 사용하기는 힘들거나 부담스럽지 않을까 하는 생각이 드네요  

혹시 맥북프로로 local LLM 자주(?) 사용하시는 분 계시면 후기 좀 공유해주시면 감사하겠습니다. 유튜브, reddit 등 찾아보는데 은근(?) 제가 궁금한 사용기가 별로 안 보이네요. 

0추천인 목록보기
댓글 5 / 1 페이지

junja91님의 댓글

작성자 junja91
작성일 04.13 19:46
제가 프로젝트에 ollama 를 이용해서 열심히 돌리고 있는데요, 메모리만 충분하면 70b 모델도 충분하고, 맥북프로 m1 16기가 에서도 2b 랑 7b 모델로 충분히 데모 잘 돌리고 다녔습니다.

시골길농부님의 댓글

작성자 시골길농부
작성일 04.14 07:00
맥북프로 M4 Max에서 Gemma 27b열심히 가지고 놀고있습니다. 가끔 이륙하는 소리 좀 들리긴 하는데, 무난하게 잘 돌아갑니다~ 프롬프트 주고, 답 다 받고나면 팬 소리는 곧 잠잠해지네요.

지켜줄게님의 댓글의 댓글

대댓글 작성자 no_profile 지켜줄게
작성일 04.14 08:31
@시골길농부님에게 답글 토큰은 얼마나 나오시나요?

시골길농부님의 댓글의 댓글

대댓글 작성자 시골길농부
작성일 04.14 08:41
@지켜줄게님에게 답글 간단하게 한줄 프롬프트 던져줬더니, 아래와같이 나오네요~
16.01 tok/sec
787 tokens

지켜줄게님의 댓글의 댓글

대댓글 작성자 no_profile 지켜줄게
작성일 04.14 10:01
@시골길농부님에게 답글 확인 감사합니다. m3 max 보다 확실히 잘 나오네요
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색