딥시크 로컬 맥북에어에서도 잘 돌아가네요.

알림
|
X

페이지 정보

작성자 뚜찌
작성일 2025.01.29 14:17
1,044 조회
3 추천

본문

맥북에어 m3 16/512 모델입니다.


딥시크는 14B (9gb 짜리) 모델로 했고,

그 아래로 가면 탈옥이 안됩니다. 멍청해서 그런가... (그 이상으로 하면 안녕! 쓰고 답변 시간까지 5분 걸리는...)


여러 모델 테스트 했는데

Llama 쓴 모델보다 qwen이 더 빠르게 답변하지만, 정확도는 llama가 나은거 같은데, 어쨌든, 파라미터 많게 학습+빠른 QWEN이 나은거 같네요.


다음번 맥북 살때 램 엄청 때려 박아야 할거 같습니다.. (램 장사 애플.. ㅜㅜ)


암튼 탈옥해서 이런저런 물어보고 있는데,


아무래도 다음번 중국 입국에서는 신비해 질거 같습니다 ㅋㅋ

3추천인 목록보기
댓글 10 / 1 페이지

달콤한딸기쨈님의 댓글

작성일 어제 14:25
‘다음번 맥북 살때 램 엄청 때려 박아야 할거 같습니다..’

애플 매수타이밍입니꽈(?!)

뚜찌님의 댓글의 댓글

대댓글 작성자 뚜찌
작성일 어제 15:13
@달콤한딸기쨈님에게 답글 램업 할 돈으로 애플 주식을 삽니다!

샤프슈터님의 댓글

작성자 샤프슈터
작성일 어제 14:26
드디어 m1 맥 스튜디오 쓸때가 된거일까요. 램은 64기가 이긴 한데 말이죠 ㅎㅎ

뚜찌님의 댓글의 댓글

대댓글 작성자 뚜찌
작성일 어제 15:12
@샤프슈터님에게 답글 가장 무거운 모델 한번 돌려보세요!

어머님의 댓글

작성자 어머
작성일 어제 14:28
이것때문에 맥미니를 램을 64로 샀습니다. 배보다 배꼽이 더 비싸지네요

뚜찌님의 댓글의 댓글

대댓글 작성자 뚜찌
작성일 어제 15:14
@어머님에게 답글 앞으로 램은 엄청 크게 박아야 할거 같습니다. 윈도우PC에서는 VRAM을 높은 녀석으로…

8086님의 댓글

작성자 8086
작성일 어제 14:30
9GB짜리 딥시크 모델이 있나요? 그냥 LLaMA 파인튜닝한 것이라는 얘기가 있어서요.

어머님의 댓글의 댓글

대댓글 작성자 어머
작성일 어제 14:34
@8086님에게 답글 14b이 9기가일걸요

가꾸님의 댓글의 댓글

대댓글 작성자 가꾸
작성일 어제 14:35
@8086님에게 답글 llama나 qwen를 가지고 딥시크로 Distillation 한 모델들이 있습니다

뚜찌님의 댓글의 댓글

대댓글 작성자 뚜찌
작성일 어제 15:15
@8086님에게 답글 라마 기반이 두개 고 나머지는 췐인데,
저는 췐이 더 낫더라구요..
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색