deepseek 7b,8b와 14b 차이가 크네요.
페이지 정보
작성자
셀빅아이

작성일
2025.03.09 15:05
본문
이번에 램을 32G로 업그레이드 하면서 돌려봤는데
복리계산 문제인데 7b,8b는 자꾸 엉뚱하게 표현해주는데
14b는 그래도 제대로 표현해주네요.
게다가 한글로도 간간히 답해주고요.
그런데 너무 느립니다.
GPU도 중요하지만, 계산 후 뿌려줄 때는 CPU자원을 쓰네요.
재미삼아 로컬로 돌려보는데, 그래도 재밌긴 하네요. :)
사양은 i3-12100(4c8t), 램 32G, RX580 8G 입니다.
0명
추천인 목록보기
댓글 10
/ 1 페이지
셀빅아이님의 댓글의 댓글
작성일
03.10 11:04
@이런저런님에게 답글
차이가 나는군요.
화웨이 qwq 32b 모델도 잘 나왔다고 하는데 써보고 싶네요.
화웨이 qwq 32b 모델도 잘 나왔다고 하는데 써보고 싶네요.
셀빅아이님의 댓글의 댓글
작성일
03.11 07:23
@어머님에게 답글
gpu로 계산하고 텍스트는 cpu로 뿌려줍니다.
그래도 모델자체가 크니까 10~15분 정도 걸리네요.;
8b보다 결과물도 괜찮고 한글 출력도 나름 되니 14b 모델로 써보게 되네요.
그래도 모델자체가 크니까 10~15분 정도 걸리네요.;
8b보다 결과물도 괜찮고 한글 출력도 나름 되니 14b 모델로 써보게 되네요.
셀빅아이님의 댓글의 댓글
작성일
03.16 21:42
@Nesffer님에게 답글
젬마3 쓰고 나서 번역기 띄워서 영어로 질문하고, 영어로 답변 받은걸 다시 번역기로 돌린것에 해방되었습니다.ㅋ
크루소닉님의 댓글의 댓글
작성일
04.03 10:22
@셀빅아이님에게 답글
와.. ollama 처음 써봤는데 젬마3 좋은데요?
잠깐 만져보니 간단한 번역은 맡겨도 될 수준인거 같아요
잠깐 만져보니 간단한 번역은 맡겨도 될 수준인거 같아요
셀빅아이님의 댓글의 댓글
작성일
04.04 21:02
@크루소닉님에게 답글
젬마3 좋습니다.
기존엔 로컬로 꿈도 못꿨는데, 이젠 어느정도 가능하니 신세계입니다. :)
기존엔 로컬로 꿈도 못꿨는데, 이젠 어느정도 가능하니 신세계입니다. :)
이런저런님의 댓글