다모앙 커뮤니티 운영 규칙을 확인하세요.
X

gemma 3 놀랍네요.ㄷ

페이지 정보

작성자 셀빅아이
작성일 2025.03.16 01:14
분류 잡담
1,391 조회
5 추천

본문

LM 스튜디오에 새로 gemma 3 가 새로 올라왔길래 봤더니 

이미지 분석도 가능하다고 나오네요.

4b 짜리가 3.1gb 밖에 안해서 다운 받아서 잠깐 써 봤는데, 놀랍네요.


한글 지원이 deepseek 14b보다 출력 훨씬 잘 되고

속도도 가벼우니 엄청나게 빠릅니다.


게다가 일반적인 정의 같은건 설명도 deepseek 보다

내용도 더 길고, 표로 깔끔하게 정리해주네요.


이정도면 왠만한 pc에서도 로컬로 그냥 돌리겠네요.

발전이 놀랍습니다.;

5추천인 목록보기
댓글 23 / 1 페이지

맛스타오렌지님의 댓글

작성일 03.16 07:40


검색해 보니까 4b 모델은 보통 컴퓨터에서 돌아가겠는데요.
챗GPT 랑 어느 버전이랑 비슷할까요?
지금 발전 속도로 보면, 개인맞춤 ai 대화 친구가 보편화 될 날이 1년도 안걸릴 것 같습니다.
1

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.16 08:40
@맛스타오렌지님에게 답글 i3-12100(4c8t), 램 32G, RX580 8G 입니다.
4b 모델 바로바로 돌아갑니다.
이미지도 되길래 해봤는데, 카톡 내용 분석 정도는 어렵고, 지도 같은 경우는 어느나라 수도까지 인식하네요.
용어 정의나 복리계산 잘해줍니다.

표 보니 M4 맥미니 24G 메모리에 잘하면 27B모델 돌릴 수 있겠네요.
사용기들 나오겠네요.

tjdoc님의 댓글

작성자 tjdoc
작성일 03.16 09:59
m4pro 24gb 에 gemma3:27b 는 무리입니다. 스왑도 너무 많이 일어나고 느려요.. 12b는 쓸만하네요.

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.16 10:06
@tjdoc님에게 답글 알려주셔서 감사합니다. 맥미니엔 더 작은 모델이 나와야 겠네요.

간큰남자님의 댓글의 댓글

대댓글 작성자 간큰남자
작성일 03.19 11:47
@tjdoc님에게 답글 Gemma3 27b Q4_K_M 모델 크기가 17.4GB 입니다.
살짝 아쉽기는 하지만 그래도 충분히 작동은 잘 될 것으로 예상합니다.

tjdoc님의 댓글의 댓글

대댓글 작성자 tjdoc
작성일 03.22 09:26
@간큰남자님에게 답글 ollama에 업데이트가 있었던건지, 오늘 다시 테스트해보니 이전에는 굉장히 느렸는데, 확연하게 달라졌네요. gemma3:27b 테스트 결과입니다. mbp m4pro 24gb.
total duration:      1m24.3392355s
load duration:        59.223167ms
prompt eval count:    26 token(s)
prompt eval duration: 11.296211667s
prompt eval rate:    2.30 tokens/s
eval count:          690 token(s)
eval duration:        1m12.980466167s
eval rate:            9.45 tokens/s
1

모빌맨님의 댓글

작성자 모빌맨
작성일 03.16 18:06
LM 스튜디오로 27B 양자화 모델을 설치해서 이것 저것 해보는 중인데...
정말 훌륭하네요.

아이맥 M1(16GB)에도 12B, 4B 설치해 봤더니, 긴 글 요약 정도는 깔끔하게 아주 잘 합니다.
아이패드에도 올려볼까 싶은 생각도 드네요.

멤피스님의 댓글의 댓글

대댓글 작성자 멤피스
작성일 03.16 18:10
@모빌맨님에게 답글 27B는 어떤 맥에 올리셨나요?

모빌맨님의 댓글의 댓글

대댓글 작성자 모빌맨
작성일 03.16 18:15
@멤피스님에게 답글 아, 27B는... 맥은 아니고요.
RTX4090 탑재된 i9 게이밍 노트북에 올렸습니다;;;

hayandora님의 댓글의 댓글

대댓글 작성자 hayandora
작성일 03.16 19:27
@멤피스님에게 답글 27B를 M4 Pro 128G 애 올려봤는데 잘 돌아갑니다.

멤피스님의 댓글의 댓글

대댓글 작성자 멤피스
작성일 03.17 21:12
@hayandora님에게 답글 128GB라면 :-)

간큰남자님의 댓글의 댓글

대댓글 작성자 간큰남자
작성일 03.19 11:52
@hayandora님에게 답글 궁금한데 초당 토큰 수가 얼마나 나오나요?

hayandora님의 댓글의 댓글

대댓글 작성자 hayandora
작성일 03.19 14:07
@간큰남자님에게 답글 gemma-3-27b, Q8 → 14.49 tok/sec, 0.70s to first token
llama-3.3-70b, Q4 → 8.33 tok/sec, 1.19s to first token
phi-4, Q4 → 29.66 tok/sec, 0.40s to first token
입니다.

gemma-3-27b, Q4 는 19.39 tok/sec, 0.52s to first token 정도 나오네요. 큰 차이 없네요.

플루님의 댓글

작성자 플루
작성일 03.16 18:21
Claude 3.5 sonnet 정도는 되나요?  요새 작업하다 리밋이 자주 걸려서... 
괜찮으면, 그래픽 카드를 하나 지르든지, m4를 지르든지 하게요.!~

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.16 19:17
@플루님에게 답글 4b모델 테스트 한번 해보세요.
위에 올린 저 사양으로도 원활히 됩니다. :)

rozen님의 댓글

작성자 rozen
작성일 03.17 01:10
오늘 에이아이딩 입당 했습니다. 무슨 말인지 모르겠습니다.

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.17 07:43
@rozen님에게 답글 챗GPT 같은걸 집PC로 돌립니다. :)

멤피스님의 댓글의 댓글

대댓글 작성자 멤피스
작성일 03.17 21:15
@rozen님에게 답글 오픈소스 모델은 개인 컴퓨터에서 실행할 수 있는데 돌릴 수 있는 모델의 크기가 GPU의 VRAM 크기에 의존합니다. 맥의 경우 unified memory라서 시스템 메모리 크기에 의존하구요. 큰 모델일 수록 성능이 좋으나 그 만큼 좋은 하드웨어가 필요하구요.

다이아mond님의 댓글

작성자 다이아mond
작성일 03.17 09:30

HX370 UMPC에서 27B가 돌아갑니다. (Pocket 4)
속도는 조금 느린 편 이지만 못기다릴 수 있는 수준은 아니네요.

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.17 09:41
@다이아mond님에게 답글 27b가 돌아가는군요.ㄷ
HX370 보니 32/64G 옵션이 있던데 64G 겠죠?

다이아mond님의 댓글의 댓글

대댓글 작성자 다이아mond
작성일 03.17 09:49
@셀빅아이님에게 답글 네 64GB입니다.

셀빅아이님의 댓글의 댓글

대댓글 작성자 셀빅아이
작성일 03.17 09:54
@다이아mond님에게 답글 검색해보니 130만원대로 구할 수 있던데, 5090,4090보다 저렴하게 구성할 수 있네요. :)

다이아mond님의 댓글의 댓글

대댓글 작성자 다이아mond
작성일 03.17 10:06
@셀빅아이님에게 답글 좀 특이한 위치에 있는 제품이라서...
저는 가능한 PC로 가시는걸 추천드립니다.

확실한 장점은 작은 사이즈 말고는 딱히 보이지 않습니다 ㅎㅎ
풀로드시 비행기 이륙도 합니다.

Ser9(RAM 32) / Pocket 4(RAM 64) 두개 사용중입니다.
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색