GPU 2대 올렸습니다. (feat AI)

알림
|
X

페이지 정보

작성자 칼쓰뎅 119.♡.210.192
작성일 2025.01.12 00:10
1,337 조회
0 추천

본문

메인은 4090이고 3090은 케이스내에 자리가 없어서 

oculink 연결로 외부케이스에 egpu로 설치했습니다.

48GB의 vram이 되니까...오오오...



C:\Users\kalst>ollama ps

NAME ID SIZE PROCESSOR UNTIL

llama3.3:latest a6eb4748fd29 46 GB 100% GPU 4 minutes from now



llama 3.2 70b 4비트 양자화 모델이 한번에 올라가는군요!!

이젠 좀 고품질 ai모델들 올려볼수 있겠습니다.

4090 하나로는 3-4GB씩 모잘라서 못올리는 것들이 은근히 많더라구요.

양자화 너무 많이한거는 올려봤자 헛소리만 하는게 많아서;;;

댓글 2 / 1 페이지

A350님의 댓글

작성자 A350 (104.♡.68.24)
작성일 00:14
3,4기가만 모자른다면 이번에 5090 지르시면 한대로 되겠네요. ㅋㅋ

칼쓰뎅님의 댓글의 댓글

대댓글 작성자 칼쓰뎅 (119.♡.210.192)
작성일 01:34
@A350님에게 답글 아 그건좀... 돈이... ㅋㅋㅋ
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색