ai모델 돌려보니 4090이 한없이 작아지네요.
알림
|
페이지 정보
작성일
2024.11.07 01:01
본문
파라미터 10빌리언 언더만 4090에 올리는게 가능하네요.
vram 24기가면 엄청 크지! 라고 생각했었는데 말이죠 ㅋ
가볍게 사용하기엔 괜찮습니다.
하지만 생각보다 좀 깊게 사용해보면... 엉뚱한 대답하는 부분도 있습니다.
영어로 하면 확실히 더 낫고요. (한글로 익혔다고 하는것들도... 조금 떨어지는 느낌)
결론은 짧은기간 좋은 퀄리티로 쓸때는 유료 ai서비스들 쓰자.
길게 소소한 재미를 위해서는 뭐 4090도 나쁜편은 아니긴하더라.
댓글 6
/ 1 페이지
칼쓰뎅님의 댓글의 댓글
@eou4님에게 답글
몇년 있으면 뭐... 유료버젼쓰면 진짜 어마어마할꺼 같아요.
지금도 보면 chatgpt 무료버젼도 엄청나게 좋더라구요. (다만 많이 물어보면 짤려서....ㅋㅋ)
지금도 보면 chatgpt 무료버젼도 엄청나게 좋더라구요. (다만 많이 물어보면 짤려서....ㅋㅋ)
통통한새우님의 댓글
3090 24GB짜리 두 개 장착해서 48GB로 돌리면 쓸만하다고 하죠.
전 돈도 실력도 안돼서 못했지만요. ㅋ
전 돈도 실력도 안돼서 못했지만요. ㅋ
휘소님의 댓글의 댓글
@통통한새우님에게 답글
요즘은 크로스파이어같은 링크케이블 안쓸텐데 어떻게 V메모리를 공유하는건가요?
ㄷㄷㄷㄷㄷㄷㄷㄷ
쿠다 병렬연산같은걸 끼얹나?
ㄷㄷㄷㄷㄷㄷㄷㄷ
쿠다 병렬연산같은걸 끼얹나?
통통한새우님의 댓글의 댓글
@휘소님에게 답글
메모리만 쓴다고 하더라구요.
영상 보구서 제가 가진 4060TI 16GB짜리에다가 아들녀석이 쓰던 2060 super 8BG짜리 붙여봤는데요...
메모리를 같이 잘 쓰는건지는 음..잘 모르겠어요.
4060이 워낙 하위기종이라 그런건지도...
영상 보구서 제가 가진 4060TI 16GB짜리에다가 아들녀석이 쓰던 2060 super 8BG짜리 붙여봤는데요...
메모리를 같이 잘 쓰는건지는 음..잘 모르겠어요.
4060이 워낙 하위기종이라 그런건지도...
트라팔가야님의 댓글