ai모델 돌려보니 4090이 한없이 작아지네요.

알림
|
X

페이지 정보

작성자 칼쓰뎅 119.♡.210.192
작성일 2024.11.07 01:01
1,974 조회
4 추천
쓰기

본문

파라미터 10빌리언 언더만 4090에 올리는게 가능하네요.

vram 24기가면 엄청 크지! 라고 생각했었는데 말이죠 ㅋ


가볍게 사용하기엔 괜찮습니다. 

하지만 생각보다 좀 깊게 사용해보면... 엉뚱한 대답하는 부분도 있습니다.

영어로 하면 확실히 더 낫고요. (한글로 익혔다고 하는것들도... 조금 떨어지는 느낌)



결론은 짧은기간 좋은 퀄리티로 쓸때는 유료 ai서비스들 쓰자. 

길게 소소한 재미를 위해서는 뭐 4090도 나쁜편은 아니긴하더라.

댓글 6 / 1 페이지

트라팔가야님의 댓글

작성자 트라팔가야 (58.♡.217.6)
작성일 11.07 01:03
가내 수공업이군요.

eou4님의 댓글

작성자 eou4 (175.♡.143.81)
작성일 11.07 01:05
돌아간다는것도 참 대단한거같습니다. 몇년있음 원활하게 돌아가겠죠.

칼쓰뎅님의 댓글의 댓글

대댓글 작성자 칼쓰뎅 (119.♡.210.192)
작성일 11.07 01:09
@eou4님에게 답글 몇년 있으면 뭐... 유료버젼쓰면 진짜 어마어마할꺼 같아요.
지금도 보면 chatgpt 무료버젼도 엄청나게 좋더라구요. (다만 많이 물어보면 짤려서....ㅋㅋ)

통통한새우님의 댓글

작성자 통통한새우 (118.♡.73.52)
작성일 11.07 07:52
3090 24GB짜리 두 개 장착해서 48GB로 돌리면 쓸만하다고 하죠.
전 돈도 실력도 안돼서 못했지만요. ㅋ

휘소님의 댓글의 댓글

대댓글 작성자 no_profile 휘소 (210.♡.27.154)
작성일 11.07 09:17
@통통한새우님에게 답글 요즘은 크로스파이어같은 링크케이블 안쓸텐데 어떻게 V메모리를 공유하는건가요?
ㄷㄷㄷㄷㄷㄷㄷㄷ
쿠다 병렬연산같은걸 끼얹나?

통통한새우님의 댓글의 댓글

대댓글 작성자 통통한새우 (118.♡.73.52)
작성일 11.07 10:04
@휘소님에게 답글 메모리만 쓴다고 하더라구요.
영상 보구서 제가 가진 4060TI 16GB짜리에다가 아들녀석이 쓰던 2060 super 8BG짜리 붙여봤는데요...
메모리를 같이 잘 쓰는건지는 음..잘 모르겠어요.
4060이 워낙 하위기종이라 그런건지도...
쓰기
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색