M4 Pro에서 Llama을 사용해보았습니다.

알림
|
X

페이지 정보

작성자 DINKIssTyle 61.♡.73.102
작성일 2025.01.16 08:53
1,244 조회
4 추천

본문


https://damoang.net/free/2874929 글에 작성했던  fullmoon 을 이용해보았습니다.


장점

설치와 이용이 너무 편리한 클라이언트로군요.

그냥 앱스토어에서 설치 후 모델 설치 누르면 다운로드 된 후 준비 끝입니다.

답변 속도가 되게 빠르군요. (아래 실제 배속의 GIF 파일을 준비했습니다.)



단점

옛날 ChatGPT랑 만난거 같아요. 소설을 씁니다.




복잡한 설치나 설정없이 Llama를 체험해보고 싶으신 분들께 추천해봅니다.


댓글 9 / 1 페이지

외국인노동자의현실님의 댓글

작성자 no_profile 외국인노동자의현실 (157.♡.92.86)
작성일 08:56
m4 미니에 설치 해봤는데..나쁘지 않네용

DINKIssTyle님의 댓글

작성자 DINKIssTyle (61.♡.73.102)
작성일 09:00
확실한건 오리지날 시리보다는 똑똑하고 다양한 답변이 가능하군요

어머님의 댓글의 댓글

대댓글 작성자 어머 (141.♡.119.11)
작성일 09:02
@DINKIssTyle님에게 답글 오리지널 시리랑은 비교하는게 라마한테 실례죠. ㅎㅎ

DINKIssTyle님의 댓글의 댓글

대댓글 작성자 DINKIssTyle (61.♡.73.102)
작성일 09:05
@어머님에게 답글 아앗.. 라마에게 용서를 구합니다. ㅋㅋㅋ

pupipepo님의 댓글

작성자 pupipepo (106.♡.195.130)
작성일 09:09
앗 올라마만 사용해봤었는데 풀문은 모델 선택을 하지는 못하는걸까요?!

DINKIssTyle님의 댓글의 댓글

대댓글 작성자 DINKIssTyle (61.♡.73.102)
작성일 09:11
@pupipepo님에게 답글 모델은 Llama 3.2 1B, 3B 둘중 하나만 설치가 가능하네요

LunaMaria®님의 댓글

작성자 no_profile LunaMaria® (1.♡.234.201)
작성일 09:15
사실 개인이 LLM을 돌리는건 논문이나 일적으로 자체적으로 필요한게 아니라면
시간낭비죠.

DINKIssTyle님의 댓글의 댓글

대댓글 작성자 DINKIssTyle (61.♡.73.102)
작성일 09:17
@LunaMaria®님에게 답글 용량만 허용(1.8GB)한다면 번역기로 써도 될법 합니다.
무료 이용에 속도도 빠르고 오프라인에서 개인이 사용할 수 있으니깐요. ㅎㅎ

LunaMaria®님의 댓글의 댓글

대댓글 작성자 no_profile LunaMaria® (1.♡.234.201)
작성일 09:35
@DINKIssTyle님에게 답글 우리나라 환경에서 오프라인은 별의미가 없죠.
게다가 가장 중요한 결과가 무료인 chat gpt만 못하니깐요
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색