옵시디안에 로컬 LLM붙여봤어요

알림
|
X

페이지 정보

작성자 큐리스 172.♡.223.25
작성일 2024.04.02 12:55
573 조회
5 댓글
1 추천
글쓰기

본문

로컬이라서 맘편하게 이용중입니다. ㅎㅎㅎ 한글은 좀 딸리네요.

  • 게시물이 없습니다.
댓글 5

팡파파팡님의 댓글

작성자 팡파파팡 (172.♡.207.138)
작성일 04.02 13:13
라마 스튜디오가 최소 32기가 메모리가 필요하죠?

큐리스님의 댓글

작성자 큐리스 (172.♡.119.93)
작성일 04.02 13:35
전 맥북 M2에 16기가 쓰고 있어요.

팡파파팡님의 댓글의 댓글

대댓글 작성자 팡파파팡 (172.♡.118.201)
작성일 04.03 22:33
@큐리스님에게 답글 답글 달린걸 못 봤어요! 16기가라니 저도 해봐야겠네요

팡파파팡님의 댓글의 댓글

대댓글 작성자 팡파파팡 (211.♡.235.47)
작성일 04.07 01:29
@팡파파팡님에게 답글 오늘 테스트를 해보니 옵시디언과 플러그인으로 연동해서 사용할 때 많이 불편했습니다.

ollama + 브라우저 확장 프로그램( https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo ) 에 웹 검색을 켜보니 조금 나아졌습니다.

'ollama'는 macOS와 Linux에서는 정식으로, Windows에서는 베타 버전으로 지원됩니다.

제가 사용한 모델은 구글 딥마인드의 최신 버전인 Gemma 9B(안내에는 7B로 표기)를 사용하고 있습니다.

hanqsun님의 댓글

작성자 hanqsun (172.♡.223.103)
작성일 04.03 14:36
와! 지난 주말에 옵시디언 설치해서 사용하기 시작했는데 신기하네요
어떻게 하는지 저도 알아봐야겠어요!!
글쓰기
전체 검색