알림
|
Opera 브라우저, 사용자가 LLM을 다운받아 로컬로 실행하는 기능 추가
페이지 정보
작성일
2024.04.09 00:10
본문
- 오페라가 사용자가 대형 언어 모델(LLMs)을 자신의 컴퓨터에서 로컬로 다운로드하고 사용할 수 있도록 하는 기능을 발표
- 개발자 스트림 업데이트를 받는 오페라 원 사용자에게 먼저 제공되며, 150개 이상의 모델 중에서 선택할 수 있음
- 메타의 Llama, 구글의 Gemma, Vicuna 등이 포함
- Opera의 AI 기능 드롭 프로그램의 일부로 제공됨
- 오픈소스 프레임워크인 Ollama를 사용하고 있음. 현재 사용 가능한 모델들은 Ollama의 라이브러리의 일부이지만,
- 향후 다른 출처의 모델들을 포함시키려고 함
My memo::=> @hamonikr.bsky.social
-
등록일 06.30 15:53
My memo::=> @hamonikr.bsky.social
댓글 4
/ 1 페이지
그로구님의 댓글의 댓글
@Ecridor님에게 답글
그런 것 같습니다. 엔드유저가 더 편하게 쓸 수 있게 도와주긴 할 것 같아요.
Ecridor님의 댓글
https://blogs.opera.com/news/2024/04/ai-feature-drops-local-llms/
이 글에 다운로드 링크가 있습니다. 방금 깔아봤는데 터미널도 필요없고 도커도 필요없고 매우 간단합니다. 다만 오페라 계정을 만들어야 하는데, 로컬이라면서 굳이 왜죠. 속도는 ollama를 직접 설치한 것과 차이가 없습니다. 일단 컴퓨터를 업그레이드 해야 탐나는 모델을 돌리겠네요.
이 글에 다운로드 링크가 있습니다. 방금 깔아봤는데 터미널도 필요없고 도커도 필요없고 매우 간단합니다. 다만 오페라 계정을 만들어야 하는데, 로컬이라면서 굳이 왜죠. 속도는 ollama를 직접 설치한 것과 차이가 없습니다. 일단 컴퓨터를 업그레이드 해야 탐나는 모델을 돌리겠네요.
Ecridor님의 댓글