알림
|

Opera 브라우저, 사용자가 LLM을 다운받아 로컬로 실행하는 기능 추가

페이지 정보

작성자 커널 125.♡.41.31
작성일 2024.04.09 00:10
1,705 조회
4 댓글
5 추천
글쓰기

본문

- 오페라가 사용자가 대형 언어 모델(LLMs)을 자신의 컴퓨터에서 로컬로 다운로드하고 사용할 수 있도록 하는 기능을 발표

- 개발자 스트림 업데이트를 받는 오페라 원 사용자에게 먼저 제공되며, 150개 이상의 모델 중에서 선택할 수 있음

- 메타의 Llama, 구글의 Gemma, Vicuna 등이 포함

- Opera의 AI 기능 드롭 프로그램의 일부로 제공됨

- 오픈소스 프레임워크인 Ollama를 사용하고 있음. 현재 사용 가능한 모델들은 Ollama의 라이브러리의 일부이지만,

- 향후 다른 출처의 모델들을 포함시키려고 함



커널 Exp 1,220
30%

My memo::=> @hamonikr.bsky.social

My memo::=> @hamonikr.bsky.social

댓글 4 / 1 페이지

Ecridor님의 댓글

작성자 no_profile Ecridor (253.♡.46.85)
작성일 04.09 01:00
ollama는 앱으로 설치할 수도 있는데, 그럼 opera는 shell 역할만 하는 걸까요.

그로구님의 댓글의 댓글

대댓글 작성자 no_profile 그로구 (255.♡.195.112)
작성일 04.09 01:15
@Ecridor님에게 답글 그런 것 같습니다. 엔드유저가 더 편하게 쓸 수 있게 도와주긴 할 것 같아요.

MDBK님의 댓글

작성자 MDBK (255.♡.106.32)
작성일 04.09 01:26
오홍…. 제 4090쓰임새가 생기는군요

Ecridor님의 댓글

작성자 no_profile Ecridor (253.♡.46.85)
작성일 04.09 07:58
https://blogs.opera.com/news/2024/04/ai-feature-drops-local-llms/
이 글에 다운로드 링크가 있습니다. 방금 깔아봤는데 터미널도 필요없고 도커도 필요없고 매우 간단합니다. 다만 오페라 계정을 만들어야 하는데, 로컬이라면서 굳이 왜죠. 속도는 ollama를 직접 설치한 것과 차이가 없습니다. 일단 컴퓨터를 업그레이드 해야 탐나는 모델을 돌리겠네요.
글쓰기
전체 검색