AI당

(탄핵 재표결 2일 전)   🔥 제목 시위는 [말머리] 또는 임시게시판(불타는앙)을 이용바랍니다.

LLaMA-30B 4bit 사용해보기 (3090 24G 기반)

알림
|
X

페이지 정보

작성자 no_profile 김밥하나라면하나 162.♡.119.196
작성일 2024.03.29 22:13
570 조회
2 추천

본문

(그곳에 2023.03.12 에 썼던 글인데 블로그로 퍼가신분도 있고해서 원본글 남길겸 글옮겨 봅니다.)

최근에 ChatGPT를 보면서 많은 생각에 잠겨있을때쯤, LLaMA(Large Language Model Meta AI) 가 나오면서

다시한번더 고민이 깊어졌습니다.


평소에 소게당(갑자기 웬 소게당이냐 하시겠지만... 개발하는 아저씨들과 공통적으로 일을 하지는 않고 커뮤만 이어가고있습니다... ㅎㅎ)에서 종종 뵙게되는 개발자 분들과 이야기를 할 기회가 있었는데, ChatGPT API연동 이런 레벨의 이야기가 오고가던중에 


일주일만에 노선이 바뀌었죠. 바로 저 LLaMA 인데요. 불과 지난주에 만나서 얘기나누고 담소나눴을뿐인데...


결론만 빠르게 말하자면, 물건? 입니다. 집에서 3090에 가볍게 띄워볼수도 있고 나름 ChatGPT향이 납니다. 물론


#1 https://rentry.org/llama-tard-v2#install-text-generation-webui

#2 4 bits quantization of LLaMa using GPTQ (https://github.com/qwopqwop200/GPTQ-for-LLaMa)

#3 https://github.com/oobabooga/text-generation-webui/wiki/LLaMA-model

으로 이어지는 집단지성의 힘을 적극적으로  활용했습니다.


LLaMA-7B int4 DDL: https://huggingface.co/decapoda-research/llama-7b-hf-int4/resolve/main
LLaMA-13B int4 DDL: https://huggingface.co/decapoda-research/llama-13b-hf-int4/tree/main
LLaMA-30B int4 DDL: https://huggingface.co/decapoda-research/llama-30b-hf-int4/tree/main
LLaMA-65B int4 DDL: https://huggingface.co/decapoda-research/llama-65b-hf-int4/tree/main


 ZoidBB라는 유저께서 적극적으로 7B, 13B 모델을 오픈해주어서 빠르게 캐치업 했던것 같습니다.


최근 공지에 

11-3-23 There's a new torrent version of the 4bit weights called "LLaMA-HFv2-4bit". The old "LLaMA-4bit" torrent may be fine. But if you have any issues with it, it's recommended to update to the new 4bit torrent or use the decapoda-research versions off of HuggingFace or produce your own 4bit weights.

라고 떴을정도로 사람들이 많이 헤맨상황도 많았는데요. 어찌되었든 빨리 찍먹은 가능했다 정도만.... ^^;;;


말이 길었습니다만 결론은 뭐 위에서와 같이 물건입니다. 7B는 확실히 심심이 AI버전 느낌이라면 13B, 30B는 쓸만해요.

ChatGPT 향기가 납니다. 65B는 못돌려봐서 모르겠습니다만, 일단 30B 맥스토큰 800+- 정도 잡고 돌려보면 15분 안팍으로 도는데

결과는 준수합니다.  비디오메모리는 20G 정도 점유 하고, 소비전력은 400W정도 씁니다.


Sun Mar 12 18:24:44 2023      
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 515.86.01    Driver Version: 515.86.01    CUDA Version: 11.7     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  NVIDIA GeForce ...  Off  | 00000000:0A:00.0  On |                  N/A |
|100%   76C    P2   402W / 420W |  19310MiB / 24576MiB | 100% Default |
|                               |                      |                  N/A |


속도때문에 13B로 계속 테스트 해볼 계획입니다.


관련된 위치에서 일 얘기할때는 많은 얘기가 오가게 되네요.   많은 공유가 있었으면 합니다.


백만원짜리 카드한장이... 여럿 대체하는 그런 세상이 오겠네요.


추가 수정 ( 13B 테스트 하느라 스왑이 50G였는데 조금더 늘려봐야겠네요. ^^;;)

4-bit Model Requirements for LLaMA

ModelModel SizeMinimum Total VRAMCard examplesRAM/Swap to Load*
LLaMA-7B3.5GB6GBRTX 1660, 2060, AMD 5700xt, RTX 3050, 306016 GB
LLaMA-13B6.5GB10GBAMD 6900xt, RTX 2060 12GB, 3060 12GB, 3080, A200032 GB
LLaMA-30B15.8GB20GBRTX 3080 20GB, A4500, A5000, 3090, 4090, 6000, Tesla V10064 GB
LLaMA-65B31.2GB40GBA100 40GB, 2x3090, 2x4090, A40, RTX A6000, 8000, Titan Ada128 GB

*System RAM (not VRAM) required to load the model, in addition to having enough VRAM. NOT required to RUN the model. You can use swap space if you do not have enough RAM.


13B결과는 아래 DeepL 번역결과 일부 스샷하고, 원문 남깁니다. 초반 두개의 문단만 넣은 결과입니다. 더 좋은 결과인것도 많습니다.

- 스샷 삭제-



Getting started with machine learning model monitoring is easier now than ever. Several businesses have produced tools to simplify the process of monitoring machine learning systems in production. Reinventing the wheel is not necessary.

The tooling to leverage for monitoring your system depends on the specific items you want to monitor. It is worth browsing to find what best works for you before finalizing your decision. A few solutions you may wish to start with are listed below.

* Apache's Metron (open-source)
* Machine Metrics (commercial)
* MLOps (also Machine Metrics) (commercial)
* Prometheus Operator (open-source)
* OpenMetrics (open-source)

## Metrics

Metrics that need to be gathered and stored from a machine learning model can be generally broken down into 5 groups:

* Model Performance (A summary of the model's effectiveness)
* Evaluation Metrics (metrics created from model evaluation data)
* Validation (how the model behaves under a specific set of circumstances)
* Stability (how well the model will hold up over time)
* Interaction (how the output is affecting the input)

### Training Metrics

Model Performance

* Aggregate metrics: mean, median, max and min values
  * Model accuracy after training
  * Model stability after training
  * Training loss
  * Training loss after training
  * Evaluation metrics after training
  * Inference accuracy
* Metrics related to training data: data size, data type, data format, number of dimensions, and the data source

Evaluation Metrics:

* Mean squared error (MSE)
* Mean absolute error (MAE)
* Root mean squared error (RMSE)
* Root mean absolute error (RMAE)
* Predictions loss
* Actual loss
* Predictions accuracy
* Actual accuracy
* Predicted value
* Actual value

Validation:

* Error rate
* Cross-entropy
* Accuracy
* R2

Stability:

* Prediction stability
* Evaluation stability
* Overfitting

Interaction:

Interaction with training data is not generally monitored, but should be noted when applicable. Model interaction can be defined by how a trained model affects inputs (prediction) and how inputs affect outputs (inferenc)

### Production Metrics

Model Performance

* Aggregate metrics: mean, median, max and min values
  * Model accuracy
  * Model stability
  * Model performance error rate
  * Evaluation metrics

Evaluation Metrics:

* Mean absolute error (MAE)
  * Predictions accuracy
  * Actual accuracy

Validation:

* Cross-entropy
* Accuracy
* Overfitting

Stability:

* Prediction stability
* Evaluation stability
* Overfitting

Interaction:

Interaction with inputs is not generally monitored, but should be noted when applicable. Input interaction can be defined by how an input affects outputs.

## See also

* Computer programming: https://softwareengineering.stackexchange.com/
* Statistics: https://stats.stackexchange.com/
* R Programming: https://www.r-bloggers.com/
* Machine Learning: https://www.coursera.org/specializations/machine-learning (제휴)

 

댓글 4 / 1 페이지

오름님의 댓글

작성자 오름 (172.♡.123.58)
작성일 03.29 22:30
저도 관련일을 업으로하고있는데, 라마가 상당히 쓸만하더군요.
GPT 급으로 돌아갑니다 GPT 는 사용당 토큰 비용을 지불해야해서 조금 부담스러운데 저도 라마로 대체해서 쓰고있습니다!

미스트님의 댓글

작성자 미스트 (172.♡.222.73)
작성일 03.31 01:32
영문 테스트 결과인 것이죠? 한글 쪽도 어떤지 궁금합니다..

간실장님의 댓글

작성자 간실장 (172.♡.119.158)
작성일 03.31 21:43
HuggingFace Pipeline으로 돌리시는건가요?
생짜 파이썬 코드로 돌리는 것보다 랭체인 이용해도 돌리면 다른 모델쪽 사용이 많이 수월합니다.

초반에는 저도 cuda 믿고, 생짜 파이썬으로 구성했는데.. 랭체인으로 넘어오니, 모델이나 구성이 휠씬 편해졌습니다.
주피터도 필수이고요..
아시겠지만, gpt4all이나 ollama쪽으로도 파인튜닝 모델 점점 많이 가지고 있어서 가져다 쓰기 많이 편해졌습니다..
아시겠지만.. 혹시나 하고 적어봅니다.. ^^;

간실장님의 댓글

작성자 간실장 (172.♡.119.34)
작성일 03.31 22:39
아.. 그리고 mistral이 라마보다 좋다고 해서 유명해진 모델입니다.
7B 0.2가 라마2 13B보다 벤치마크에서 모두 앞섰습니다.. 앤 메모리가 8기가 정도면 돌릴수 있습니다.
https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2
falcon도 요새 많이 유명하고요..

홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색