Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 데이터 파싱
- 파인튜닝
- Cross Entropy Error
- fine tuning
- 활성화 함수
- Mean squared error
- LLM
- 합성곱 신경망
- rag-fusion
- qlora
- nlp
- deep learning
- visual instruction tuning
- pdf parsing
- gemma3
- 활성화함수
- Non-Maximum Suppression
- leetcode
- Time Series
- rag parsing
- LLaVA
- 손실함수
- 시계열
- anomaly detection
- multi-query
- 딥러닝
- 퍼셉트론
- rrf
- 오차역전파
- 이상탐지
Archives
- Today
- Total
목록2025/04/01 (1)
Attention, Please!!!
Gemma 3 모델 파인튜닝(LoRa and QLoRA) 해보기
Gemma 3 모델을 완전하게 파인튜닝하려면 80GB VRAM을 지원하는 고성능 GPU가 필요하다. 그러나 LoRA를 기반으로 파인튜닝할 경우, 1B 및 4B 모델은 24GB VRAM이 요구되며, 27B 모델은 54GB VRAM이 필요하다. 다만, 27B 모델을 4비트로 양자화하면 24GB VRAM에서도 파인튜닝이 가능하지만, 시퀀스 길이가 제한되며 임베딩을 재학습할 수 없다는 단점이 있다. 이로 인해 chat template 사용 시 문제가 발생할 수 있다. Chat template은 대화형 AI 모델이 채팅 환경에서 효과적으로 작동하도록 설계된 특정 구조를 의미하며, 일반적으로 또는 같은 특별 토큰을 포함한다. 하지만 이러한 토큰이 학습되지 않으면 모델이 대화 흐름을 제대로 이해하지 못해 부정확하..
LLM/Fine-tuning
2025. 4. 1. 19:46