Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- multi-query
- deep learning
- leetcode
- 활성화함수
- Cross Entropy Error
- nlp
- 파인튜닝
- 데이터 파싱
- 이상탐지
- 퍼셉트론
- pdf parsing
- 활성화 함수
- 합성곱 신경망
- visual instruction tuning
- Time Series
- gemma3
- anomaly detection
- qlora
- rag-fusion
- LLM
- Non-Maximum Suppression
- rrf
- 시계열
- LLaVA
- 딥러닝
- fine tuning
- rag parsing
- 손실함수
- Mean squared error
- 오차역전파
Archives
- Today
- Total
목록2025/04 (1)
Attention, Please!!!
Gemma 3 모델 파인튜닝(LoRa and QLoRA) 해보기
Gemma 3 모델을 완전하게 파인튜닝하려면 80GB VRAM을 지원하는 고성능 GPU가 필요하다. 그러나 LoRA를 기반으로 파인튜닝할 경우, 1B 및 4B 모델은 24GB VRAM이 요구되며, 27B 모델은 54GB VRAM이 필요하다. 다만, 27B 모델을 4비트로 양자화하면 24GB VRAM에서도 파인튜닝이 가능하지만, 시퀀스 길이가 제한되며 임베딩을 재학습할 수 없다는 단점이 있다. 이로 인해 chat template 사용 시 문제가 발생할 수 있다. Chat template은 대화형 AI 모델이 채팅 환경에서 효과적으로 작동하도록 설계된 특정 구조를 의미하며, 일반적으로 또는 같은 특별 토큰을 포함한다. 하지만 이러한 토큰이 학습되지 않으면 모델이 대화 흐름을 제대로 이해하지 못해 부정확하..
LLM/Fine-tuning
2025. 4. 1. 19:46