Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- fine tuning
- Mean squared error
- leetcode
- pdf parsing
- deep learning
- Time Series
- rag-fusion
- 오차역전파
- 합성곱 신경망
- gemma3
- visual instruction tuning
- 파인튜닝
- 활성화함수
- 데이터 파싱
- nlp
- LLM
- multi-query
- 손실함수
- rag parsing
- Non-Maximum Suppression
- Cross Entropy Error
- 딥러닝
- 시계열
- 퍼셉트론
- 이상탐지
- qlora
- anomaly detection
- LLaVA
- 활성화 함수
- rrf
Archives
- Today
- Total
목록2025/03/08 (1)
Attention, Please!!!
DeepSeek-R1 처럼 "생각"하도록 LLAMA 3.2 파인튜닝 하기
DeepSeek R1 모델이 출시된 이후, 이를 동일하게 구현하기 위해 다양한 연구 혹은 실험이 진행되고 있다. R1 모델이 open-source로 배포가 되면서 LLM 시장에서 큰 파급효과를 불러 일으켰다. 현재 R1 모델을 통해 생성된 데이터 셋이 많이 구축되고 있어, 이를 활용해 다른 모델들이 유사한 방식으로 "생각"할 수 있도록 훈련시킬 수 있는 가능성이 극대화 되고 있다. 이러한 데이터 셋을 활용하면 기존 LLM을 R1의 추론 능력에 맞춰 모방하도록 Fine-tuning 하는 작업이 비교적 수월해진다. 본 게시물에서는 커뮤니티에서 만든 R1 데이터 셋을 활용하여 LLM의 성능을 높이기 위한 Fine-Tuning with Adapter에 대해 알아보도록 하고자 한다. DeepSeek-R1에서 ..
LLM/Fine-tuning
2025. 3. 8. 20:30