Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- nlp
- 퍼셉트론
- visual instruction tuning
- leetcode
- multi-query
- rag-fusion
- segmentation
- 컴퓨터비전
- anomaly detection
- 시계열
- 활성화함수
- computer vision
- deep learning
- rag parsing
- 오차역전파
- 이상탐지
- LLaVA
- Cross Entropy Error
- 합성곱 신경망
- pdf parsing
- LLM
- rrf
- E
- Time Series
- Non-Maximum Suppression
- 손실함수
- Mean squared error
- 딥러닝
- 데이터 파싱
- 활성화 함수
Archives
- Today
- Total
목록2025/02/26 (1)
굴러가는 분석가의 일상
Reasoning 기반 LLM 저렴하게 Fine-Tuning 하는 방법
대형 언어 모델(LLM)의 Reasoning 관점에 대한 연구가 최근 AI 분야에서 가장 뜨거운 주제 중 하나로 떠오르고 있는 것 같다. 이에 대해 간단하게 먼저 알아보겠다. 프롬프트 기반 추론 향상: 최근 연구에 따르면, "Chain of Thought" 같은 프롬프트 기술을 통해 LLM이 단계별로 문제를 풀도록 유도하고 있다. 예를 들어, 복잡한 수학 문제를 풀 때 모델이 중간에 직접적으로 개입하여 스스로 답변을 개선하는 방식으로 최종 다변의 정확도를 높이는 방식이다. 구체적으로는 "Tree of Thought"이나 "Self-Consistency" 같은 변형된 접근법도 상당한 주목을 받고 있는데, 이는 모델이 여러 가능한 추론 경로를 탐색하거나 스스로 답변을 검정하는 방식으로 날날이 발전되고 있는 ..
LLM/Fine-tuning
2025. 2. 26. 11:34