Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Cross Entropy Error
- 오차역전파
- multi-query
- 손실함수
- LLM
- bf16
- qlora
- LLaVA
- Mean squared error
- rag-fusion
- deep learning
- 파인튜닝
- pdf parsing
- gemma3
- 활성화 함수
- fp32
- rag parsing
- fp16
- Non-Maximum Suppression
- visual instruction tuning
- 이상탐지
- 딥러닝
- 데이터 파싱
- 합성곱 신경망
- Time Series
- 활성화함수
- fine tuning
- rrf
- leetcode
- anomaly detection
Archives
- Today
- Total
목록2025/05 (1)
Attention, Please!!!
거대 언어 모델 : BF16, FP16, FP32에 따른 추론 성능 알아보기
초기 대형 언어 모델들은 대체적으로 float32 데이터 유형을 통해 훈련하고 배포된다. 하지만 float32는 각 파라미터가 32비트 (즉, 4바이트)를 차지하기 때문에, LLaMA 3와 같은 700 억 개 파라미터를 가진 모델의 경우 필요한 메모리의 소비량이 대략 280GB에 달한다. 이 엄청난 메모리 사용량은 대규모 모델의 배포와 운영적인 측면에서 어려움을 겪고 있다. 이에 이러한 문제를 해결하기 위해 LLM 개발자들은 메모리 소비를 절반으로 줄일 수 있는 float16를 사용하고 있는 추세이다. 하지만 float16으로 전환하는 것은 다양한 문제점을 동반한다. float16은 표현 가능한 숫자의 범위와 정밀도가 float32에 비해 훨씬 적기 때문에, 모델 훈련 중에 오버플로우(숫자가 커져 버리는..
LLM
2025. 5. 3. 18:27