Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- fp32
- pdf parsing
- fp16
- 딥러닝
- multi-query
- 데이터 파싱
- Time Series
- fine tuning
- anomaly detection
- Cross Entropy Error
- qlora
- rrf
- leetcode
- LLaVA
- 오차역전파
- 파인튜닝
- rag-fusion
- gemma3
- 합성곱 신경망
- rag parsing
- 활성화함수
- 이상탐지
- LLM
- Non-Maximum Suppression
- 손실함수
- deep learning
- 활성화 함수
- Mean squared error
- visual instruction tuning
- bf16
Archives
- Today
- Total
목록fp16 (1)
Attention, Please!!!
거대 언어 모델 : BF16, FP16, FP32에 따른 추론 성능 알아보기
초기 대형 언어 모델들은 대체적으로 float32 데이터 유형을 통해 훈련하고 배포된다. 하지만 float32는 각 파라미터가 32비트 (즉, 4바이트)를 차지하기 때문에, LLaMA 3와 같은 700 억 개 파라미터를 가진 모델의 경우 필요한 메모리의 소비량이 대략 280GB에 달한다. 이 엄청난 메모리 사용량은 대규모 모델의 배포와 운영적인 측면에서 어려움을 겪고 있다. 이에 이러한 문제를 해결하기 위해 LLM 개발자들은 메모리 소비를 절반으로 줄일 수 있는 float16를 사용하고 있는 추세이다. 하지만 float16으로 전환하는 것은 다양한 문제점을 동반한다. float16은 표현 가능한 숫자의 범위와 정밀도가 float32에 비해 훨씬 적기 때문에, 모델 훈련 중에 오버플로우(숫자가 커져 버리는..
LLM
2025. 5. 3. 18:27