Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Non-Maximum Suppression
- 데이터 파싱
- deep learning
- 오차역전파
- visual instruction tuning
- gemma3
- 파인튜닝
- 딥러닝
- Mean squared error
- nlp
- 손실함수
- 활성화함수
- fine tuning
- Cross Entropy Error
- anomaly detection
- rag-fusion
- qlora
- rag parsing
- Time Series
- rrf
- LLM
- 시계열
- LLaVA
- 이상탐지
- 합성곱 신경망
- leetcode
- multi-query
- 퍼셉트론
- 활성화 함수
- pdf parsing
Archives
- Today
- Total
목록2025/05/03 (1)
Attention, Please!!!
거대 언어 모델 : BF16, FP16, FP32에 따른 추론 성능 알아보기
초기 대형 언어 모델들은 대체적으로 float32 데이터 유형을 통해 훈련하고 배포된다. 하지만 float32는 각 파라미터가 32비트 (즉, 4바이트)를 차지하기 때문에, LLaMA 3와 같은 700 억 개 파라미터를 가진 모델의 경우 필요한 메모리의 소비량이 대략 280GB에 달한다. 이 엄청난 메모리 사용량은 대규모 모델의 배포와 운영적인 측면에서 어려움을 겪고 있다. 이에 이러한 문제를 해결하기 위해 LLM 개발자들은 메모리 소비를 절반으로 줄일 수 있는 float16를 사용하고 있는 추세이다. 하지만 float16으로 전환하는 것은 다양한 문제점을 동반한다. float16은 표현 가능한 숫자의 범위와 정밀도가 float32에 비해 훨씬 적기 때문에, 모델 훈련 중에 오버플로우(숫자가 커져 버리는..
LLM
2025. 5. 3. 18:27