Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
Tags
- LLaVA
- Non-Maximum Suppression
- 딥러닝
- 합성곱 신경망
- deep learning
- rrf
- gemma3
- anomaly detection
- bf16
- Time Series
- multi-query
- 활성화 함수
- fp32
- qlora
- 데이터 파싱
- 오차역전파
- rag parsing
- fp16
- 이상탐지
- Mean squared error
- 활성화함수
- pdf parsing
- LLM
- Nested Learning
- LLM 패러다임
- Cross Entropy Error
- 파인튜닝
- fine tuning
- rag-fusion
- visual instruction tuning
Archives
- Today
- Total
목록E (1)
Attention, Please!!!
[CNN] 합성곱 신경망 Pytorch 구현
※ 본 게시물은 MNIST 데이터를 기반으로 합성곱 신경망(CNN)을 구현하도록 해보겠습니다. 앞서 CNN은 크게 아래와 같은 구성 요소로 이루어져있습니다. Convolution Layer(합성곱 층) : 이미지 특성 추출 Pooling Layer(풀링 층) : 이미지의 특성 축약 → 주로 Max-Pooling 사용 Fully Conntected Network Layer(완전연결 신경망) : 추출 및 축약된 특징(=n차원)의 데이터를 1차원의 데이터로 변환하며, Softmax 활성화 함수를 통해 Multi-class 아웃풋 도출 📌 Import Library import torch import torch.nn as nn import torchvision import torchvision.transform..
Computer Vision
2024. 2. 21. 20:29