Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 시계열
- Mean squared error
- CNN
- nlp
- LLM
- rag parsing
- deep learning
- 머신러닝
- 오차역전파
- E
- Non-Maximum Suppression
- 합성곱 신경망
- 딥러닝
- visual instruction tuning
- 퍼셉트론
- LLaVA
- leetcode
- 이상탐지
- segmentation
- pdf parsing
- 활성화함수
- Time Series
- 컴퓨터비전
- 손실함수
- anomaly detection
- 데이터 파싱
- computer vision
- Cross Entropy Error
- 활성화 함수
Archives
- Today
- Total
목록E (1)
굴러가는 분석가의 일상
[CNN] 합성곱 신경망 Pytorch 구현
※ 본 게시물은 MNIST 데이터를 기반으로 합성곱 신경망(CNN)을 구현하도록 해보겠습니다. 앞서 CNN은 크게 아래와 같은 구성 요소로 이루어져있습니다. Convolution Layer(합성곱 층) : 이미지 특성 추출 Pooling Layer(풀링 층) : 이미지의 특성 축약 → 주로 Max-Pooling 사용 Fully Conntected Network Layer(완전연결 신경망) : 추출 및 축약된 특징(=n차원)의 데이터를 1차원의 데이터로 변환하며, Softmax 활성화 함수를 통해 Multi-class 아웃풋 도출 📌 Import Library import torch import torch.nn as nn import torchvision import torchvision.transform..
Computer Vision
2024. 2. 21. 20:29