Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- rag-fusion
- 데이터 파싱
- 활성화 함수
- segmentation
- 이상탐지
- 컴퓨터비전
- visual instruction tuning
- 오차역전파
- pdf parsing
- leetcode
- rag parsing
- LLaVA
- LLM
- 퍼셉트론
- nlp
- Time Series
- 활성화함수
- 합성곱 신경망
- multi-query
- 딥러닝
- rrf
- Mean squared error
- 시계열
- Cross Entropy Error
- anomaly detection
- 손실함수
- E
- Non-Maximum Suppression
- computer vision
- deep learning
Archives
- Today
- Total
목록E (1)
굴러가는 분석가의 일상
[CNN] 합성곱 신경망 Pytorch 구현
※ 본 게시물은 MNIST 데이터를 기반으로 합성곱 신경망(CNN)을 구현하도록 해보겠습니다. 앞서 CNN은 크게 아래와 같은 구성 요소로 이루어져있습니다. Convolution Layer(합성곱 층) : 이미지 특성 추출 Pooling Layer(풀링 층) : 이미지의 특성 축약 → 주로 Max-Pooling 사용 Fully Conntected Network Layer(완전연결 신경망) : 추출 및 축약된 특징(=n차원)의 데이터를 1차원의 데이터로 변환하며, Softmax 활성화 함수를 통해 Multi-class 아웃풋 도출 📌 Import Library import torch import torch.nn as nn import torchvision import torchvision.transform..
Computer Vision
2024. 2. 21. 20:29