일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- multi-query
- fine tuning
- Cross Entropy Error
- Time Series
- rag-fusion
- LLaVA
- 활성화함수
- qlora
- Non-Maximum Suppression
- 활성화 함수
- LLM
- 파인튜닝
- 시계열
- 손실함수
- 퍼셉트론
- rrf
- 딥러닝
- deep learning
- pdf parsing
- 이상탐지
- anomaly detection
- visual instruction tuning
- leetcode
- nlp
- 데이터 파싱
- rag parsing
- gemma3
- 오차역전파
- 합성곱 신경망
- Mean squared error
- Today
- Total
목록분류 전체보기 (52)
Attention, Please!!!
※ 앞선 포스팅에서는 각 층의 활성화값을 강제적으로 적당히 퍼뜨리도록 하는 방법인 배치정규화에 대해 알아보겠습니다. 본 게시물에서는 오버피팅을 억제하는 방법에 대해 알아보도록 하겠습니다. 더보기 2024.02.06 - [Data Science/DL] - 딥러닝의 학습 #2.3 (배치 정규화) 💡 Over-fitting (과적합) 딥러닝의 핵심은 여러 은닉층과 활성화 함수를 결합하여 비선형 영역을 표현하는 것 입니다. 이에 따라 은닉층 수가 많을수록 데이터 분류가 원활하게 되는 것을 아래 그림과 같이 볼 수 있습니다. 하지만, 은닉층이 많을수록 과적합 문제가 발생하곤 합니다. 오버피팅이란, 신경망이 훈련 데이터에만 지나치게 적응되어 그 외의 데이터에는 제대로 대응하지 못하는 상태를 뜻합니다. 일반적으로 훈..

※ 앞선 포스팅에서는 가중치의 초깃값을 적절히 설정하여 분포가 적절히 퍼지는 기법 (Xavier & He 초기화)에 대해서 알아보았습니다. 본 게시물에서는 각 층의 활성화값을 강제적으로 적당히 퍼뜨리도록 하는 방법인 배치정규화에 대해 알아보겠습니다. 더보기 2024.01.16 - [Data Science/DL] - 딥러닝의 학습 #2.2 (가중치 초깃값-Xavier&He) 💡 Gradient Vanishing & Exploding 심층 신경망을 훈련할 때 대표적으로 어려운은 네트워크의 가중치를 일정한 범위에서 유지해야한다는 점 입니다. 역전파 과정에서 초기 부분의 입력층으로 갈수록 기울기가 점차적으로 작이지는 현상을 Gradient Vanishing 커지는 현상을 Gradient Exploding 이라고..
문제 당신은 인사팀 직원으로, 각 직원의 근태를 확인하고자 한다. 당신의 회사는 자율출퇴근제를 실시하기 때문에 각 직원이 정확히 몇 시에 출근하는 것은 중요하지 않고, 총 근로 시간이 몇 분인지가 중요하다. 총 근로 시간이 법정근로시간을 초과하지 않아야 하면서, 회사와 직원 사이에 계약한 시간 이상이어야 하기 때문이다.직원이 하루 동안 근무한 시간은 출근 시각과 퇴근 시각 사이의 시간으로 정의한다. 이 문제에서는 식사 시간 등 근무 외 시간을 근무 시간에서 제외하지 않음에 유의하라. 월요일부터 금요일까지 휴가를 쓰지 않은 직원이 매 요일 언제 출근하고 언제 퇴근했는지가 주어질 때, 이 직원이 5일 동안 총 몇 분을 근무했는지를 구하는 프로그램을 작성하라. 제약조건 직원은 밤을 새서 일하지 않았다. 즉, ..
※ 본 포스팅에서는 알고리즘의 입력을 받는 것에 대해 소개하고자 합니다. 주로 파이썬을 통해 알고리즘 입력을 받을 때, Input()을 사용하지만, 시간초과 에러가 발생하곤 합니다. 이러한 문제점을 방지하고자, sys.stdin.readline()에 대해 알아보겠습니다. 💡 sys.stdin.readline() 특징 ✔️ 문자열로 입력을 받는다. sys.stdin.readline()은 문자열로 입력을 받게 됩니다. 따라서, 읽어온 문자열은 필요에 따라 적절한 처리 및 형 변환을 해주어야합니다. 예를 들어, 숫자를 입력으로 받아야 할 때는 'int()' 혹은 'float()' 함수를 사용하여 적절하게 함수를 사용하여 처리해야합니다. ✔️ 개행 문자 "\n"를 같이 입력받는다. 예를 들어 "Hello Wol..
문제 두 정수 A와 B를 입력받은 다음, A+B를 출력하는 프로그램을 작성하시오. 제약조건 두 정수 A와 B는 1이상 9이하의 정수이다. 입력형식 첫째 줄에 테스트 케이스의 개수 T가 주어진다. 각 테스트 케이스는 한 줄로 이루어져 있으며, 각 줄에 A와 B가 주어진다. 출력형식 각 테스트 케이스마다 "Case #(테스트 케이스 번호): "를 출력한 다음, A+B를 출력한다. 테스트 케이스 번호는 1부터 시작한다. 풀이 import sys t = int(sys.stdin.readline()) for i in range(t): a,b = map(int, sys.stdin.readline().split()) print(f"Case #{i+1}: {a+b}")
https://softeer.ai/practice/6253 Softeer - 현대자동차그룹 SW인재확보플랫폼 softeer.ai 문제 두 차량 A와 B의 주행거리가 자연수로 주어졌을 때, 주행거리를 비교해서 어느 차량의 주행거리가 더 큰지 알아보자. 제약조건 0 ≤ A,B ≤ 100,000 입력형식 첫째줄에 두차량 A,B의 주행거리가 한칸의 공백을 두고 주어진다. 출력형식 주행거리를 비교해서 첫째줄에 아래의 글자를 출력한다. - A가 B 보다 큰 경우 A를 출력한다. - A가 B 보다 작은 경우 B를 출력한다. - A와 B의 주행거리가 같은 경우 same을 출력한다. 풀이 import sys input = sys.stdin.readline A,B = map(int, input().split()) if ..

※ 앞선 포스팅에서 딥러닝의 학습(옵티마이저) 에 대해 알아보았습니다. 궁금하시다면, 숨긴 글 참조 부탁드리겠습니다! 본 게시물에서는 가중치의 초깃값 규칙과 기법에 대해서 알아보도록 하겠습니다. 더보기 2023.12.18 - [Data Science/DL] - 딥러닝의 학습 #2.1 (Optimizer 종류와 학습) 딥러닝의 학습 #2.1 (Optimizer 종류와 학습) ※ 앞선 포스팅에서 딥러닝의 학습(Backpropagation) 에 대해 소개하였습니다. 숨긴 글 참조 부탁드리겠습니다! 더보기 2023.12.05 - [Data Science/DL] - 딥러닝의 학습 #1 (Backpropagation) 딥러닝의 학습 #1 (Backpr g3lu.tistory.com 가중치 초기화 규칙 가중치의 초깃..

※ 앞선 포스팅에서 딥러닝의 학습(Backpropagation) 에 대해 소개하였습니다. 숨긴 글 참조 부탁드리겠습니다! 더보기 2023.12.05 - [Data Science/DL] - 딥러닝의 학습 #1 (Backpropagation) 딥러닝의 학습 #1 (Backpropagation) ※ 앞선 포스팅에서 딥러닝의 구조에 대해 소개하였습니다. 숨긴 글 참조 부탁드리겠습니다! 더보기 2023.11.08 - [Data Science/DL] - 딥러닝의 구조 #1 [퍼셉트론] 딥러닝의 구조 #1 [퍼셉트론] 본 게시물 g3lu.tistory.com 본 게시물에서는 신경망의 효율과 정확도를 높이는 방법인 옵티마이저(Optimizer)의 종류에 대해 알아보도록 하겠습니다. SGD의 단점 신경망 학습의 최종 목..

문제: 풀이 : class Solution: def productExceptSelf(self, nums: List[int]) -> List[int]: solution = [1] * (range(len(nums)) for i in range(len(nums)): solution[i] = solution[i-1] * nums[i-1] postfix = 1 for i in range(len(nums)-1, -1,-1)): solution[i] *= postfix postfix *= nums[i] return solution

※ 앞선 포스팅에서 딥러닝의 구조에 대해 소개하였습니다. 숨긴 글 참조 부탁드리겠습니다! 더보기 2023.11.08 - [Data Science/DL] - 딥러닝의 구조 #1 [퍼셉트론] 딥러닝의 구조 #1 [퍼셉트론] 본 게시물은 공부목적으로 작성 되었으며, 밑바닥부터 시작하는 딥러닝 참고하였습니다. 퍼셉트론이란? ▶ 다수의 신호를 입력으로 받아 하나의 신호를 출력하는 것을 뜻합니다. 퍼셉트론의 신 g3lu.tistory.com 2023.11.09 - [Data Science/DL] - 딥러닝의 구조 #2 [활성화 함수] 딥러닝의 구조 #2 [활성화 함수] 본 게시물은 공부목적으로 작성 되었으며, 밑바닥부터 시작하는 딥러닝 참고하였습니다. 퍼셉트론의 원리 활성화 함수에 Deep-Dive하기 앞서, 퍼셉..