일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- DecisionTree
- beautifulsoup
- 감정은 습관이다
- 데이터 전처리
- nvl2
- NULLIF
- 재현율
- 강화학습
- 빠르게 실패하기
- 평가 지표
- LAG
- Normalization
- 오차 행렬
- NVL
- five lines challenge
- 지도학습
- 웹서비스 기획
- 백엔드
- 정밀도
- layer normalization
- SQL
- Batch Normalization
- 데이터 분석
- 비지도학습
- sorted
- recall
- 결정트리
- CASE WHEN
- 데이터 프로젝트
- ifnull
Archives
- Today
- Total
목록2024/04/01 (1)
Day to_day
VGGNet 아직도 정리 못했다면 빠르게 핵심만!
들어가며 너무나도 유명한 VGGNet을 읽어보면서 짧게 정리하고 넘어가는 포스팅을 작성하려고 한다. 이 글을 읽기 전에 컨볼루션 layer이 기본적으로 어떻게 동작하는지, pooling, stride, padding에 대한 개념을 알고 VGGNet을 읽어보는 것이 좋을 것 같다. VGGNet 이 연구에서 강조하는 점은 대규모 이미지 인식 환경에서 합성곱 신경망의 깊이가 정확도에 미치는 영향이다. 특히 VGGNet에서는 작은 컨볼루션 필터(3x3)를 사용하여 깊이를 증가시킨 모델이다. VGGNet은 옥스포드 대학의 연구팀 VGG에 의해 개발된 모델로써, 2014년 ImageNet 이미지 인식 대회에서 준우승을 했다. 특히 이 모델은 2013년 8개의 layer에 불과했던 ZFNet 모델에 비해 16, 19..
Deep Learning
2024. 4. 1. 00:02