일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 비지도학습
- SQL
- 정밀도
- layer normalization
- 데이터 프로젝트
- 재현율
- NULLIF
- nvl2
- 평가 지표
- recall
- 강화학습
- 오차 행렬
- 웹서비스 기획
- 데이터 분석
- 지도학습
- sorted
- beautifulsoup
- 결정트리
- 빠르게 실패하기
- LAG
- Batch Normalization
- ifnull
- DecisionTree
- five lines challenge
- NVL
- CASE WHEN
- 데이터 전처리
- Normalization
- 감정은 습관이다
- 백엔드
- Today
- Total
목록Tech blog (76)
Day to_day
들어가며 ViT모델을 시작으로 Vision Task에 적용된 여러 Transformer 기반의 모델이 많이 나왔다. ConvNeXt 논문에서는 Standard ResNet의 디자인 방향을 점진적으로 modernize 시키면서 그 과정에서 모델 성능에 기여하는 여러 핵심 요소에 대해서 알아볼 예정이다. 다시 말하자면, Transformer의 Design Decision이 ConvNet의 성능에 어떤 영향을 미치는지에 대해 중점적으로 다루고 하나씩 바꿔가며 성능과 연산량 결과를 살펴볼 것이다. 특히 이 논문에서 저자가 강조하고 싶은 점은 많은 Transformer기반의 비전 모델이 나왔음에도 불구하고 "ConvNet 기반의 모델도 잘 디자인하면 좋은 성능을 충분히 낸다"는 것이다. 더불어 이 논문을 통해 컨..
들어가며 Batch Normalization은 익히 들어 잘 알고 있었지만 Layer Normalization과 비교해서 개념적으로 어떻게 다른지, 그리고 왜 사용하는지에 대해서 깊게 생각해 본 적이 없는 것 같다. 그래서 먼저 Normalization에 대해 알아보고, Batch Normalization과 Layer Normalization에 대해 알아볼 것이다. Normalization 입력 데이터의 분포를 조정하거나 표준화하여 학습의 성능을 향상시키는 기술이다. 예를 들어 정규화 방법 중 하나인 데이터 표준화(Standardization)는 데이터를 평균과 표준 편차를 이용하여 정규 분포를 만들 수 있다. 그것을 식으로 나타내보자. $$ \hat{x}^{(k)}= \frac {x^{(k)}-E[x^..
들어가며 Vision Trasformer 이후 더 발전된 Vision 분야에서 Transformer를 활용한 모델을 리뷰하고 있다. 이번엔 어떤 식으로 Vision Transformer의 한계를 해결했는지 궁금해진다. 오늘 리뷰할 논문은 CNN과 Transformer를 결합한 하이브리드 모델을 살펴보고자 한다. CMT에서 알고 가야 할 점! CMT는 transformer base의 CNN을 결합한 hybrid network이다. Transformer의 장점인 멀리 떨어진 range 의존성에 대해서 포착하고, CNN의 local information 추출하는 것이 CMT의 강점이다. CNN과 비교한 비전 트랜스포머의 문제 CNN대비 트랜스포머 기반 비전 모델의 성능이 떨어지는 이유 이미지는 트랜스포머 기반..
들어가며 1x1 convolution의 역할에 대해 이해해 보고, 그 특징을 정리하고자 한다. 직관적으로 1x1 Convolution 이해해보기 1x1 Convolution은 직관적으로 1x1 크기를 가지는 Convolution Filter를 사용한 Convolution Layer이다. 1x1 convolution은 입력되는 feature map의 채널 수에 맞춰 생성된다. 위의 그림과 같이, 하나의 feature는 같은 weight를 공유하니까 결국 하나의 feature에 하나의 weight를 모두 곱하는 것이라고 보면 된다. 그것을 식으로 표현하면 F1 * weight_1 + F2 * weight_2 + F3 * weight_3로 둘 수 있고, 결국엔 weighted sum으로 표현 가능 한 것이다...
들어가며 Pooling layer의 한 종류인 Global Average Pooling(GAP)에 대해서 알고는 있었지만 더욱 정확하게 알고, 그 특징과 GAP가 나오게 된 배경에 대해서 정리하고자 이번 포스팅을 작성하게 되었다. Global Average Pooling은 무엇인가? 간단하게 말해서 Convolution layer를 거치고 마지막에 나오는 feature map에서 각 채널마다 전체 평균을 구해서 1x1 사이즈의 채널 수는 유지된 채로 그림과 같이 계산된다. 단순히 입력 사이즈에 상관없이 냅다 평균을 내서 계산을 해버리는 것! 그러면 간단하게 GAP의 동작은 알겠는데 이것이 나오게 된 배경은 어떻게 될까? GAP의 배경 결론부터 말하면 기존의 Fully Connected Layer의 단점을..
Intro 내가 책을 읽는 방법은, 책을 읽으면서 고민해 볼 만한 부분이 있으면 그 구절과 떠오른 내 생각을 적어둔다. 그리고 내가 이 책으로부터 얻은 것을 가지고 나의 행동에 변화를 이끌기도, 기존에 있던 나의 경험을 녹이기도 하며 내 사고를 넓힌다. 이번 "빠르게 실패하기"라는 책은 내가 새로운 일을 어떻게 받아 들여야 하는지에 관한 마인드 셋과 우리가 빠르게 실행에 옮기지 않는 이유에 대해 고민하게 한 책이다. 일단 오늘도 내 마음대로 책 리뷰를 해보며 정리해 보겠다 Chapter 1 Try things like a beginner '미숙함'이라는 것에 주눅 들고, 빠르게 성장하지 못함에 자책할 때가 많다. 하지만 이러한 사고는 나를 더욱 주춤거리게 만들고 완벽을 계속 추구하게 된다. 그..