일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- recall
- ifnull
- 오차 행렬
- Batch Normalization
- 결정트리
- SQL
- 지도학습
- 감정은 습관이다
- NVL
- 데이터 프로젝트
- Normalization
- 데이터 분석
- 데이터 전처리
- 강화학습
- 빠르게 실패하기
- 평가 지표
- CASE WHEN
- beautifulsoup
- DecisionTree
- 비지도학습
- layer normalization
- sorted
- five lines challenge
- 정밀도
- NULLIF
- 백엔드
- LAG
- 웹서비스 기획
- 재현율
- nvl2
Archives
- Today
- Total
목록2024/03/26 (1)
Day to_day
CBOW & Skip gram 개념 완벽 이해하기!!
❗본 포스팅은 사이토 고키 저자의 '밑바닥부터 시작하는 딥러닝 2' 서적을 기반으로 개인적인 정리 목적 하에 재구성하여 작성된 글입니다. 들어가며 오늘은 word2vec의 두 가지 기법인 CBOW와 Skip-gram에 대해서 개념을 정리해 볼 것이다. Word2Vec 들어가기전에! 단어를 표현하는 방법 두 가지 개념을 미리 알고 오면 좋다. 1. 희소표현(Sparse Representation) 단어를 원-핫 인코딩을 통해 원-핫 벡터로 표현해 행렬의 대부분 값이 0으로 표현되는 방법이다. 이 방법은 벡터 간 유사성을 표현할 수 없으며 단어가 많아질수록 더 커진다는 단점이 있다. 2. 분산 표현(Distributed Representation) 색을 표현할 때에도 RGB 값으로 모든 색을 표현할 수 있듯..
Deep Learning
2024. 3. 26. 23:01