일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 결정트리
- 오차 행렬
- 데이터 전처리
- CASE WHEN
- beautifulsoup
- 강화학습
- LAG
- Normalization
- 평가 지표
- 비지도학습
- layer normalization
- 정밀도
- 재현율
- SQL
- DecisionTree
- NVL
- 지도학습
- Batch Normalization
- 백엔드
- 웹서비스 기획
- five lines challenge
- 데이터 프로젝트
- 감정은 습관이다
- 빠르게 실패하기
- NULLIF
- nvl2
- 데이터 분석
- ifnull
- recall
- sorted
- Today
- Total
목록Tech blog (76)
Day to_day
❗본 포스팅은 Maximilian Schwarzmüller의 'Docker & Kubernetes : 실전 가이드' 강의 기반으로 개인적인 정리 목적 하에 재구성하여 작성된 글입니다. Docker도커를 한마디로 하면 컨테이너 기술이다. 컨테이너를 생성하고 관리하기 위한 도구이다.그러면 컨테이너는 무엇인가. 표준화된 소프트웨어 유닛이라고 할 수 있다. 이는 기본적으로 코드 패키지이며 해당 코드를 실행하는데 필요한 종속성과 도구를 포함시킬 수 있다. 예를 들어 NodeJS로 앱을 만든다고 하면 컨테이너에는 해당 애플리케이션의 소스 코드뿐 아니라 NodeJS 런타임, 코드를 실행하기 위한 기타 도구들이 있을 것이다. 그것들을 하나의 컨테이너로 만들게 되면 항상 동일한 버전을 사용하여 동일한 결과를 얻을 수 ..
들어가며LLM 프로젝트를 시작하면서 LLM Fine tuning과 RAG를 보게 되었는데, 이번 포스팅에서는 RAG 최적화를 도와주는 AutoRAG 사용법, 데이터 셋 구성, 사용해 본 후기 등 전 과정을 공유하려고 한다. AutoRAG를 직접 사용해보고 싶다면 공식문서를 참고하고, 이 글은 전반적인 과정을 이렇게 진행했구나 정도로 참고하면 좋겠다. https://github.com/Marker-Inc-Korea/AutoRAG GitHub - Marker-Inc-Korea/AutoRAG: RAG AutoML Tool - Find optimal RAG pipeline for your own data.RAG AutoML Tool - Find optimal RAG pipeline for your own da..
들어가며다음은 인간의 한계를 넘어선 ResNet에 대해서 핵심만 빠르게 정리하면서 저자인 Kaiming He의 치밀한 논문까지 시간이 되면 읽어보면 좋을 것 같다. 이 내용은 혁펜하임님의 Legend 13 강의를 재구성한 것입니다. ResNet의 핵심Residual Learning Block (잔차 학습 블록)신경망을 깊게 만드는 방법으로 Residual block을 사용했다. 그래서 모델의 이름도 ResNet이 될 만큼 가장 중요한 블록이다. 입력값을 출력값에 직접 추가함으로써(skip connection) 학습 과정에서 레이어를 통과하는 정보의 손실을 방지하는 방법이다. 이를 통해 깊어질수록 학습이 잘 안되던 문제를 해결해 수백개의 레이어로 구성된 네트워크를 효과적으로 학습할 수 있게 하였다.Ide..
들어가며 VGG를 알아봤으니 GoogleNet도 빼먹을 수가 없다. 빠르게 정리하고 넘어가 보도록 하겠다! 이 내용은 혁펜하임님의 Legend 13 강의를 재구성 한 것입니다. GoogleNet 특징 일단 특징을 먼저 정리하면서 기억해야 할 것을 위주로 정리해 봤다. 여러 크기의 필터를 사용 VGGNet 3x3 필터를 두 번 통과시켜 5x5 필터와 같은 receptive field를 얻은 반면, Inception Net은 여러 사이즈의 conv layer를 통화시키면서 입력 이미지에 대해서 서로 다른 크기의 패턴 및 특징을 캡처할 수 있도록 돕는 역할을 했다. 각 레이어를 병렬로 연결 여러 필터에서 얻은 feature map을 depth 방향으로 concatenate를 시켰다. 그러면서 다양한 추상화 수..
들어가며 너무나도 유명한 VGGNet을 읽어보면서 짧게 정리하고 넘어가는 포스팅을 작성하려고 한다. 이 글을 읽기 전에 컨볼루션 layer이 기본적으로 어떻게 동작하는지, pooling, stride, padding에 대한 개념을 알고 VGGNet을 읽어보는 것이 좋을 것 같다. VGGNet 이 연구에서 강조하는 점은 대규모 이미지 인식 환경에서 합성곱 신경망의 깊이가 정확도에 미치는 영향이다. 특히 VGGNet에서는 작은 컨볼루션 필터(3x3)를 사용하여 깊이를 증가시킨 모델이다. VGGNet은 옥스포드 대학의 연구팀 VGG에 의해 개발된 모델로써, 2014년 ImageNet 이미지 인식 대회에서 준우승을 했다. 특히 이 모델은 2013년 8개의 layer에 불과했던 ZFNet 모델에 비해 16, 19..
❗본 포스팅은 사이토 고키 저자의 '밑바닥부터 시작하는 딥러닝 2' 서적을 기반으로 개인적인 정리 목적 하에 재구성하여 작성된 글입니다. 들어가며 오늘은 word2vec의 두 가지 기법인 CBOW와 Skip-gram에 대해서 개념을 정리해 볼 것이다. Word2Vec 들어가기전에! 단어를 표현하는 방법 두 가지 개념을 미리 알고 오면 좋다. 1. 희소표현(Sparse Representation) 단어를 원-핫 인코딩을 통해 원-핫 벡터로 표현해 행렬의 대부분 값이 0으로 표현되는 방법이다. 이 방법은 벡터 간 유사성을 표현할 수 없으며 단어가 많아질수록 더 커진다는 단점이 있다. 2. 분산 표현(Distributed Representation) 색을 표현할 때에도 RGB 값으로 모든 색을 표현할 수 있듯..