일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 결정트리
- 데이터 분석
- 데이터 전처리
- NVL
- 빠르게 실패하기
- ifnull
- Batch Normalization
- 비지도학습
- 정밀도
- 감정은 습관이다
- 웹서비스 기획
- DecisionTree
- 강화학습
- 재현율
- NULLIF
- sorted
- 오차 행렬
- LAG
- 평가 지표
- SQL
- 백엔드
- beautifulsoup
- CASE WHEN
- Normalization
- layer normalization
- nvl2
- 지도학습
- recall
- five lines challenge
- 데이터 프로젝트
Archives
- Today
- Total
목록2024/08/09 (1)
Day to_day

LoRA(Low-Rank Adaptation)LoRA(Low-Rank Adaptation)는 Large Language Model(LLM)이나 신경망을 효율적으로 미세 조정(Fine-tuning) 하기 위한 방법 중 하나이다.LoRA를 한 줄로 요약하면, Pre-trained 모델 가중치를 동결시키고 Transformer 아키텍처의 각 층에 학습 가능한 rank decomposition matrices을 넣는 방법이다.We propose Low-Rank Adaptation, or LoRA, which freezes the pretrained model weights and injects trainable rank decomposition matrices into each layer of the Trans..
논문 리뷰
2024. 8. 9. 00:27