일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- Normalization
- 데이터 분석
- 지도학습
- 재현율
- 데이터 프로젝트
- ifnull
- 오차 행렬
- CASE WHEN
- NULLIF
- DecisionTree
- 빠르게 실패하기
- 강화학습
- 정밀도
- 웹서비스 기획
- LAG
- 평가 지표
- NVL
- nvl2
- beautifulsoup
- 결정트리
- 백엔드
- 비지도학습
- layer normalization
- five lines challenge
- 데이터 전처리
- sorted
- 감정은 습관이다
- Batch Normalization
- recall
- SQL
- Today
- Total
목록논문 리뷰 (11)
Day to_day
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/ccQ6bW/btsL2Q5UvfD/zXl9BB0OdsvXOEhTZhMdkk/img.png)
❗가짜연구소에서 ‘깃허브에 nlp 잔디심기’ 팀에서 발표한 자료를 함께 공유해보려 한다.이번에 소개할 주제는 LLM의 self-correction이다. LLM의 Self-Correction은 모델이 스스로 오류를 인식하고 수정하는 과정으로 응답의 품질을 향상하는데 목적이 있다. 해당 포스팅은 Automatically Correcting Large Language Models: Surveying the landscape of diverse self-correction strategies라는 LLM의 self-correction 기법들에 대한 서베이 논문을 기반으로 정리한 글이다. 그렇기 때문에 깊은 방법론에 대한 글이 아닌 다양한 종류의 self-correction 기법에 대해서 소개한다. LLM의 주요 ..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/dLW9fZ/btsLTo0M2sH/iiGlJa0JISNARBeA3cDxKK/img.png)
하루에 수없이도 많은 AI관련 논문들 중에 RAG의 한계를 극복한 새롭게 제안하는 CAG라는 기법이 나왔다고 하길래 빠르고 가볍게 리뷰를 진행해볼까 한다. 논문에서 해결하고자 하는 문제 정의RAG는 외부 데이터를 동적으로 검색하고, 할루시네이션을 감소시킬 수 있는 방법으로 개방형 질문 응답(Open-Domain Question Answering)과 같은 지식 집약적 작업에서 좋은 성능을 발휘하였다. 하지만 RAG는 실시간 검색으로 인한 검색 지연, 문서 선택에서의 부정확하거나 관련 없는 문서를 선택하면서 오는 품질 저하, 시스템 복잡성 증가 등과 같은 문제가 있다. 제안 방법 이 논문에서 제안하는 방법은 1) LLM의 확장된 컨텍스트 윈도우를 활용하여 외부 데이터를 사전에 로드하고, 2) 키-값(Ke..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/clMBeF/btsLDHAKZW1/Rvhk5qRsV4b70YHxovjpVK/img.png)
Introduction 이 논문은 LLM을 사용할 때 입력 프롬프트로 시스템 메시지나 프롬프트 템플릿 등과 같은 겹치는 텍스트 세그먼트가 존재하고, 이것을 재사용 가능하지 않을까? 하는 생각에서 시작한다. 그래서 자주 사용되는 프롬프트 구간의 attention state를 미리 계산하고 저장 → 이 구간이 프롬프트에 등장했을 때 이를 재사용하여 latency를 줄이자! 그러면 일단 기본적인 개념들에 대해서 간단하게 짚고 넘어가보기로 하자. Autoregressive ModelLLM 모델은 autoregressive 모델로, autoregressive 모델의 뜻은 자기 회귀 모델로써 이전 시점의 출력을 다음 시점의 입력으로 사용하여 순차적으로 텍스트를 생성하는 것이다. 그래서 위의 예시를 보면 이전 시점..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/bXtaHu/btsKMMBAcCi/81XR6K5iTzr960YOJXg0PK/img.png)
이 논문의 핵심! 이 논문에서 해결하고자 하는 문제는 LLM 기반 채팅 어시스턴트를 평가할 때 기존 벤치마크가 이들의 광범위한 기능과 인간의 선호도를 충분히 반영하지 못한다는 것이다. 그래서 두 가지 벤치 마크를 도입한 것과 LLM을 평가자로 사용하는 방법을 제안한다.또한 LLM-as-a-judge(LLM을 평가자로 사용)의 사용과 한계를 실험을 통해 보여주며, 한계를 완화하기 위한 해결 방안도 제안한다.그 결과 GPT-4와 같은 강력한 LLM 평가자가 통제된 환경과 크라우드소싱된 인간 선호도 모두에서 80% 이상의 일치율을 달성하여 인간 간의 일치율과 동일한 수준을 달성할 수 있었고, 이는 인간 평가자를 통해 소요되는 높은 비용을 대체 가능할 수 있음을 시사했다. IntroLLM 기반의 chatbot이..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/YMCCt/btsIYv4efkd/GVwpQOnQhc0c6AGNqwAI20/img.png)
LoRA(Low-Rank Adaptation)LoRA(Low-Rank Adaptation)는 Large Language Model(LLM)이나 신경망을 효율적으로 미세 조정(Fine-tuning) 하기 위한 방법 중 하나이다.LoRA를 한 줄로 요약하면, Pre-trained 모델 가중치를 동결시키고 Transformer 아키텍처의 각 층에 학습 가능한 rank decomposition matrices을 넣는 방법이다.We propose Low-Rank Adaptation, or LoRA, which freezes the pretrained model weights and injects trainable rank decomposition matrices into each layer of the Trans..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/dNH8tv/btsF3DJv1Ub/udFR57B9p0BXj5xyS3Qbtk/img.jpg)
들어가며 ViT모델을 시작으로 Vision Task에 적용된 여러 Transformer 기반의 모델이 많이 나왔다. ConvNeXt 논문에서는 Standard ResNet의 디자인 방향을 점진적으로 modernize 시키면서 그 과정에서 모델 성능에 기여하는 여러 핵심 요소에 대해서 알아볼 예정이다. 다시 말하자면, Transformer의 Design Decision이 ConvNet의 성능에 어떤 영향을 미치는지에 대해 중점적으로 다루고 하나씩 바꿔가며 성능과 연산량 결과를 살펴볼 것이다. 특히 이 논문에서 저자가 강조하고 싶은 점은 많은 Transformer기반의 비전 모델이 나왔음에도 불구하고 "ConvNet 기반의 모델도 잘 디자인하면 좋은 성능을 충분히 낸다"는 것이다. 더불어 이 논문을 통해 컨..