반응형

RAG란 무엇인가?

RAG(Retrieval-Augmented Generation)는 검색(Retrieval)을 결합한 생성 모델로, 기존 LLM이 제공하지 못하는 최신 정보나 데이터 기반의 답변을 생성하는 데 활용됩니다. LLM(대규모 언어 모델)의 한계를 보완하여 더욱 신뢰할 수 있는 답변을 제공합니다.

왜 RAG를 사용해야 하는가?

RAG를 사용하지 않으면 LLM이 "그 부분은 알 수 없습니다"라는 답변을 내놓을 수밖에 없습니다. 그러나 RAG를 사용하면 LLM이 외부 데이터를 참조하여 가족관계증명서와 같은 문맥적 정보에 기반한 답변을 생성할 수 있습니다. 이 과정에서 RAG는 Hallucination(모델이 존재하지 않는 정보를 생성하는 현상)을 줄이고, 최신 정보를 반영하는 데 유리한 기술입니다.

RAG의 패러다임 변화

RAG는 기술 발전에 따라 여러 단계로 나뉩니다:

- Naive RAG: 간단한 검색과 생성의 조합. 초기 단계의 RAG로, 검색된 정보를 그대로 LLM에 제공.
- Advanced RAG: 더 나은 검색과 생성을 위해 세부적인 기술들이 도입된 고급 방법론.
- Modular RAG: 프로덕션 레벨에서 유지보수와 효율적인 설계를 고려하여 유연한 구조를 제공합니다.

Naive RAG의 한계

Naive RAG는 쿼리와 문서 간의 의미론적 유사성만을 기준으로 정보를 검색하여, 심층적 관계 탐색이 부족합니다. 또한 모든 검색된 정보를 LLM에 직접 공급하는 것은 때때로 비효율적일 수 있습니다.

반응형

Advanced RAG: 더 발전된 검색 및 생성 기법

Advanced RAG는 다양한 고급 방법론을 적용하여 Naive RAG의 한계를 극복합니다.

- Indexing: 연도, 출처 등의 메타데이터를 추가하여 검색 범위를 좁히고, 필요한 정보를 더욱 정교하게 추출.
- Chunking Strategy: 의미상 유사한 단락을 기준으로 문서를 나누고, 더 작은 Chunk 단위로 임베딩한 후 검색하는 기법.
- Pre-Retrieval: Query를 재작성하거나 확장하여 검색의 정확도를 높이는 기법.
- Post-Retrieval: 검색된 문서를 재배치하거나 관련성을 재평가하여 더욱 정교한 정보를 제공합니다.

Advanced RAG의 핵심 기술

- Hybrid Search: 키워드 검색과 시맨틱 검색을 결합하여 더 나은 검색 결과를 도출.
- Reranker: 이미 검색된 문서들 중에서 가장 관련성이 높은 정보를 재평가하여 상위에 배치.
- Context Reorder: LLM이 입력 텍스트의 시작과 끝 부분을 더 잘 활용하도록 문서의 순서를 재조정.
- Compressor: 관련성이 낮은 정보를 제거하여 컨텍스트의 품질을 높이고, LLM의 처리 속도를 향상.

Modular RAG: LEGO처럼 유연한 RAG 구조

Modular RAG는 각 단계를 독립적으로 설계하여 다양한 모듈을 추가하거나 변경할 수 있는 유연한 구조를 제공합니다. 여러 하위 모듈을 동시에 실행하고 병합하는 병렬 구조와, 필요에 따라 분기 처리하는 동적 구조를 통해 RAG의 확장성을 극대화할 수 있습니다.

Modular RAG의 장점

- 독립성: 각 모듈이 독립적으로 작동하여 유지보수가 용이.
- 유연성 및 확장성: 필요한 모듈을 추가하거나 변경할 수 있는 유연한 프레임워크.
- 동적 처리: 상황에 따라 분기 처리 가능, 그래프 형식의 흐름 구성.

다양한 RAG 패턴: 상황에 맞는 패턴 적용

Modular RAG에서는 다양한 패턴을 활용할 수 있습니다.

- Linear Pattern: 가장 단순한 패턴으로, 검색과 생성을 한 번에 처리.
- Branching Pattern: 검색 소스나 프롬프트를 여러 경로로 처리한 후 결과를 병합.
- Loop Pattern: 반복적인 검색-생성 과정을 통해 답변의 품질을 향상.
- Tree of Clarification: 모호한 질문을 구체화하여 Long Form 답변을 생성.
- Adaptive Pattern: Retrieval이 필요한지를 동적으로 판단하여 필요한 경우에만 검색을 수행.

결론: RAG의 미래와 발전

RAG는 LLM의 환각 현상을 줄이고, 최신 정보를 기반으로 더 신뢰할 수 있는 답변을 제공합니다. 또한, 파인튜닝보다 구축 비용이 적게 들며 최신 정보를 빠르게 반영할 수 있어 비용 대비 효과가 뛰어납니다. 향후 RAG 기술은 다양한 모듈화 기법을 통해 더욱 발전하고, 프로덕션 레벨에서의 유연성과 확장성을 높이는 방향으로 나아갈 것입니다.

LLM 파인튜닝: 이제 선택이 아닌 필수

AI 도입 트렌드와 CI/CD 파이프라인 전략: 모델 모니터링의 핵심

최적화된 AI 클라우드 기반 데이터셋 및 SLM 모델 구축 전략

 

최적화된 AI 클라우드 기반 데이터셋 및 SLM 모델 구축 전략

AI 클라우드와 파인튜닝의 중요성AI 모델의 성능을 극대화하기 위해서는 단순히 하나의 모델을 사용하는 것이 아닌, 다양한 도메인과 요구사항에 맞춘 파인튜닝이 필요합니다. 특히 AI 클라우드

playnewway.com

 

반응형

+ Recent posts