본문 바로가기

인공지능

지금 기업들이 주목하는 RAG 기술 진화: Naive RAG부터 Agentic RAG까지

728x90
반응형

"LLM의 환각 문제, 어떻게 해결할 수 있을까?"

대형 언어 모델(LLM)은 이제 많은 기업의 핵심 기술로 자리잡았습니다. 하지만 막상 실제 업무에 적용해보면, 중요한 질문에 대해 엉뚱한 답을 하거나, 최신 정보에 접근하지 못하는 등의 문제로 답답함을 느끼게 되죠. 이런 문제를 해결하기 위해 등장한 기술이 바로 RAG(Retrieval Augmented Generation) 입니다.

하지만 여기서 끝이 아닙니다. 단순한 RAG만으로는 정확도를 확보하기 어렵다는 현실 앞에서, RAG는 빠르게 진화하고 있습니다. 이 글에서는 Naive RAG에서 Agentic RAG까지, RAG의 발전 단계를 쉽게 설명하고, 각 단계가 어떤 문제를 해결했는지, 어떤 기술이 추가되었는지 알려드릴게요.

반응형

🧠 RAG의 시작: Naive RAG란 무엇인가?

📌 RAG의 등장 배경

Naive RAG는 LLM이 처음 대중화되던 2022년 말, ChatGPT와 함께 본격적으로 주목받기 시작했습니다. 초기 RAG는 아래의 문제들을 해결하고자 도입됐습니다:

  • LLM의 환각(Hallucination) 현상
  • 짧은 컨텍스트 윈도우 제한
  • 비공개 데이터 접근 불가
  • 최신 정보 부족

🔧 Naive RAG의 작동 방식

  1. 사전처리(Preprocessing)
    • 텍스트 데이터를 작은 조각(chunk)으로 나눕니다.
    • 각 조각을 임베딩 모델로 벡터화합니다.
    • 벡터들을 벡터 데이터베이스(Vector DB)에 저장합니다.
  2. 질문 처리 및 검색(Retrieval)
    • 사용자의 질문을 같은 임베딩 모델로 벡터화합니다.
    • 유사한 벡터들을 벡터 DB에서 검색합니다.
    • 검색된 컨텍스트와 질문을 함께 LLM에 전달하여 답변을 생성합니다.

🔍 핵심 구성 요소

  • Chunking 전략: 슬라이딩 윈도우 or 고정 크기 조각
  • Embedding 모델: 어떤 임베딩을 사용할지
  • 벡터 검색 방식: ANN, 메타데이터 기반 필터링, 하이브리드 검색 등
  • LLM 및 프롬프트 엔지니어링: 컨텍스트만 이용하도록 유도

📈 Naive RAG의 한계와 이를 보완하는 고급 기법들

Naive RAG는 구조는 단순하지만 정확도가 낮은 경우가 많습니다. 이 때문에 다음과 같은 고급 기법들이 도입되고 있습니다.

1. Query Alteration

  • Query Rewriting: 문법 교정, 간단한 문장으로 변경 등
  • Query Expansion: 다양한 버전의 질문을 만들어 더 많은 컨텍스트 확보

2. Reranking

  • 더 많은 문서를 검색한 후, 무거운 모델을 사용해 다시 랭킹

3. Embedding 모델 파인튜닝

  • 의료, 법률 등 도메인 특화 분야에 적합한 임베딩 학습 필요

📘 Contextual Retrieval: 검색 정확도를 높이는 새로운 접근

Anthropic이 제안한 이 방식은 다음과 같은 흐름으로 작동합니다.

✅ 핵심 아이디어

각 문서 조각을 문서 전체 맥락 내에서 재해석하고, 그에 맞는 컨텍스트를 생성하여 저장하는 방식입니다.

🔄 처리 절차

  1. 문서를 조각으로 나눔
  2. 각 조각 + 전체 문서를 프롬프트로 묶어 LLM에 전달
  3. 해당 조각의 의미를 요약하는 컨텍스트 생성
  4. 생성된 컨텍스트 + 조각을 TF-IDF 및 임베딩 처리
  5. 검색 시 TF-IDF + 벡터 검색 병행
  6. 결과를 랭크퓨전 + 재정렬 후 LLM에 전달

💡 비용은 많이 들지만, 프롬프트 캐싱을 통해 비용 문제를 완화할 수 있음


🧭 Cache Augmented Generation(CAG): 캐시 기반의 새로운 시도

🧩 개념 요약

  • 자주 사용되는 외부 컨텍스트를 미리 KV 캐시로 저장
  • 이후에는 검색 없이 해당 캐시를 바로 사용
  • 더 빠르고, 정확하게 응답 가능

⚠️ 현실적인 문제

  • 보안 취약점
  • 실시간 데이터 반영 어려움
  • 대규모 지식베이스에 부적합

그래서 CAG는 완전한 대안이 되기보다는, RAG와 혼합(Fusion)하는 형태로 많이 사용되고 있습니다.


🧠 최신 진화: Agentic RAG

Agentic RAG는 RAG 시스템에 에이전트 개념을 도입한 형태입니다.

🛠 구성 요소

  1. Query 분석
    • 에이전트가 질문을 재구성하거나, 여러 질문으로 나눔
  2. Data Source Routing
    • 어떤 데이터 소스를 활용할지 에이전트가 판단 (예: 내부 문서, 웹, 실시간 정보 등)
  3. 복합 응답 생성 및 Reflection
    • 답변을 먼저 생성한 후, 그 답변이 적절한지 다시 평가
    • 부족하면 질문을 수정하여 다시 생성 (Reflection)

Agentic RAG는 복잡한 쿼리에도 더 정확하고, 유연하게 대응할 수 있는 것이 가장 큰 강점입니다.

728x90

RAG의 진화가 우리에게 주는 메시지

처음 등장한 Naive RAG는 간단했지만, 현실 세계의 복잡한 문제를 해결하기에는 부족했습니다. 그래서 우리는 계속해서 발전된 형태의 RAG, Contextual Retrieval, CAG, 그리고 Agentic RAG에 이르기까지 진화해왔습니다.

이러한 흐름 속에서 중요한 시사점은 다음과 같습니다:

  • LLM의 한계를 보완하는 Retrieval 기술은 계속 중요해진다.
  • 데이터의 구조화, 검색 정확도, 프롬프트 설계가 시스템 성능에 큰 영향을 미친다.
  • Agentic RAG와 같은 자율적 시스템이 미래의 표준이 될 가능성이 크다.

앞으로 RAG 기반 시스템은 더 정교해지고, 다양한 산업에 맞춤형으로 적용될 것입니다. 지금이 바로 이 흐름에 올라탈 시점입니다.

https://www.newsletter.swirlai.com/p/the-evolution-of-modern-rag-architectures?fbclid=IwY2xjawJgsjRleHRuA2FlbQIxMQABHrZihWINUTCtF8I5Qix8aIqu_JVwVpkzHA_xg2AdxUMOkp6Ig5rCD5izKSLV_aem_ETNtMw-PP_wg5BxPeQmiFg

 

The evolution of Modern RAG Architectures.

Learn how to choose the best RAG architecture for your business case.

www.newsletter.swirlai.com

728x90
반응형