Rag (29) 썸네일형 리스트형 지금 기업들이 주목하는 RAG 기술 진화: Naive RAG부터 Agentic RAG까지 "LLM의 환각 문제, 어떻게 해결할 수 있을까?"대형 언어 모델(LLM)은 이제 많은 기업의 핵심 기술로 자리잡았습니다. 하지만 막상 실제 업무에 적용해보면, 중요한 질문에 대해 엉뚱한 답을 하거나, 최신 정보에 접근하지 못하는 등의 문제로 답답함을 느끼게 되죠. 이런 문제를 해결하기 위해 등장한 기술이 바로 RAG(Retrieval Augmented Generation) 입니다.하지만 여기서 끝이 아닙니다. 단순한 RAG만으로는 정확도를 확보하기 어렵다는 현실 앞에서, RAG는 빠르게 진화하고 있습니다. 이 글에서는 Naive RAG에서 Agentic RAG까지, RAG의 발전 단계를 쉽게 설명하고, 각 단계가 어떤 문제를 해결했는지, 어떤 기술이 추가되었는지 알려드릴게요.🧠 RAG의 시작: Nai.. 진화하는 검색 증강 생성(RAG) – 9가지 유형과 활용 사례 AI 기술이 발전하면서 대형언어모델(LLM)의 정확성과 신뢰성을 높이기 위한 다양한 기술이 등장하고 있습니다. 그중에서도 검색 증강 생성(RAG, Retrieval-Augmented Generation) 기술은 AI가 외부 데이터를 검색하고 이를 바탕으로 보다 정확한 응답을 생성할 수 있도록 돕는 핵심 기술로 자리 잡았습니다.RAG 기술은 단순한 검색 기반 AI 시스템이 아니라, 검색과 생성 기능을 결합하여 최적의 정보를 제공하는 방식입니다. 이에 따라 다양한 유형으로 발전하고 있으며, 각 유형은 특정 문제를 해결하거나 특정 산업에서 더욱 효과적으로 활용될 수 있도록 설계되었습니다.이번 블로그에서는 대표적인 9가지 RAG 유형을 살펴보고, 각각의 특징과 활용 사례를 정리해 보겠습니다.🔥 9가지 RAG .. [Dify RAG #2] LLM 검색 정확도를 좌우하는 인덱싱 설정 – High-Quality와 Economical, 무엇이 다를까? 검색 정확도가 왜 이렇게 낮을까? 인덱싱 설정이 문제일 수 있습니다LLM(대규모 언어 모델)을 도입해 지식베이스 검색 시스템을 구축하고 있는 IT 담당자라면 이런 경험이 있을 겁니다.검색 기능을 열심히 만들었는데, 막상 사용해보니 원하는 정보를 정확히 찾아주지 못해서 답답했던 적 말입니다.이럴 때 "인덱싱 방식이 잘못됐을 수 있다"는 이야기를 듣지만,High-Quality, Economical, Vector Search, Full-Text Search, Hybrid Search 같은 어려운 용어들 때문에어떤 설정을 선택해야 할지 막막해지는 경우가 많습니다.저도 처음엔 그랬습니다. 검색 정확도가 낮아서 클라이언트 불만이 터졌고,결국 인덱싱 방식과 검색 설정을 하나하나 다시 뜯어고치며 최적화해야 했죠.이 글.. [Dify RAG #1] AI 챗봇 정확도를 높이는 비결 – Dify 지식베이스와 청킹(chunking) 설정 완전 정복 사내 문서와 FAQ를 AI 챗봇에 넣었는데, 자꾸 엉뚱한 답변이 돌아오나요?최신 자료를 반영했는데도 여전히 오래된 정보를 기반으로 틀린 답을 내놓나요?이런 문제는 대부분 ‘데이터 분할 방식’, 즉 ‘청킹(chunking)’ 설정에서 시작됩니다.AI가 문서를 잘 활용하게 만들려면, 지식베이스와 청킹 과정을 제대로 이해하는 게 핵심입니다.이 글에서는 Dify의 지식베이스 시스템과 청킹 설정법을 알기 쉽게 설명합니다.읽고 나면, 당신의 AI 챗봇이 더 정확하게 문서를 이해하고, 믿을 만한 답변을 하도록 설정할 수 있을 겁니다.RAG와 지식베이스: AI가 문서를 활용하는 방식요즘 AI 챗봇은 GPT 같은 대규모 언어 모델(LLM)을 활용합니다.그런데 이런 모델은 사전에 학습한 데이터에 기반해 답변합니다.그래서 .. Redis Vector Library를 활용한 RAG 파이프라인 구축: AI 검색 시스템 만들기 📌 AI 검색을 더 똑똑하게 만드는 방법?요즘 AI 챗봇과 검색 시스템이 빠르게 발전하고 있지만, 여전히 정확한 정보를 찾는 것이 쉽지 않습니다. 기존의 AI 모델은 문맥을 이해하는 데 한계가 있고, 훈련된 데이터 외의 정보는 제대로 활용하지 못하는 경우가 많습니다.여기서 RAG(Retrieval Augmented Generation) 기술이 등장합니다. RAG는 벡터 검색(Vector Search)과 대형 언어 모델(LLM)을 결합하여 AI가 보다 정교한 답변을 제공할 수 있도록 도와줍니다.이 글에서는 Redis Vector Library(RedisVL)를 활용한 RAG 파이프라인 구축 방법을 설명합니다. RedisVL을 이용하면 벡터 검색을 쉽게 구현할 수 있으며, OpenAI API와 결합하여 실.. RAG 대신 CAG? 캐시 증강 생성 기술이 차세대 LLM을 바꾼다 기술이 발전함에 따라 대형언어모델(LLM)의 컨텍스트 창이 확대되며, RAG(검색 증강 생성)보다 더 빠르고 효율적인 접근 방식인 CAG(캐시 증강 생성)가 주목받고 있습니다. CAG는 검색의 복잡성을 줄이고, 모델의 성능과 정확도를 극대화할 수 있는 대안으로 부상하고 있는데요. 이번 블로그에서는 RAG와 CAG의 차이점, CAG의 작동 방식, 그리고 왜 이 기술이 주목받고 있는지 알아보겠습니다.1. RAG와 CAG의 차이점RAG(검색 증강 생성)란?RAG는 외부 데이터베이스에서 검색한 정보를 LLM이 통합하여 응답을 생성하는 방식입니다. 하지만 RAG는 검색 과정에서 다음과 같은 문제를 발생시킬 수 있습니다:검색 지연: 검색에 시간이 소요됩니다.문서 선택 오류: 불필요한 정보를 검색하거나 중요한 정보를.. RAGCHECKER: RAG 시스템 평가의 새로운 표준 RAG (Retrieval-Augmented Generation) 시스템은 대규모 언어 모델(LLM)의 잠재력을 더욱 확장하여 외부 지식 기반을 활용함으로써 더 정확하고 맥락에 맞는 응답을 생성합니다. 하지만 이러한 시스템을 효과적으로 평가하고 진단하는 것은 상당한 도전 과제입니다.RAGCHECKER는 이러한 문제를 해결하기 위해 설계된 혁신적인 평가 프레임워크로, RAG 시스템의 성능을 심층적으로 분석하고 개선 방향을 제시할 수 있는 포괄적인 메트릭과 도구를 제공합니다.RAGCHECKER란 무엇인가요?RAGCHECKER는 Retrieval-Augmented Generation 시스템을 평가하고 진단하기 위해 설계된 자동화된 고급 평가 프레임워크입니다. 이를 통해 개발자와 연구자는 RAG 시스템의 성능을.. RAGCache: 대형 언어 모델(LLM) 시대의 성능 최적화를 위한 지식 캐싱의 혁신적 접근 대형 언어 모델(LLM)이 발전함에 따라, 이에 수반되는 컴퓨팅 리소스와 메모리 사용량도 급증하고 있습니다. 이로 인해 자연어 처리(NLP) 작업의 효율성을 높이기 위해 다양한 기술들이 개발되고 있습니다. 이번 글에서 다룰 'RAGCache'는 검색 기반 생성 모델의 성능을 획기적으로 향상시키기 위한 솔루션으로, RAG의 주요 문제들을 해결하고자 합니다.RAG란 무엇인가?RAG(Retrieval-Augmented Generation, 검색 증강 생성)는 외부 지식 데이터베이스와 LLM을 결합하여 응답의 정확성과 관련성을 극대화하는 기법입니다. 예를 들어, GPT-4, LLaMA2와 같은 모델이 Wikipedia와 같은 외부 데이터베이스에서 정보를 검색하고 이를 사용해 더 나은 응답을 생성하는 방식입니다... 이전 1 2 3 4 다음