검색 증강 생성(Retrieval-Augmented Generation, RAG)은 대규모 언어 모델의 능력과 외부 지식 검색을 결합하여 더 정확하고 사실에 기반을 두며 문맥에 맞는 응답을 생성합니다. RAG의 핵심은 “대규모 언어 모델을 사용해 사용자 쿼리에 답변을 제공하되, 지식 베이스에서 검색된 정보에 기반하여 답변하는 것”입니다.
RAG는 기본 대규모 언어 모델이나 미세 조정된 모델을 사용하는 것에 비해 다음과 같은 몇 가지 중요한 장점을 제공합니다.
이러한 장점에도 불구하고, 전통적인 RAG 접근 방식은 다음과 같은 몇 가지 문제가 있습니다.
Agentic RAG 시스템, 즉 검색 능력을 갖춘 에이전트를 구현함으로써 이러한 한계를 극복할 수 있습니다. 이 접근 방식은 RAG를 경직된 파이프라인에서 논리적 추론 중심의 상호작용적 프로세스로 탈바꿈시키는 방식입니다.
검색 도구를 갖춘 에이전트는 다음을 수행할 수 있습니다.
이 접근 방식은 다음과 같은 Agentic RAG 기술을 자연스럽게 구현합니다.
이제 단계별로 Agentic RAG 시스템을 구축해 보겠습니다. 이 예제에서는 허깅 페이스 Transformers 라이브러리 설명서를 검색해 질문에 답할 수 있는 에이전트를 만들어 보겠습니다.
아래 코드 스니펫을 따라 하거나, smolagents GitHub 리포지토리에서 전체 예제를 확인할 수 있습니다: examples/rag.py.
먼저, 필요한 패키지를 설치해야 합니다.
pip install smolagents pandas langchain langchain-community sentence-transformers datasets python-dotenv rank_bm25 --upgrade
허깅 페이스의 추론 API를 사용하려면 API 토큰을 설정해야 합니다.
# 환경 변수 로드 (HF_TOKEN 포함)
from dotenv import load_dotenv
load_dotenv()허깅 페이스 설명서가 포함된 데이터 세트를 불러와 검색에 사용할 준비를 해보겠습니다.
import datasets
from langchain.docstore.document import Document
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain_community.retrievers import BM25Retriever
# 허깅 페이스 설명서 데이터 세트 로드
knowledge_base = datasets.load_dataset("m-ric/huggingface_doc", split="train")
# Transformers 라이브러리 설명서만 포함하도록 필터링
knowledge_base = knowledge_base.filter(lambda row: row["source"].startswith("huggingface/transformers"))
# 데이터 세트 항목을 메타데이터가 있는 Document 객체로 변환
source_docs = [
Document(page_content=doc["text"], metadata={"source": doc["source"].split("/")[1]})
for doc in knowledge_base
]
# 더 나은 검색을 위해 문서를 작은 청크로 분할
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=500, # 청크당 문자 수
chunk_overlap=50, # 컨텍스트 유지를 위한 청크 간 중첩
add_start_index=True,
strip_whitespace=True,
separators=["\n\n", "\n", ".", " ", ""], # 분할 우선순위
)
docs_processed = text_splitter.split_documents(source_docs)
print(f"Knowledge base prepared with {len(docs_processed)} document chunks")이제 에이전트가 지식 베이스에서 정보를 검색하는 데 사용할 수 있는 사용자 정의 도구를 만들어 보겠습니다.
from smolagents import Tool
class RetrieverTool(Tool):
name = "retriever"
description = "의미 기반 검색을 사용하여 쿼리에 답변하는 데 가장 관련성이 높은 transformers 설명서 부분을 검색합니다."
inputs = {
"query": {
"type": "string",
"description": "수행할 쿼리입니다. 대상 문서와 의미적으로 가까워야 합니다. 질문보다는 긍정문을 사용하세요.",
}
}
output_type = "string"
def __init__(self, docs, **kwargs):
super().__init__(**kwargs)
# 처리된 문서로 검색기 초기화
self.retriever = BM25Retriever.from_documents(
docs, k=10 # 가장 관련성 높은 상위 10개 문서 반환
)
def forward(self, query: str) -> str:
"""제공된 쿼리를 기반으로 검색을 실행합니다."""
assert isinstance(query, str), "Your search query must be a string"
# 관련 문서 검색
docs = self.retriever.invoke(query)
# 가독성을 위해 검색된 문서 형식 지정
return "\nRetrieved documents:\n" + "".join(
[
f"\n\n===== Document {str(i)} =====\n" + doc.page_content
for i, doc in enumerate(docs)
]
)
# 처리된 문서로 검색 도구 초기화
retriever_tool = RetrieverTool(docs_processed)단순성과 속도를 위해 어휘 검색 방식인 BM25를 사용하고 있습니다. 실제 서비스 환경에서는 검색 품질을 높이기 위해 임베딩을 활용한 의미 기반 검색을 사용하는 것이 좋습니다. 고품질 임베딩 모델은 MTEB 리더보드에서 확인하세요.
다음으로 앞서 만든 검색 도구를 활용해 질문에 답할 수 있는 에이전트를 구성해 봅시다.
from smolagents import InferenceClientModel, CodeAgent
# 검색 도구로 에이전트 초기화
agent = CodeAgent(
tools=[retriever_tool], # 에이전트가 사용할 수 있는 도구 목록
model=InferenceClientModel(), # 기본 모델 "Qwen/Qwen2.5-Coder-32B-Instruct"
max_steps=4, # 논리적 추론 단계 수 제한
verbosity_level=2, # 에이전트의 상세한 논리적 추론 과정 표시
)
# 특정 모델을 사용하려면 다음과 같이 지정할 수 있습니다:
# model=InferenceClientModel(model_id="meta-llama/Llama-3.3-70B-Instruct")Inference Provider는 서버리스 추론 파트너가 제공하는 수백 개의 모델에 대한 액세스를 제공합니다. 지원되는 제공업체 목록은 여기에서 찾을 수 있습니다.
마지막으로 에이전트를 실행해 Transformers 관련 질문에 답해 보겠습니다.
# 정보 검색이 필요한 질문하기
question = "For a transformers model training, which is slower, the forward or the backward pass?"
# 에이전트를 실행하여 답변 얻기
agent_output = agent.run(question)
# 최종 답변 표시
print("\nFinal answer:")
print(agent_output)Agentic RAG 시스템은 다양한 사용 사례에 적용될 수 있습니다.
Agentic RAG는 전통적인 RAG 파이프라인을 뛰어넘는 중요한 발전을 의미합니다. 대형 언어 모델 에이전트의 추론 능력과 검색 시스템의 사실 기반을 결합함으로써, 우리는 더 강력하고 유연하며 정확한 정보 시스템을 구축할 수 있습니다.
저희가 보여드린 접근 방식은 다음과 같은 특징이 있습니다:
자신만의 Agentic RAG 시스템을 구축할 때에는, 다양한 검색 방법과 에이전트 아키텍처, 지식 소스를 실험하며 사용 사례에 최적화된 구성을 찾아보세요.
Update on GitHub