도구
LlamaIndex

다양한 데이터 소스를 LLM에 연결하기 위한 프레임워크. RAG 파이프라인 구축에 특화되어 있다.

개념 설명

PDF, 데이터베이스, API, 웹페이지 등 다양한 소스에서 데이터를 가져와 LLM이 답변에 활용할 수 있도록 준비하는 과정은 복잡하다. LlamaIndex는 이 과정을 표준화한 프레임워크로, 데이터 로딩, 청킹, 임베딩, 인덱싱, 검색까지 RAG의 전체 파이프라인을 커버한다. LangChain이 에이전트와 체인에 강점을 보인다면, LlamaIndex는 데이터 연결과 인덱싱에 더 특화되어 있다.

사용 예시

사내 문서 질의응답 시스템을 만들 때, SimpleDirectoryReader로 문서를 로드하고 VectorStoreIndex로 인덱싱한 뒤 index.as_query_engine()으로 바로 질의할 수 있다. 복잡한 RAG가 필요하다면 RouterQueryEngine으로 여러 인덱스 중 적합한 것을 골라 검색하도록 구성할 수 있다.

#RAG#데이터연결#인덱싱
← AI Wiki에서 더 보기