지금까지 1단계부터 4단계까지, LLM의 한계를 뛰어넘어 나만의 사내 비공개 데이터를 완벽하게 다루는 RAG(Retrieval-Augmented Generation) 시스템의 핵심 원리를 모두 섭렵하셨습니다.
우리가 함께 걸어온 단계별 핵심 레슨을 정리해 보겠습니다.
실전 프로젝트를 수행할 때 이 세 가지 균형을 생각하세요.
| 기둥 | 기술 (Toolkit) | 역할 | 비유 |
|---|---|---|---|
| Search (탐색) | Vector DB (Chroma) | 방대한 지식 중 질문과 관련된 정보만 광속으로 찾기 | 똑똑한 도서관 사서 |
| Context (맥락) | Prompt Engineering | 찾은 정보를 AI에게 "이것만 보고 답해"라고 정확히 전달하기 | 책상 위 참고 자료 |
| Reasoning (추론) | Reasoning LLM (DeepSeek-R1) | 전달받은 정보를 바탕으로 논리적으로 생각해서 최종 답변하기 | 사려 깊은 인턴 사원 |
이제 기본은 끝났습니다! 진정한 '사내 AI 비서'를 만들고 싶다면 다음 단계에 도전해 보세요.
지금까지는 코드를 실행할 때마다 데이터베이스를 새로 만들었습니다. 실전에서는 하드디스크에 저장하고 불러오는 설정이 필수입니다.
# 코드 예시
vectorstore = Chroma.from_documents(
documents=docs,
embedding=embeddings,
persist_directory="./my_company_db"
)
코드에 직접 텍스트를 적는 대신, 실제 PDF나 엑셀 파일을 자동으로 읽어와야 합니다.