Fleet AI Context는 가장 인기 있고 허용 가능한 상위 1200개 Python 라이브러리와 해당 문서의 고품질 embedding 데이터셋입니다.
Fleet AI 팀은 세계에서 가장 중요한 데이터를 embedding하는 것을 목표로 하고 있습니다. 그들은 최신 지식을 활용한 코드 생성을 가능하게 하기 위해 상위 1200개 Python 라이브러리를 embedding하는 것부터 시작했습니다.
이러한 embedding을 사용하여 문서 검색 시스템을 구축하고 궁극적으로 간단한 코드 생성 chain을 만드는 방법을 살펴보겠습니다!
Retriever chunks
Fleet AI 팀은 embedding 프로세스의 일환으로 긴 문서를 embedding하기 전에 먼저 청크로 나눴습니다. 즉, vector는 전체 페이지가 아닌 LangChain 문서의 페이지 섹션에 해당합니다. 기본적으로 이러한 embedding에서 retriever를 생성하면 이러한 embedding된 청크를 검색하게 됩니다. Fleet Context의download_embeddings()를 사용하여 LangChain의 문서 embedding을 가져올 것입니다. 지원되는 모든 라이브러리의 문서는 fleet.so/context에서 확인할 수 있습니다.
다른 패키지
이 Dropbox 링크에서 다른 embedding을 다운로드하여 사용할 수 있습니다.상위 문서 검색
Fleet AI에서 제공하는 embedding에는 어떤 embedding 청크가 동일한 원본 문서 페이지에 해당하는지를 나타내는 메타데이터가 포함되어 있습니다. 원한다면 이 정보를 사용하여 embedding된 청크만이 아닌 전체 상위 문서를 검색할 수 있습니다. 내부적으로는 MultiVectorRetriever와 BaseStore 객체를 사용하여 관련 청크를 검색한 다음 해당 상위 문서에 매핑합니다.Chain에 적용하기
간단한 chain에서 검색 시스템을 사용해 보겠습니다!Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.