Xinference는 노트북에서도 LLM, 음성 인식 모델, 멀티모달 모델을 제공하도록 설계된 강력하고 다재다능한 라이브러리입니다.
Xorbits Inference를 사용하면 단 하나의 명령으로 자체 모델이나 최첨단 내장 모델을 손쉽게 배포하고 제공할 수 있습니다.
설치 및 설정
Xinference는 PyPI에서 pip를 통해 설치할 수 있습니다:LLM
Xinference는 chatglm, baichuan, whisper, vicuna, orca를 포함한 GGML과 호환되는 다양한 모델을 지원합니다. 내장 모델을 확인하려면 다음 명령을 실행하세요:Xinference용 Wrapper
다음을 실행하여 Xinference의 로컬 인스턴스를 시작할 수 있습니다:사용법
자세한 정보와 상세한 예제는 xinference LLM 예제를 참조하세요.Embeddings
Xinference는 쿼리 및 문서 embedding도 지원합니다. 더 자세한 데모는 xinference embedding 예제를 참조하세요.Xinference LangChain partner package 설치
다음과 같이 통합 패키지를 설치하세요:Chat Models
LLM
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.