- 🔬 빠르고 프로덕션 사용을 위해 구축됨
- 🚂 llama3, qwen2, gemma 등과 많은 양자화된 버전 지원 전체 목록
- ⛓️ OpenAI 호환 API
- 💬 내장된 ChatGPT 스타일 UI
- 🔥 최첨단 inference backend를 통한 가속화된 LLM 디코딩
- 🌥️ 엔터프라이즈급 클라우드 배포 준비 완료 (Kubernetes, Docker 및 BentoCloud)
설치
PyPI를 통해openllm 설치
로컬에서 OpenLLM server 실행하기
LLM server를 시작하려면openllm hello 명령을 사용하세요:
Wrapper
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.