LlamaEdge는 커스터마이징되고 파인튜닝된 LLM을 로컬 또는 엣지에서 실행하는 가장 쉽고 빠른 방법입니다.
- 경량 추론 앱.
LlamaEdge는 GB가 아닌 MB 단위입니다- 네이티브 및 GPU 가속 성능
- 다양한 GPU 및 하드웨어 가속기 지원
- 다양한 최적화된 추론 라이브러리 지원
- 다양한 AI / LLM 모델 선택 가능
설치 및 설정
설치 지침을 참조하세요.Chat models
사용 예제를 참조하세요.Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.