-
LlamaEdgeChatService는 개발자에게 HTTP 요청을 통해 LLM과 채팅할 수 있는 OpenAI API 호환 서비스를 제공합니다. -
LlamaEdgeChatLocal은 개발자가 로컬에서 LLM과 채팅할 수 있도록 합니다(곧 출시 예정).
LlamaEdgeChatService와 LlamaEdgeChatLocal 모두 WasmEdge Runtime을 기반으로 하는 인프라에서 실행되며, LLM 추론 작업을 위한 경량 및 이식 가능한 WebAssembly 컨테이너 환경을 제공합니다.
API Service를 통한 채팅
LlamaEdgeChatService는 llama-api-server에서 작동합니다. llama-api-server quick-start의 단계를 따라 자체 API 서비스를 호스팅하면 인터넷이 가능한 한 어디서든 원하는 모든 장치에서 원하는 모든 모델과 채팅할 수 있습니다.
비스트리밍 모드에서 LLM과 채팅하기
스트리밍 모드에서 LLM과 채팅하기
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.