本地部署ai模型

LM Studio 简单

Ollama + Open WebUI 最灵活

基座

OLLAMA_HOST=0.0.0.0

ollama

ollama  list
ollama  ps

ollama pull xxx
ollama run xxx
ollama  show xxx

web查看api服务

http://localhost:11434/

webui

测试连通性

curl http://192.168.20.199:11434/

本地部署

docker run -d \
  --name open-webui \
  -p 3000:8080 \
  -e OLLAMA_API_BASE_URL=http://192.168.20.199:11434 \
  ghcr.io/open-webui/open-webui:main

搭建流程

RAG知识库

RAGFlow / LangChain


ai接口管理

apifox