Ollama WebUI 已更名为 Open WebUI ,其支持 Docker 部署相当方便,接入之前白嫖的 Open API 就可以享受所有模型服务。
而我要分享给国内亲友用,他们不需要太多模型,Open WebUI 正好支持 LiteLLM 配置,在 Models 设置 GPT3.5 / 4 / vision 三个模型,再接一个 Groq 给自己玩,完美🥳。
Open-webui https://t.co/S1EHp59Hr3
LiteLLM 文档 https://t.co/Bfdoqu4f6M
点击图片查看原图
点击图片查看原图
点击图片查看原图
点击图片查看原图