Ollama 适用于本地 AI 代理、嵌入式 AI 应用、隐私保护的智能助手等场景。你可以用它来运行大语言模型,而无需自己搭建复杂的推理环境。
1.2. OpenWebUI简介
Open-WebUI 是一个 开源的 Web 用户界面,用于管理和使用本地或远程的大语言模型(LLM),比如 Ollama、OpenAI、Gemini 等。它的主要特点包括:
友好的 Web 界面:提供 ChatGPT 类似的对话 UI,方便交互。
支持多种后端:可以连接 Ollama、OpenAI API、本地 LLM 等。
多用户支持:适用于团队协作。
对话历史管理:可保存和管理聊天记录。
插件和自定义功能:支持扩展,适用于不同应用场景。
它可以让本地 LLM 变得更加易用,适合个人、企业部署本地 AI 助手。
2. 部署ollama
2.1. 脚本安装ollama
1
curl -fsSL https://ollama.com/install.sh | sh
输出
1 2 3 4 5 6 7 8 9 10 11 12 13
>>> Installing ollama to /usr/local >>> Downloading Linux amd64 bundle ######################################################################## 100.0% >>> Creating ollama user... >>> Adding ollama user to render group... >>> Adding ollama user to video group... >>> Adding current user to ollama group... >>> Creating ollama systemd service... >>> Enabling and starting ollama service... Created symlink /etc/systemd/system/default.target.wants/ollama.service -> /etc/systemd/system/ollama.service. >>> The Ollama API is now available at 127.0.0.1:11434. >>> Install complete. Run "ollama" from the command line. WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
默认服务监听的地址为:127.0.0.1:11434
2.2. 查看ollama服务状态
1 2 3 4 5 6 7 8 9
systemctl status ollama * ollama.service - Ollama Service Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled) Active: active (running) since Fri 2025-02-07 17:21:55 +08; 23s ago Main PID: 53472 (ollama) Tasks: 10 Memory: 10.3M CGroup: /system.slice/ollama.service `-53472 /usr/local/bin/ollama serve
Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model stop Stop a running model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command
Flags: -h, --helphelpfor ollama -v, --version Show version information
Use "ollama [command] --help"for more information about a command.
# docker images REPOSITORY TAG IMAGE ID CREATED SIZE ghcr.io/open-webui/open-webui ollama 29d60b4958c8 4 days ago 8.02GB
# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 3175fc20c608 ghcr.io/open-webui/open-webui:ollama "bash start.sh" 16 minutes ago Up 16 minutes (healthy) 0.0.0.0:3000->8080/tcp ollama-open-webui