在 macOS 上,可以通过 Launchd 来管理 Ollama 的自启动。
配置自启动文件
- 创建 Plist 文件:在用户目录下创建 LaunchAgents 目录(如果不存在的话),并创建配置文件。
mkdir -p ~/Library/LaunchAgents
nano ~/Library/LaunchAgents/com.ollama.server.plist
- 编写配置内容:将以下 XML 内容写入文件。同样,请确保 ProgramArguments 中的路径正确(通常为 /usr/local/bin/ollama)。
Label com.ollama.server ProgramArguments /usr/local/bin/ollama serve RunAtLoad KeepAlive StandardOutPath /tmp/ollama.stdout.log StandardErrorPath /tmp/ollama.stderr.log保存并退出编辑器。
- 加载并启动服务:使用 launchctl 命令加载此配置并启动服务。
launchctl load ~/Library/LaunchAgents/com.ollama.server.plist
launchctl start com.ollama.server
- 验证服务:可以通过查看日志文件或检查端口来确认服务是否运行。
tail -f /tmp/ollama.stdout.log
或
lsof -i :11434
更改模型保存路径
• 自定义模型存储路径:如果你希望 Ollama 将模型下载到其他位置,可以通过设置环境变量 OLLAMA_MODELS 来实现。- ◦ Linux/macOS:在 ~/.bashrc, ~/.zshrc 或服务配置文件(如 systemd 的 Environment 项或 launchd 的 EnvironmentVariables 键)中添加 export OLLAMA_MODELS="/your/custom/path"。
- ◦ Windows:在“系统属性” -> “环境变量”中新建一个名为 OLLAMA_MODELS 的系统变量,值为你的自定义路径。
复制代码 • 允许外部访问(谨慎操作):默认情况下,Ollama 只监听本地(127.0.0.1)。如果你需要从其他设备访问,可以设置环境变量 OLLAMA_HOST=0.0.0.0:11434(11434 是默认端口,可更改)。请注意,这将使你的 Ollama 服务暴露在网络上,可能会带来安全风险,请确保在安全的网络环境下操作。
验证自动启动
配置完成后,重启你的电脑,然后通过以下方式验证 Ollama 服务是否已自动在后台运行:
• 打开终端或命令行,输入 ollama list。如果正常返回(即使当前没有模型,也应无报错),说明服务已运行。
• 或者通过 API 接口检查:curl http://localhost:11434/api/tags。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |