找回密码
 立即注册
首页 业界区 安全 如何在macos上配置ollama自启动

如何在macos上配置ollama自启动

讹过畔 2025-9-30 11:39:30
在 macOS 上,可以通过 Launchd 来管理 Ollama 的自启动。
配置自启动文件


  • 创建 Plist 文件:在用户目录下创建 LaunchAgents 目录(如果不存在的话),并创建配置文件。
    mkdir -p ~/Library/LaunchAgents
    nano ~/Library/LaunchAgents/com.ollama.server.plist
  • 编写配置内容:将以下 XML 内容写入文件。同样,请确保 ProgramArguments 中的路径正确(通常为 /usr/local/bin/ollama)。
        Label    com.ollama.server    ProgramArguments            /usr/local/bin/ollama        serve        RunAtLoad        KeepAlive        StandardOutPath    /tmp/ollama.stdout.log    StandardErrorPath    /tmp/ollama.stderr.log保存并退出编辑器。
  • 加载并启动服务:使用 launchctl 命令加载此配置并启动服务。
    launchctl load ~/Library/LaunchAgents/com.ollama.server.plist
    launchctl start com.ollama.server
  • 验证服务:可以通过查看日志文件或检查端口来确认服务是否运行。
    tail -f /tmp/ollama.stdout.log

    lsof -i :11434
更改模型保存路径

•   自定义模型存储路径:如果你希望 Ollama 将模型下载到其他位置,可以通过设置环境变量 OLLAMA_MODELS 来实现。
  1. ◦   Linux/macOS:在 ~/.bashrc, ~/.zshrc 或服务配置文件(如 systemd 的 Environment 项或 launchd 的 EnvironmentVariables 键)中添加 export OLLAMA_MODELS="/your/custom/path"。
  2. ◦   Windows:在“系统属性” -> “环境变量”中新建一个名为 OLLAMA_MODELS 的系统变量,值为你的自定义路径。
复制代码
•   允许外部访问(谨慎操作):默认情况下,Ollama 只监听本地(127.0.0.1)。如果你需要从其他设备访问,可以设置环境变量 OLLAMA_HOST=0.0.0.0:11434(11434 是默认端口,可更改)。请注意,这将使你的 Ollama 服务暴露在网络上,可能会带来安全风险,请确保在安全的网络环境下操作。
验证自动启动

配置完成后,重启你的电脑,然后通过以下方式验证 Ollama 服务是否已自动在后台运行:
•   打开终端或命令行,输入 ollama list。如果正常返回(即使当前没有模型,也应无报错),说明服务已运行。
•   或者通过 API 接口检查:curl http://localhost:11434/api/tags。

来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册