跳到主要内容

Ollama(本地 / 自建)

Ollama 常用于本地或自建服务器推理,通常不需要第三方云平台 API Key,但需要可访问的服务地址。

1. 准备方式

  • 本地模式:在你的设备安装并运行 Ollama 服务。
  • 远程模式:在自建服务器部署 Ollama,并确保网络可访问。

2. 前置检查

  • 目标模型已拉取(例如常见开源模型)。
  • 服务地址、端口、网络策略配置正确。

3. 在 Mask 中配置

  1. 选择 Ollama 提供商。
  2. 填写服务地址(本地或远程)。
  3. 选择已安装模型并测试。

4. 常见问题

  • 连接失败:地址不可达、防火墙或端口未开放。
  • 模型不存在:服务端未下载对应模型。
  • 响应慢:本地设备算力不足或并发过高。

5. 隐私提示

  • 本地 Ollama 通常更容易实现“数据不出机”。
  • 若使用远程自建节点,数据将传输到你的服务器,请自行负责网络与存储安全。