Ollama(本地 / 自建)
Ollama 常用于本地或自建服务器推理,通常不需要第三方云平台 API Key,但需要可访问的服务地址。
1. 准备方式
- 本地模式:在你的设备安装并运行 Ollama 服务。
- 远程模式:在自建服务器部署 Ollama,并确保网络可访问。
2. 前置检查
- 目标模型已拉取(例如常见开源模型)。
- 服务地址、端口、网络策略配置正确。
3. 在 Mask 中配置
- 选择 Ollama 提供商。
- 填写服务地址(本地或远程)。
- 选择已安装模型并测试。
4. 常见问题
- 连接失败:地址不可达、防火墙或端口未开放。
- 模型不存在:服务端未下载对应模型。
- 响应慢:本地设备算力不足或并发过高。
5. 隐私提示
- 本地 Ollama 通常更容易实现“数据不出机”。
- 若使用远程自建节点,数据将传输到你的服务器,请自行负责网络与存储安全。