antoolsprov3.0的最新版本发布了重大更新,不仅完美支持deepseek官方api和硅基流动api,还引入了强大的本地ollama支持。面对deepseek官网经常出现的拥堵问题和token使用限制,本地部署方案的作用显得尤为重要。
一、本地部署方案:Ollama轻松搭建
令人振奋的是,部署的门槛并不高。只要有一台配备16G内存和i7处理器的普通电脑,就能轻松运行14B级别的模型,完全满足日常使用需求。
Ollama作为一款专业的LLM管理工具,具有以下优势:
-
支持多种主流操作系统安装配置极其简单
模型管理灵活便捷
二、快速部署指南
获取安装包:访问官网 https://ollama.com/download 下载适合自己系统的版本。空间管理技巧:如果C盘空间紧张,可以通过设置OLLAMA_MODELS环境变量,将模型存储位置指向其他磁盘,例如:D:\Ollama。
模型部署:打开命令行,根据需求选择:
-
部署DeepSeek:ollama run deepseek-r1:14b
部署千问:ollama run qwen2.5-coder:14b
三、ANToolsPro配置要点
软件亮点:
-
支持多种API接入:
-
DeepSeek官方:https://api.deepseek.com/v1/chat/completions
硅基流动:https://api.siliconflow.cn/v1/chat/completions
Ollama本地:http://localhost:11434/api/chat
(设置API参数)
(右上角弹出的AI助手就可以对其进行提问了)
获取方式
软件下载链接:https://www.alipan.com/s/v9ffGQVKAkj (提取码: z16j)
首次使用时,点击授权按钮并扫码联系获取授权。支持临时授权试用和正式授权两种方式。
以上就是重磅突破!网工效率神器完美整合DeepSeek+Ollama,性能暴增300%的详细内容,更多请关注楠楠科技社其它相关文章!