亲爱的读者们,大家好!希里安在此真诚地问候大家:最近过得如何?希望你们都平安健康!
时光飞逝,2025年的农历新年已经过去一段时间了。新的一年已经开启,祝愿大家一切顺利,继续前行!
最近,工作圈中最热门的话题无疑是DeepSeek和哪吒2。作为创作者,他们不懈的努力值得我们学习。作为普通人,我们也要在自己的领域深耕,最终总会有收获。
尽管网上已经有许多关于DeepSeek部署的教程,但理论结合实践,自行操作的印象会更深刻,不是吗?
今天,我将为大家详细介绍如何在个人笔记本上部署一个小版本的DeepSeek(DeepSeek-R1 1.5B和7B)模型的完整步骤,即使是新手也能轻松上手。
一、工具介绍
1.1 DeepSeek
DeepSeek如此热门,我就不多介绍了,大家可以访问官方网站了解更多。
https://www.deepseek.com/
1.2 Ollama
Ollama是一款开源工具,可以在本地运行包括Mistral、Llama和DeepSeek-R1在内的多种大型模型。使用Ollama,只需一行命令即可启动模型,同时确保所有数据都在本地运行,有效保护隐私。
https://ollama.com/
二、准备工作
2.1 系统要求
操作系统:Windows 10及以上版本
硬件配置:我使用的是四年前的笔记本,16G内存,2060的6G显存。虽然1.5B模型对GPU和内存要求较低,但建议至少8GB内存。
网络环境:安装过程中需要联网下载相关安装包,但部署后可以离线使用。
2.2 下载Ollama安装包
访问Ollama官方网站(或搜索“Ollama Windows下载”),进入下载页面。选择Windows版本下载OllamaSetup.exe文件。如果下载速度较慢,可以使用百度云盘提供的备用链接(Chatbox-1.9.8-Setup.exe链接:https://www.php.cn/link/fc76dcfc15b6be30b1e6d3c296f19e58)。
三、Ollama的安装与验证
3.1 安装Ollama
双击下载好的OllamaSetup.exe文件,按照安装向导的提示进行安装。默认情况下,Ollama会安装在C盘。如果希望将程序安装在其他盘,可以参考系统软链接设置,将安装目录同步到目标磁盘(此步骤适合有一定经验的用户)。
安装完成后,按下Windows+R快捷键,打开命令提示符(CMD)。输入以下命令检测版本:
ollama -v登录后复制
如果命令返回类似“ollama version is 0.5.7”的版本信息,则说明Ollama安装成功。
四、部署DeepSeek-R1 1.5B、7B模型
4.1 选择模型版本
DeepSeek-R1模型提供多个版本选择,包括1.5B、7B、14B等。对于Windows部署且硬件条件有限的用户,建议选择最小的1.5B版本。参数数量说明如下:
1.5B:15亿参数,适合入门体验和轻量级任务;较大版本(如7B、14B)虽然性能更强,但对硬件要求更高。
4.2 启动DeepSeek
在命令提示符下直接运行以下命令启动DeepSeek-R1 1.5B或7B模型:
ollama run deepseek-r1:1.5b ollama run deepseek-r1:7b登录后复制
此命令会自动下载所需模型文件,并启动模型服务。运行过程中,可以看到模型拉取、验证、加载等详细日志。
4.3 与模型交互
启动完成后,终端将显示提示信息,例如:Send a message (/? for help)。此时,您就可以向模型发送消息测试功能,例如输入:“你是谁?”模型会根据预设回答内容回复。
五、可视化聊天
5.1 选择Chatbox
Chatbox软件有多种用途,但作为一个模型API和本地模型的连接工具,其主要功能一直都是完全免费的。近期任何收费教程、付费社群、付费部署捆绑包均与Chatbox无关,请用户谨慎辨别。
5.2 选择Ollama API
在设置中选择默认的ollama api,API域名保持默认,模型就选择已经安装的模型即可。
六、常见问题与解决方案
6.1 下载速度慢
使用文中备用下载链接或通过网络加速工具提升下载速度。
6.2 模型启动失败
确保网络连接正常,检查Windows防火墙设置,允许Ollama通过。以管理员身份运行命令提示符重新尝试。
总结
通过以上步骤,我们已经成功在个人笔记本上利用Ollama部署了DeepSeek-R1 1.5B和7B模型,希望能帮助大家实现本地化AI部署,体验智能问答的魅力。
以上就是周末用笔记本搞点大事:手把手教学部署 1.5、7B 版本 DeepSeek 智能助手的详细内容,更多请关注楠楠科技社其它相关文章!