- 发布日期:2025-02-03 13:31 点击次数:182
图片
然而,随着用户数量的激增,一些问题也随之而来:连接不上、响应缓慢等现象时有发生。这让不少用户体验大打折扣。但好消息是,这些问题并非无解!
作为一款开源AI项目,DeepSeek始终倡导本地化部署的理念。本地搭建正是解决这些问题的最佳方案!通过将模型部署在自己的服务器上,用户可以完全避免网络延迟和连接问题,同时还能享受更高的运行效率和更低的使用成本。
如果您正在寻找一种稳定、高效且灵活的AI解决方案,本地搭建DeepSeek无疑是一个明智的选择。无论是个人开发者还是企业用户,都可以轻松实现本地部署,体验深度求索的强大能力。
首先,前往ollama官网,下载ollama
图片
点击下载按钮
根据自身,选择对应的操作系统
图片
选择对应操作系统后,点击“download”,然后就是一路下一步的安装。
图片
出现这个界面,即安装成功
安装完成后,在官网左上角点击“Models”
图片
选择我们今天的主角“deepseek-r1”,在标签处根据自身显卡显存情况,选择相对应的模型(模型越大,需要的显存也就越大,效果自然也就越好)
图片
小编这里用“14b”的来进行演示,选择对应的标签后,在右侧就有对应的命令
图片
点击箭头所示复制按钮,将命令复制后,粘贴进命令提示符中
图片
就自行开始下载了,待下载完成后就可开始使用了!
图片
进阶操作默认情况下,ollama会安装在C盘,且模型较大,占用离谱。如何修改呢?
windows系统下,ollama默认安装路径:C:\Users\%username%\AppData\Local\Programs\Ollama
将该文件夹剪切至你想保存的位置
进入系统属性,选择高级设置,环境变量图片
图片
双击“path”
将ollama的新路径输入。
更改ollama的模型位置同样是在环境变量这里,在下方的系统变量中,选择新建
图片
变量名
OLLAMA_MODELS
变量值
你想保存模型的路径
Web UI命令提示符的使用既不方便,也不美观。但ollama支持Web UI,使用起来就方便多了!
这里提供一个浏览器扩展【Page Assist】
图片
添加扩展后,选择模型,并且在“RAG设置”中,也选择深度求索模型后,即可。
图片
结语图片
新年快乐!
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。