最近爆火的Deepseek如何部署到本地-教程来袭—工具版本

之前写了两篇关于Deepseek 本地化部署的文章 win版本和linx版本。可能很多小伙伴不具备一定的部署能力。

下面出一版相对更加简单的部署方式:

接住第三方工具去部署:

ollama  https://ollama.com/

image

根据自己的电脑系统版本去下载对应的工具端

image

下载直接安装  一直下一步。

模型下载:

有关模型的下载 我这里废话一下:

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)ollama run deepseek-r1:1.5b
版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要4.7GB空余空间)ollama run deepseek-r1:7b
版本:8b,(需要4.9GB空余空间)ollama run deepseek-r1:8b
版本:14b,(需要9GB空余空间)ollama run deepseek-r1:14b
版本:32b,(需要20GB空余空间)ollama run deepseek-r1:32b
版本:70b,(需要43GB空余空间)ollama run deepseek-r1:70b
版本:671b,(需要404GB空余空间)ollama run deepseek-r1:671b

image

image

根据自己的电脑配置情况 下载对应的模型

一下是如何下载模型:

先贴出来 等下要复制的 命令

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

(模型会直接安装在C盘,请注意C盘的可用空间!)这里尝试安装一下 7b 的版本,复制刚刚的ollama run deepseek-r1:7b 命令行,粘贴到【PowerShell(管理员】运行框,然后回车

image

下载可能会根据网络等情况 等待的时间可能会不一样  下载成功后会出现success 等字样

image

同时会进入命令对话模式 

image

图形化工具

刚才我们已经部署好了 deepseek ,但是使用起来不是很方便,下面我们借助第三方工具 实现图形化对话模式。

工具有多样性:推荐一款  Chat box 

具体配置如下:

下载    安装    不多说了  一直下一步就行

直接从界面设置开始

点击设置 菜单 进入到 设置界面

image

如果你是直接在同一台电脑上 部署的 deepseek 模型 以及chatbox 。部署成功是可以在模型里面看到你下载并安装好的大模型。只需要点保存即可直接对话,就这么简单。

局域网访问 

如果是在本地服务器部署后 想和其他小伙伴分享共同使用的话需要做一下简单的配置

1、关闭服务端防火墙,或者防火墙允许端口通过  具体端口根据每个人部署的情况不同 端口是不一样的 一般为11434

2、环境变量设置

新建 

变量  OLLAMA_HOST

变量值  0.0.0.0

 

image

 

完成以上 只需要在 其他小伙伴的客户端吧 地址修改为服务器端IP 即可

 

 

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发

请登录后发表评论

    请登录后查看评论内容