目录

服务器上通过ollama部署deepseek

目录

服务器上通过ollama部署deepseek

2025年1月下旬,DeepSeek的R1模型发布后的一周内就火了,性能比肩OpenAI的o1模型,且训练成本仅为560万美元,成本远低于openAI,使得英伟达股票大跌。

下面我们来看下如何个人如何部署deepseek-r1模型。

我是用的仙宫云的服务器通过ollama部署的deepseek.

首先我们去ollama官方网站https://ollama.com/

下载ollama

https://i-blog.csdnimg.cn/direct/c2c6d841ae974d00ad2ae9f3d38e6bb1.png

我这里是ubuntu服务器,执行命令

curl -fsSL | sh

安装之后ollama之后,

由于我需要外网访问,改下环境配置

export OLLAMA_HOST=0.0.0.0:11434;

export OLLAMA_ORIGINS= *

再执行ollama serve启动

https://i-blog.csdnimg.cn/direct/e1e1e74364664398a25a88f2655278e5.png

去ollama上找下deepseek 模型

https://i-blog.csdnimg.cn/direct/eb097a87cf944967bed1fec006c15c37.png

deepseek有很多参数的模型可以选择,根据自己的机器选择

https://i-blog.csdnimg.cn/direct/66526e651b954c8197efefc85f6e352e.png

我这里是一台4090D,选择了32b的模型

执行ollama run deepseek-r1:32b就可以下载模型,下载完成出现下图这个命令行发送信息的提示就算成功。

https://i-blog.csdnimg.cn/direct/4c595b74ff8949a5a71e200d4887f5a1.png

测试下效果,好了部署是没问题了,在命令行太不方便了,这里我们用chatbox来配置带有界面的聊天。

https://i-blog.csdnimg.cn/direct/89803d9b43694c48a901b57477860c93.png

下载个chatbox

https://i-blog.csdnimg.cn/direct/e051d8990b174fe182c8d0786ed2d053.png

这里我选择window客户端

配置在仙宫云服务器的域名地址

https://i-blog.csdnimg.cn/direct/b0ab2dc462f44d05a7b9ca3c2e613c5d.png

配置好了之后会自动选择deepseek-r1:32b的模型

测试下效果,问deepseek如何部署,很快就出结果了,聊天框哪里会显示deepseek-r1:32b模型

https://i-blog.csdnimg.cn/direct/2a65beecc8e24c3f99e4239bf7407f24.png

.