目录

在AIStudio飞桨星河社区一键部署DeepSeek-r170b模型

在AIStudio飞桨星河社区一键部署DeepSeek-r1:70b模型

随着DeepSeek的火热,市面上出现大量的第三方的API服务区,但是对于对安全、隐私、控制有一定需求的用户,还是会希望能够自主部署DeepSeek 。

实践下来,用自己的机器部署是一条解决之道,但是推理起来,cpu和内存占用很多,非常影响同时其它软件的操作。飞桨星河社区新推出了DeepSeek部署服务,操作简单,只需要点两下鼠标,可以部署1.5b - 70b之间的几个模型。

飞桨星河社区一键部署DeepSeek-r1:70b模型

首先进入星河社区的模型部署页面:

点击新建部署,选择DeepSeek-r1:70b模型,然后点击部署,

稍等一会儿,就部署成功了!

https://i-blog.csdnimg.cn/direct/aa297bdb47ac42e294a75a449d3c3ce4.png

点击详情,可以看到部署信息:

服务URL:https://api-b4v8damcv97cu8dc.aistudio-app.com

运行中 私有

创建时间 2025-02-22 22:46:25

未调用时长 0小时

调用次数 0

点使用,就自动出来调用api代码,当然这里的api_key已经马赛克了,实际情况下AIStudio会自动加上自己的key,这点非常贴心。

部署模型的api调用代码:

# pip install openai
from openai import OpenAI

client = OpenAI(
    api_key="apikey,AIStudio会自动加上自己的key",
    base_url="https://api-b4v8damcv97cu8dc.aistudio-app.com/v1"
)

completion = client.chat.completions.create(
    model="deepseek-r1:70b",
    temperature=0.6,
    messages=[
        {"role": "user", "content": "你好,请介绍一下你自己"}
    ],
    stream=True
)

for chunk in completion:
    if hasattr(chunk.choices[0].delta, "reasoning_content") and chunk.choices[0].delta.reasoning_content:
        print(chunk.choices[0].delta.reasoning_content, end="", flush=True)
    else:
        print(chunk.choices[0].delta.content, end="", flush=True)

输出信息:

<think>
您好我是由中国的深度求索DeepSeek公司开发的智能助手DeepSeek-R1如您有任何任何问题我会尽我所能为您提供帮助
</think>

您好我是由中国的深度求索DeepSeek公司开发的智能助手DeepSeek-R1如您有任何任何问题我会尽我所能为您提供帮助>>>

这样使用起来太方便啦!

总结

从创建页面可以看到,星河社区部署使用了Ollama部署DeepSeek,操作非常简单,就是点两次鼠标。

尽管现在很容易就能用到各家的免费DeepSeek web或API服务,但是自己部署,完全自己可控的DeepSeek api服务,还是非常不错的。