首页 > 编程笔记 > Web笔记 阅读:109

DeepSeek本地部署教程(非常全面)

如果需要长期使用 DeepSeek,则建议本地部署 DeepSeek,好处如下:
下面讲解一种简单、便捷的本地部署 DeepSeek 的具体做法。

部署DeepSeek-R1-1.5B

DeepSeek-R1-1.5B 适用于轻量级任务,是 DeepSeek 目前开源的最小版本,参数量只有 15亿,只需 3GB 的显存就能运行。而且,DeepSeek-R1-1.5B 在数学推理方面表现出色,甚至在某些基准测试中超过了 GPT-4o 和 Claude 3.5。

注意,如果电脑配置更高,则可以尝试部署 DeepSeek 的其他版本。

DeepSeek-R1-1.5B 适用于一些轻量级的任务,举例如下:

部署DeepSeek的不同版本对硬件的要求

下表所示为部署 DeepSeek 的不同版本对硬件的要求,我们可以结合自己的电脑配置选择部署相应的版本。

表:DeepSeek版本对硬件的要求
版 本 参数量 显存需求(FP16) 推荐GPU(单卡) 多卡支持 量化支持 适用场景
DeepSeek-R1-1.5B 15亿 3GB GTX 1650(4GB显存) 不需要 支持 低资源设备部署(树莓派、旧款笔记本 )、实时文本生成、嵌入式系统
DeepSeek-R1-7B 70亿 14GB RTX 3070/4060(8GB显存) 可选 支持 中等复杂度任务(文本摘要、翻译 )、轻量级多轮对话系统
DeepSeek-R1-8B 80亿 16GB RTX 4070(12GB显存) 可选 支持 有更高精度要求的轻量级任务(代码生成、逻辑推理 )
DeepSeek-R1-14B 140亿 32GB RTX 4090/A5000(16GB显存) 推荐 支持 企业级复杂任务(合同分析、报告生成 )、长文本理解与生成
DeepSeek-R1-32B 320亿 64GB A100 40GB(24GB显存) 推荐 支持 高精度专业领域任务(医疗、法律咨询 )、多模态任务预处理
DeepSeek-R1-70B 700亿 140GB 2x A100 80GB/4x RTX 4090(多卡并行) 必需 支持 科研机构、大型企业(金融预测、大规模数据分析 )、高复杂度生成任务
DeepSeek-R1-671B 6710亿 512GB+(单卡显存需求极高,通常需要多节点分布式训练) 8x A100/H100(服务器集群) 必需 支持 国家级、超大规模AI研究(气候建模、基因组分析 ),以及AGI探索

笔者部署 DeepSeek-R1-1.5B 时的硬件配置如下:

下载并安装Ollama

Ollama 是一个开源的轻量级框架,适用于在本地高效运行和微调大规模语言模型。Ollama 本身并不是 DeepSeek 的产品,但它支持 DeepSeek 的本地部署和优化。

通过浏览器访问 Ollama 官网,如下图所示,单击 Ollama 官网首页的 Download 按钮,下载 Ollama。


图 1 下载Ollama

下载完成后,双击 OllamaSetup.exe 进行安装,直到安装完成即可。

因为接下来会用到命令行,所以先讲解不同操作系统中命令行的打开方式:
打开命令行,在命令行中执行 ollama -v 命令(在命令行中先输入命令,再按回车键,即可执行命令),出现下图中箭头所示的版本号,即可说明 Ollama 安装成功。


图 2 Ollama安装成功

通过Ollama下载并运行DeepSeek

安装 Ollama 后,在命令行中执行 ollama pull deepseek-r1:1.5b 命令,可在 Ollama 的模型库中下载 DeepSeek-R1-1.5B,如下图所示。下载时长取决于模型大小和网络速度。


图 3 在 Ollama 的模型库中下载 DeepSeek-R1-1.5B

下载完成后,在命令行中执行 ollama run deepseek-r1:1.5b 命令,运行 DeepSeek-R1-1.5B。如下图所示,整个过程很快,几分钟后看到“success”字样,就可以使用 DeepSeek-R1-1.5B 了。


图 4 运行 DeepSeek-R1-1.5B

如何调用DeepSeek API

如果我们是开发人员、研究人员或者技术爱好者,则知道如何调用 DeepSeek API,将有助于我们更高效地使用 DeepSeek。

DeepSeek API 采用了与 OpenAI API 完全兼容的格式。只需在支持 OpenAI API 的客户端和 SDK 中简单调整配置参数,就能通过 OpenAI SDK 或任何支持 OpenAI API 的软件轻松接入 DeepSeek API。

1) DeepSeek中的主要配置参数

DeepSeek 中的主要配置参数如下:
提示,DeepSeek V3 是一款通用的大规模语言模型,采用了混合专家架构,侧重于高效文本生成和多语种对话;DeepSeek R1 则在 DeepSeek V3 的基础上,通过强化学习等方法进一步优化了推理能力,擅长处理数学、代码和逻辑推理任务。

2) 获取DeepSeek API key

在 DeepSeek 官网首页单击“API开放平台”功能入口并登录、注册,将获得一个 api_key(即 API key),如下图所示。首次注册的用户还会收到一些免费的 token 额度。


图 5 获取DeepSeek API key

token 是文本处理的最小单位,可以是单个字、单词或部分单词,DeepSeek 及其他 AI 模型通过这些 token 来理解和生成语言。

单击图 5 所示界面左侧的“API keys”菜单项,将显示“API keys”管理界面,在该界面单击“创建 API key”按钮,输入 API key 的名称,如图 6 所示。


图 6 创建 API key

出于安全方面的原因,API key 仅在创建时可见、可复制,并且需要立即将其保存(仅显示一次),之后将无法通过“API keys”管理界面再次查看它。如果丢失了它,则需要重新创建。

注意,不要与他人共享你的 API key,也不要将其暴露在浏览器或其他客户端代码中,DeepSeek 可能会自动禁用已发现的公开泄露的 API key。

接下来就可以正式调用 DeepSeek API 了。在调用 DeepSeek API 前,请确保已经:

3) 使用curl调用DeepSeek API

curl 是一种常用的命令行工具,用于向服务器发送 HTTP 请求。使用 curl 调用 DeepSeek API 的示例如下:
curl https://api.********.com/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <DeepSeek API Key>" \
  -d '{
      "model": "deepseek-chat",
      "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
      ],
      "stream": false
    }'
在以上命令中,需要将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。

4) 使用Python SDK调用DeepSeek API

使用 Python 调用 DeepSeek API,可以通过安装 OpenAI 的 Python SDK 实现,因为 DeepSeek API 与 OpenAI API 兼容。调用示例如下:
Python
from openai import OpenAI

# 初始化OpenAI客户端,这里使用DeepSeek的API Key和指定的base_url
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.********.com")

# 调用chat completions接口,使用deepseek - chat模型,传入system和user的prompt信息
response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Hello"},
    ],
    stream=False
)

# 打印返回结果中choices里第一条的message内容
print(response.choices[0].message.content)
在使用前,需要执行 pip install openai 命令安装 OpenAI SDK,并将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。

5) 使用Node.js SDK调用DeepSeek API

使用 Node.js 调用 DeepSeek API,同样可以通过安装 OpenAI 的 Node.js SDK 实现。调用示例如下:
import OpenAI from "openai";

const openai = new OpenAI({
    baseURL: "https://api.********.com",
    apiKey: "<DeepSeek API Key>",
});

async function main() {
    const completion = await openai.chat.completions.create({
        messages: [{ role: "system", content: "You are a helpful assistant." }],
        model: "deepseek-chat",
    });

    console.log(completion.choices[0].message.content);
}

main();
在使用前,需要执行 npm install openai 命令安装 OpenAI SDK,并将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。

相关文章