DeepSeek本地部署教程(非常全面)
如果需要长期使用 DeepSeek,则建议本地部署 DeepSeek,好处如下:
下面讲解一种简单、便捷的本地部署 DeepSeek 的具体做法。
注意,如果电脑配置更高,则可以尝试部署 DeepSeek 的其他版本。
DeepSeek-R1-1.5B 适用于一些轻量级的任务,举例如下:
笔者部署 DeepSeek-R1-1.5B 时的硬件配置如下:
通过浏览器访问 Ollama 官网,如下图所示,单击 Ollama 官网首页的 Download 按钮,下载 Ollama。

图 1 下载Ollama
下载完成后,双击 OllamaSetup.exe 进行安装,直到安装完成即可。
因为接下来会用到命令行,所以先讲解不同操作系统中命令行的打开方式:
打开命令行,在命令行中执行 ollama -v 命令(在命令行中先输入命令,再按回车键,即可执行命令),出现下图中箭头所示的版本号,即可说明 Ollama 安装成功。

图 2 Ollama安装成功

图 3 在 Ollama 的模型库中下载 DeepSeek-R1-1.5B
下载完成后,在命令行中执行 ollama run deepseek-r1:1.5b 命令,运行 DeepSeek-R1-1.5B。如下图所示,整个过程很快,几分钟后看到“success”字样,就可以使用 DeepSeek-R1-1.5B 了。

图 4 运行 DeepSeek-R1-1.5B
DeepSeek API 采用了与 OpenAI API 完全兼容的格式。只需在支持 OpenAI API 的客户端和 SDK 中简单调整配置参数,就能通过 OpenAI SDK 或任何支持 OpenAI API 的软件轻松接入 DeepSeek API。
提示,DeepSeek V3 是一款通用的大规模语言模型,采用了混合专家架构,侧重于高效文本生成和多语种对话;DeepSeek R1 则在 DeepSeek V3 的基础上,通过强化学习等方法进一步优化了推理能力,擅长处理数学、代码和逻辑推理任务。

图 5 获取DeepSeek API key
token 是文本处理的最小单位,可以是单个字、单词或部分单词,DeepSeek 及其他 AI 模型通过这些 token 来理解和生成语言。
单击图 5 所示界面左侧的“API keys”菜单项,将显示“API keys”管理界面,在该界面单击“创建 API key”按钮,输入 API key 的名称,如图 6 所示。

图 6 创建 API key
出于安全方面的原因,API key 仅在创建时可见、可复制,并且需要立即将其保存(仅显示一次),之后将无法通过“API keys”管理界面再次查看它。如果丢失了它,则需要重新创建。
注意,不要与他人共享你的 API key,也不要将其暴露在浏览器或其他客户端代码中,DeepSeek 可能会自动禁用已发现的公开泄露的 API key。
接下来就可以正式调用 DeepSeek API 了。在调用 DeepSeek API 前,请确保已经:
- 数据安全:能确保所有的数据处理和存储操作都在自己的服务器或设备上进行,减少了数据外泄的风险,特别适合处理敏感信息;
- 定制化:可以根据自身需求对系统进行深度定制和优化,以满足特定的业务场景或技术要求;
- 性能优化:可以更好地控制硬件资源,根据实际需求进行性能调优,确保系统运行效率;
- 离线可用:不依赖外部网络连接,在没有互联网的情况下也能正常运行,适合网络不稳定或需要高可用性的环境;
- 合规性:可以达到某些行业或地区对数据存储和处理的合规要求;
- 长期成本控制:虽然初期部署成本较高,但从长期来看,本地部署 DeepSeek 比持续订阅云服务更经济,尤其适用于大规模应用场景。
下面讲解一种简单、便捷的本地部署 DeepSeek 的具体做法。
部署DeepSeek-R1-1.5B
DeepSeek-R1-1.5B 适用于轻量级任务,是 DeepSeek 目前开源的最小版本,参数量只有 15亿,只需 3GB 的显存就能运行。而且,DeepSeek-R1-1.5B 在数学推理方面表现出色,甚至在某些基准测试中超过了 GPT-4o 和 Claude 3.5。注意,如果电脑配置更高,则可以尝试部署 DeepSeek 的其他版本。
DeepSeek-R1-1.5B 适用于一些轻量级的任务,举例如下:
- 智能客服:在小型企业或者个人项目中可以快速回答一些常见问题;
- 语言学习:可以使用 DeepSeek-R1-1.5B 提高语言学习能力,比如输入一个中文句子,让它生成英文翻译;
- 创意写作:可以快速生成一些创意片段或者文案初稿。
部署DeepSeek的不同版本对硬件的要求
下表所示为部署 DeepSeek 的不同版本对硬件的要求,我们可以结合自己的电脑配置选择部署相应的版本。版 本 | 参数量 | 显存需求(FP16) | 推荐GPU(单卡) | 多卡支持 | 量化支持 | 适用场景 |
---|---|---|---|---|---|---|
DeepSeek-R1-1.5B | 15亿 | 3GB | GTX 1650(4GB显存) | 不需要 | 支持 | 低资源设备部署(树莓派、旧款笔记本 )、实时文本生成、嵌入式系统 |
DeepSeek-R1-7B | 70亿 | 14GB | RTX 3070/4060(8GB显存) | 可选 | 支持 | 中等复杂度任务(文本摘要、翻译 )、轻量级多轮对话系统 |
DeepSeek-R1-8B | 80亿 | 16GB | RTX 4070(12GB显存) | 可选 | 支持 | 有更高精度要求的轻量级任务(代码生成、逻辑推理 ) |
DeepSeek-R1-14B | 140亿 | 32GB | RTX 4090/A5000(16GB显存) | 推荐 | 支持 | 企业级复杂任务(合同分析、报告生成 )、长文本理解与生成 |
DeepSeek-R1-32B | 320亿 | 64GB | A100 40GB(24GB显存) | 推荐 | 支持 | 高精度专业领域任务(医疗、法律咨询 )、多模态任务预处理 |
DeepSeek-R1-70B | 700亿 | 140GB | 2x A100 80GB/4x RTX 4090(多卡并行) | 必需 | 支持 | 科研机构、大型企业(金融预测、大规模数据分析 )、高复杂度生成任务 |
DeepSeek-R1-671B | 6710亿 | 512GB+(单卡显存需求极高,通常需要多节点分布式训练) | 8x A100/H100(服务器集群) | 必需 | 支持 | 国家级、超大规模AI研究(气候建模、基因组分析 ),以及AGI探索 |
笔者部署 DeepSeek-R1-1.5B 时的硬件配置如下:
- CPU:AMD Ryzen 7 5800H with Radeon Graphics 3.20GHz;
- 内存:16GB;
- 操作系统:Windows 11;
- 硬盘空间:500GB,剩余 335GB。
下载并安装Ollama
Ollama 是一个开源的轻量级框架,适用于在本地高效运行和微调大规模语言模型。Ollama 本身并不是 DeepSeek 的产品,但它支持 DeepSeek 的本地部署和优化。通过浏览器访问 Ollama 官网,如下图所示,单击 Ollama 官网首页的 Download 按钮,下载 Ollama。

图 1 下载Ollama
下载完成后,双击 OllamaSetup.exe 进行安装,直到安装完成即可。
因为接下来会用到命令行,所以先讲解不同操作系统中命令行的打开方式:
- Windows 操作系统:按 Win+R 快捷键打开“运行”窗口,输入“cmd”或“powershell”,按回车键。
- macOS 操作系统:按 Command+Space 快捷键打开 Spotlight,输入“Terminal”,按回车键。
- Linux 操作系统:按 Ctrl+Alt+T 组合键。
打开命令行,在命令行中执行 ollama -v 命令(在命令行中先输入命令,再按回车键,即可执行命令),出现下图中箭头所示的版本号,即可说明 Ollama 安装成功。

图 2 Ollama安装成功
通过Ollama下载并运行DeepSeek
安装 Ollama 后,在命令行中执行 ollama pull deepseek-r1:1.5b 命令,可在 Ollama 的模型库中下载 DeepSeek-R1-1.5B,如下图所示。下载时长取决于模型大小和网络速度。
图 3 在 Ollama 的模型库中下载 DeepSeek-R1-1.5B
下载完成后,在命令行中执行 ollama run deepseek-r1:1.5b 命令,运行 DeepSeek-R1-1.5B。如下图所示,整个过程很快,几分钟后看到“success”字样,就可以使用 DeepSeek-R1-1.5B 了。

图 4 运行 DeepSeek-R1-1.5B
如何调用DeepSeek API
如果我们是开发人员、研究人员或者技术爱好者,则知道如何调用 DeepSeek API,将有助于我们更高效地使用 DeepSeek。DeepSeek API 采用了与 OpenAI API 完全兼容的格式。只需在支持 OpenAI API 的客户端和 SDK 中简单调整配置参数,就能通过 OpenAI SDK 或任何支持 OpenAI API 的软件轻松接入 DeepSeek API。
1) DeepSeek中的主要配置参数
DeepSeek 中的主要配置参数如下:- base_url:该参数的默认值是“https://api.********.com”,为了与 OpenAI 兼容,也可以将其改为“https://api.********.com/v1”。注意:此处的 v1 与模型版本无关。
- api_key:需要申请 DeepSeek API key(即 DeepSeek API 密钥)。
- model:通过指定“model='deepseek-chat'”,即可调用 DeepSeek-V3。通过指定“model='deepseek-reasoner'”,即可调用 DeepSeek-R1。
提示,DeepSeek V3 是一款通用的大规模语言模型,采用了混合专家架构,侧重于高效文本生成和多语种对话;DeepSeek R1 则在 DeepSeek V3 的基础上,通过强化学习等方法进一步优化了推理能力,擅长处理数学、代码和逻辑推理任务。
2) 获取DeepSeek API key
在 DeepSeek 官网首页单击“API开放平台”功能入口并登录、注册,将获得一个 api_key(即 API key),如下图所示。首次注册的用户还会收到一些免费的 token 额度。
图 5 获取DeepSeek API key
token 是文本处理的最小单位,可以是单个字、单词或部分单词,DeepSeek 及其他 AI 模型通过这些 token 来理解和生成语言。
单击图 5 所示界面左侧的“API keys”菜单项,将显示“API keys”管理界面,在该界面单击“创建 API key”按钮,输入 API key 的名称,如图 6 所示。

图 6 创建 API key
出于安全方面的原因,API key 仅在创建时可见、可复制,并且需要立即将其保存(仅显示一次),之后将无法通过“API keys”管理界面再次查看它。如果丢失了它,则需要重新创建。
注意,不要与他人共享你的 API key,也不要将其暴露在浏览器或其他客户端代码中,DeepSeek 可能会自动禁用已发现的公开泄露的 API key。
接下来就可以正式调用 DeepSeek API 了。在调用 DeepSeek API 前,请确保已经:
- 申请了 DeepSeek API key;
- 安装了相应的 SDK(如需使用 Python,则需要执行 pip3 install openai 命令;如需使用 Node.js,则需要执行 npm install openai 命令);
- 样例为非流式输出,可以通过设置“stream=true”启用流式输出,流式输出适用于需要实时响应的场景;
- deepseek-chat 模型已全面升级为 DeepSeek-V3,接口保持不变,无须修改现有的代码,通过指定“model='deepseek-chat'”,即可使用 DeepSeek 的最新版本。
3) 使用curl调用DeepSeek API
curl 是一种常用的命令行工具,用于向服务器发送 HTTP 请求。使用 curl 调用 DeepSeek API 的示例如下:curl https://api.********.com/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer <DeepSeek API Key>" \ -d '{ "model": "deepseek-chat", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ], "stream": false }'在以上命令中,需要将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。
4) 使用Python SDK调用DeepSeek API
使用 Python 调用 DeepSeek API,可以通过安装 OpenAI 的 Python SDK 实现,因为 DeepSeek API 与 OpenAI API 兼容。调用示例如下:Python from openai import OpenAI # 初始化OpenAI客户端,这里使用DeepSeek的API Key和指定的base_url client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.********.com") # 调用chat completions接口,使用deepseek - chat模型,传入system和user的prompt信息 response = client.chat.completions.create( model="deepseek-chat", messages=[ {"role": "system", "content": "You are a helpful assistant"}, {"role": "user", "content": "Hello"}, ], stream=False ) # 打印返回结果中choices里第一条的message内容 print(response.choices[0].message.content)在使用前,需要执行 pip install openai 命令安装 OpenAI SDK,并将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。
5) 使用Node.js SDK调用DeepSeek API
使用 Node.js 调用 DeepSeek API,同样可以通过安装 OpenAI 的 Node.js SDK 实现。调用示例如下:import OpenAI from "openai"; const openai = new OpenAI({ baseURL: "https://api.********.com", apiKey: "<DeepSeek API Key>", }); async function main() { const completion = await openai.chat.completions.create({ messages: [{ role: "system", content: "You are a helpful assistant." }], model: "deepseek-chat", }); console.log(completion.choices[0].message.content); } main();在使用前,需要执行 npm install openai 命令安装 OpenAI SDK,并将“<DeepSeek API Key>”替换为实际的 DeepSeek API key。