deepseek本地部署(教程),告别“服务器繁忙”、提高信息隐私与安全

🛠️ 部署前准备

开始之前,请确保你的电脑满足以下基本要求。

 
 
组件 最低配置 推荐配置
GPU NVIDIA RTX 3060 (12GB)  NVIDIA A100 (40GB+) 
内存 16 GB  32 GB 或以上 
存储 50 GB 可用空间  500 GB NVMe SSD 
操作系统 Windows 10 / 11, 或 Ubuntu 20.04+  Ubuntu 22.04 LTS 

重要提示

📦 方案A:使用 Ollama(推荐新手)

Ollama 能帮你省去复杂的环境配置,非常适合快速入门和体验。

1. 安装 Ollama
根据你的操作系统,访问 Ollama 官网下载并安装程序。

安装完成后,打开终端输入 ollama --version,如果显示版本号则说明安装成功。

2. 拉取并运行模型
在终端中执行以下命令,Ollama 会自动完成模型的下载和运行。

bash
ollama run deepseek-llm:7b
[citation:1]

这里的 deepseek-llm:7b 是模型名称,你也可以根据需要替换为 deepseek-coder:7b(专为编程优化)等其他版本。

安装可视化界面(可选)
如果你不习惯在终端里对话,可以安装 Chatbox 这类图形化客户端。

  1. 从 Chatbox 官网下载并安装。

  2. 打开设置,将 API 类型 设置为 Ollama API模型名称 填写为 deepseek-llm:7b

  3. 点击"检查连接",状态正常后即可开始使用。

💻 方案B:使用 Python 代码

这种方式灵活性更高,适合需要将模型集成到自己项目中的开发者。

1. 创建 Python 环境
建议使用 Conda 创建一个独立的虚拟环境,以避免依赖包冲突。

bash
conda create -n deepseek python=3.10
conda activate deepseek
[citation:2]

2. 安装依赖框架
主要需要安装 PyTorch 和 Transformers 库。请根据你的 CUDA 版本,从 PyTorch 官网获取对应的安装命令。

bash
# 以 CUDA 11.8 为例
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
[citation:2]

同时安装 Hugging Face 的 Transformers 库:

bash
pip install transformers
[citation:2]

3. 下载模型并编写代码
你可以直接从 Hugging Face 模型库下载 DeepSeek 的模型权重。

bash
git lfs install
git clone https://huggingface.co/deepseek-ai/deepseek-llm-7b
[citation:2]

然后,创建一个 Python 文件(例如 demo.py),写入以下代码来加载模型并进行推理:

python
from transformers import AutoModelForCausalLM, AutoTokenizer

# 加载你下载的模型和分词器
model = AutoModelForCausalLM.from_pretrained("./deepseek-llm-7b")
tokenizer = AutoTokenizer.from_pretrained("./deepseek-llm-7b")

# 对输入文本进行编码
input_text = "你好,请介绍一下你自己。"
inputs = tokenizer(input_text, return_tensors="pt")

# 生成回答
outputs = model.generate(**inputs, max_length=200)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(response)
[citation:2]

运行这个 Python 脚本,你就可以看到模型的回复了。

🔧 常见问题与解决

部署过程中你可能会遇到以下问题,这里有一些解决方法:

💡 进阶技巧

当模型成功运行起来后,你还可以尝试以下操作来提升体验: