程序员的知识教程库

网站首页 > 教程分享 正文

零基础在Windows笔记本运行DeepSeek教程

henian88 2025-05-08 18:32:17 教程分享 1 ℃ 0 评论

前期准备

1 硬件检查

查看显存:右键桌面 → 打开NVIDIA控制面板 → 系统信息

最低配置:

GPU版:NVIDIA显卡(6G以上显存)

CPU版:16G内存+SSD硬盘

集显笔记本显存查看方式:

  1. 右键点击任务栏 → 选择 任务管理器。
  2. 切换到 性能 选项卡。
  3. 在左侧找到 GPU 选项(可能会显示为“GPU 0”或“Intel UHD Graphics”等)。
  4. 查看右侧的 专用 GPU 内存 或 共享 GPU 内存:
  5. 专用 GPU 内存:集显的固定显存(通常较小,如128MB或256MB)。
  6. 共享 GPU 内存:系统内存中分配给集显使用的部分(动态调整,通常较大)。




2 安装基础软件

Python 3.8-3.10:官网下载「链接」 → 安装时务必勾选"Add to PATH"

Git:下载地址Git → 全部默认安装

Visual Studio生成工具:微软官网搜索"Build Tools for Visual Studio"安装C++开发环境

部署流程(GPU版)

步骤1:获取模型文件

# 打开CMD或PowerShell执行
git clone https://github.com/deepseek-ai/DeepSeek-LLM.git
cd DeepSeek-LLM

步骤2:安装依赖

# 创建虚拟环境(防止包冲突)
python -m venv deepseek_env
.\deepseek_env\Scripts\activate

# 安装核心组件(需等待10-30分钟)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txt

步骤3:模型下载

从HuggingFace下载模型文件(需注册):

访问
https://huggingface.co/deepseek-ai

找到deepseek-llm-7b-chat → 下载全部文件到./models文件夹

步骤4:创建启动脚本
新建run.py文件,粘贴以下内容:

from transformers import AutoTokenizer, AutoModelForCausalLM
model_path = "./models/deepseek-llm-7b-chat"

tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path).cuda()

while True:
    prompt = input("请输入问题:")
    inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
    outputs = model.generate(**inputs, max_new_tokens=100)
    print(tokenizer.decode(outputs[0], skip_special_tokens=True))

步骤5:运行模型

python run.py

CPU版特别说明

修改run.py第4行为:

model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto")

2.安装CPU优化库:

pip install accelerate

常见问题解决

CUDA内存不足:尝试减小max_new_tokens数值(改为50)

DLL加载错误:更新NVIDIA驱动 → 到官网下载最新Game Ready驱动

中文乱码:在脚本开头添加# -*- coding: utf-8 -*-

下载缓慢:使用国内镜像源:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple 包名

进阶技巧

使用量化版模型(如4bit)可降低显存需求

搭配text-generation-webui可创建可视化界面

使用--load-in-8bit参数优化内存占用

注意事项:

首次运行会自动下载分词器等组件(约需5分钟)

7B模型文件约需15GB存储空间

建议关闭杀毒软件实时防护以免误拦截

如需其他版本(如1B/65B)部署方法,可在评论区留言说明你的显卡型号和内存容量~

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表