发布于 

GTX 1650 运行 DeepSeek-R1:14b

前言

我又来压榨我的 GTX 1650 了。

之前写了一篇文章 GTX 1650 运行 Stable Diffusion,已经闻到显卡的香味了~

记录了我在本地部署 Stable Diffusion 的过程。

这次我准备尝试部署 DeepSeek-R1。

先说结论:Ollama 跑 8b 模型就很勉强了,14b 我没尝试,但是大概率不行;LM Studio 可以跑 14b 的 Q3 量化版,但是速度很慢,大约只有 2.3 tokens/s。

Ollama

之前在网上搜索过本地部署大模型相关的资料,大部分都是推荐 Ollama,这个比较简单方便,所以我也是安装 Ollama 来部署。

安装 Ollama 这个没什么好说的,直接去官网 https://ollama.com/ 下载安装包安装即可。

但是有两点值得提一下。

1. Ollama 默认会安装到 C 盘。

如果要安装到其他盘,可以使用命令的方式安装,例如:

1
OllamaSetup.exe /DIR=E:\Ollama

这样即可将 Ollama 装到 E 盘。


2. Ollama 的模型默认也会下载到 C 盘

可以通过设置环境变量的方式解决,添加环境变量 OLLAMA_MODELS ,值例如为 E:\Ollama\models

添加完环境变量还需重启 Ollama。

这样下载模型的时候,模型文件就会保存到 E:\Ollama\models 下了。


安装完成,就可以运行了,直接通过命令来运行模型。

运作 1.5b 模型。其中 --verbose 表示输出详细日志,加上这个就能看到大模型回复的速度等相关数据了。

1
ollama run deepseek-r1:1.5b --verbose

首次运行需要下载模型文件,后续就可以直接运行了。

提问:帮我写一份 Java 程序员简历

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
<think>                                       
好的,我现在要帮用户写一份Java程序员的简历。首先,我得考虑用户的需求是什么,他们可能需要
来吸引潜在雇主的注意。

用户是Java程序员,所以我的简历应该突出他们的技术能力、项目经验以及与Java相关的技能。
部分的主要内容。

第一部分通常是个人信息,包括姓名、年龄、联系方式、学校等。这部分信息需要简洁明了,方便填写。
的 studied subject,比如计算机科学或软件工程,以及我在该领域获得的信息,比如

技术能力方面,我应该列出主要的Java技能,比如Java开发、Web开发、UI/UX设计等,
用户的实际操作能力和项目的成果。

软技能也很重要,包括沟通能力、团队合作精神、责任心以及解决问题的能力。这些是与候选人建立良好

教育背景部分,如果有的话,应该简要列出大学或专业信息和学历。如果需要,还可以添加奖学金或其他

工作经历部分,需要详细描述每家公司的工作职责和贡献。这部分可以按照时间顺序来组织,用具体项目

技能方面,列出相关的编程语言(如Java、Python),以及所掌握的工具和工具链(如Git
,可以适当提及相关经验。

兴趣爱好部分,可以描述一些对工作的热爱,比如设计、艺术或者阅读。这有助于展示个人的全面发展。

最后,联系方式,包括手机号和邮箱,方便用户在求职时联系。

我还需要考虑用户的特殊需求,比如他们是否需要更详细的项目经验或具体的技术细节,如果有的话,可
同时,确保语言简洁专业,突出突出重点技能,避免冗长的内容。

总结一下,我需要用清晰的结构、具体的例子和合适的描述,让简历看起来专业且有竞争力。用户可能希
能力,还能展示他们的实际工作能力和与公司建立的良好关系。
</think>

以下是一份适合Java程序员的简历模板,您可以根据自己的实际情况进行修改和完善:

---

**[您的姓名]**
[您的地址] | [联系电话] (可选)

**[学校名称]**
[专业名称] 2023级 | 硕士/学士(如果 applicable) | 杂志/学会会员(

**工作经历:**

**[公司名称]**
[部门/职位] - [年份] – [ year ]
- 持有Java开发经验,负责多个大型项目开发。
- [具体项目描述]
- 创新设计的跨平台应用(如移动、PC),使用Java进行开发和优化。
- 编写高质量文档并参与用户界面设计,确保用户体验。
- 负责团队内部的代码审查和测试,提升产品质量。

**[公司名称]**
[部门/职位] - [年份] – [ year ]
- 在Java项目中负责需求分析、编码优化和文档编写,协助开发团队高效工作。
- 协助领导开发一个在线教育平台的课程管理系统(如LMS)。
- 负责数据库设计与实施,确保数据安全和性能。

**[公司名称]**
[部门/职位] - [年份] – [ year ]
- 编写Java代码,并参与团队技术文档编写。
- 优化一个大型软件系统的性能,提高运行时间。
- 协助开发一个API,增加跨平台服务的访问方式。

**[公司名称]**
[部门/职位] - [年份] – [ year ]
- 负责一次性开发项目,例如游戏引擎或数据可视化工具。
- 提供详细的代码说明和文档,确保团队理解和维护。
- 主导一个小型技术挑战(如UI设计比赛),提升个人专业能力。

**[公司名称]**
[部门/职位] - [年份] – [ year ]
- 负责Java社区的开发,参与编写技术文档。
- 协助开发一个开源项目,提高代码的质量和可用性。

**教育背景:**

**[学校名称]**
[专业名称] 2018级 | 硕士/学士(if applicable) | 杂志/学会会员(

**学术研究与项目经验:**

- 指导并参与多个Java项目,负责需求分析和编码优化。
- 在项目中编写高质量的文档,并参与用户界面设计。
- 协助开发一个功能强大的应用,提升了团队效率。

---

**技能:**

1. **Java**:熟练掌握Java语言,具备良好的代码质量和最佳实践意识。
2. **Python**:熟悉Python语言,擅长数据处理和数据分析。
3. **JavaScript**:熟悉JavaScript技术,参与过大规模项目开发。
4. **Git**:熟悉版本控制工具,并能快速管理代码 repository。
5. **Spring/Java Spring**:了解Spring框架,并熟练使用它进行团
6. **Docker**:具备一定的 Docker 设备能力,用于构建和部署大型应用。

---

**兴趣爱好:**

- 工作之余热爱设计与艺术,曾参与过多个摄影比赛和设计挑战。
- 喜欢阅读科技类书籍并关注编程社区,如Stack Overflow和GitHub。
- 热爱团队合作,并愿意在团队中发挥更大作用。

---

**其他信息:**

- 有无相关经验?(可填写)
- 是否有其他技能或经验需要补充?(可填写)

希望这份简历能够帮助您更好地展示自己!如果需要进一步修改,请随时告诉我。

total duration: 22.7617889s
load duration: 19.7262ms
prompt eval count: 13 token(s)
prompt eval duration: 1.54s
prompt eval rate: 8.44 tokens/s
eval count: 1246 token(s)
eval duration: 21.199s
eval rate: 58.78 tokens/s

轻松运行,完全没有压力,性能更是达到了 58.78 tokens/s。

好,接下来上强度,直接运行 7b 模型。

感觉比较吃力,光是加载模型,就花了一两分钟。

输出的内容部分就不看了,我们直接看性能部分。

1
2
3
4
5
6
7
8
total duration:       3m20.2989514s
load duration: 19.3102ms
prompt eval count: 13 token(s)
prompt eval duration: 4.504s
prompt eval rate: 2.89 tokens/s
eval count: 1017 token(s)
eval duration: 3m15.773s
eval rate: 5.19 tokens/s

大约在 5.19 tokens/s,勉强能用一用。

在运行过程中发现,CPU 是占满的,而 GPU 却只有很少的占用。

接着再试一下 8b 模型。

1
2
3
4
5
6
7
8
total duration:       4m52.3488857s
load duration: 24.2382ms
prompt eval count: 14 token(s)
prompt eval duration: 3.628s
prompt eval rate: 3.86 tokens/s
eval count: 1469 token(s)
eval duration: 4m48.694s
eval rate: 5.09 tokens/s

和 7b 模型似乎相差不大,但是输出的内容多一些,所以总体花的时间长一些。

而且 GPU 一样占用很少。

说明几乎都是 CPU 在跑的?

打算尝试 14b 模型的,但是看到 9GB 大小的模型文件,以及现在的情况,我想想还是算了。

我在网上搜了一下,似乎挺多人都是这种情况——GPU 占用很少。于是我也参考网上的办法进行解决,比如添加环境变量、或者重装 Ollama,可惜的是都没有效果。

后来看到有网友说用 LM Studio 就不会有这种情况,于是我打算用 LM Studio 尝试一下。

顺便试一下用 LM Studio 的话,能否运行 14b 的模型。

LM Studio

安装 LM Studio 同样很简单,直接去官网 https://lmstudio.ai/ 下载安装即可。

打开 LM Studio,下载模型。软件内可以直接搜索下载 Hugging Face 上的模型,但是注意需要魔法。

这里我直接跑 7b 模型了,懒得再试 1.5b 模型了。

还是一样,用刚才的问题:帮我写一份 Java 程序员简历

这里我打开了任务管理器,查看占用,发现 GPU 还是一样占用很少。

后面搜了一下才知道,是要设置一下 GPU 卸载。

直接将 GPU 卸载拉满,再次运行,这次发现 GPU 直接占满了!

输出性能也是达到了 7.89 tokens/s,比 Ollama 快一些。

然后 8b 模型的话想来应该也差不多,我也就略过,没有尝试了。

接下来就是尝试 14b 模型了,我在 LM Studio 里搜索到了 deepseek-r1-distill-qwen-14b,其中有 Q3 量化版,模型大小为 7.92G,我觉得这个或许可以尝试一下。

下载模型,运行测试。

虽然非常非常慢,才 2.31 tokens/s,但是居然真的跑得动!

总结

我的电脑配置:

CPUGPU内存
I7-9750HGTX 1650(4G)16G

Ollama 运行 DeepSeek :

模型名称模型文件大小性能
deepseek-r1:1.5b1.1 GB58.78 tokens/s
deepseek-r1:7b4.7 GB5.19 tokens/s
deepseek-r1:8b4.9 GB5.09 tokens/s

LM Studio 运行 DeepSeek :

模型名称模型文件大小性能
deepseek-r1-distill-qwen-7b4.68 GB7.89 tokens/s
deepseek-r1-distill-qwen-14b7.92 GB2.31 tokens/s