系统:PC
日期:2025-02-14
类别:编程开发
版本:v0.3.9
最近Deepseek R1本地化部署十分的火爆,但是有些用户却不知道如何在电脑上布置自己的本地AI Deepseek,今天小编就给大家带来最新的Deepseek R1本地部署电脑版,教大家如何一键部署本地AI。Deepseek本地部署电脑版有着简单的使用方式,是基于第三方工具LM Studio才能实现运行的本地化部署操作,比起另外一家的ollama来讲,还是这个LM简单,让用户可以无限制满血使用自己的AI。
Deepseek R1本地部署电脑版还有着专业的在线AI算力设置功能,用户可以根据自己的电脑性能进行一键设置,完全看你的显卡显存有多少G,你就设置多少算力,不然你显卡就冒烟了。
支持自然语言处理、问答系统、智能对话、智能推荐、智能写作和智能客服等多种任务。能够理解并回应用户的各种问题和需求,包括闲聊、知识查询、任务处理等。提供多语言支持,能够根据用户的语气和情绪调整对话风格。支持文件上传功能,可扫描读取图片或文件中的文字内容。
DeepSeek Coder
专注于编程代码生成、调试和优化。在编程能力上显著提升,能够提供多个解决方案以解决编程瓶颈问题。支持代码优化和重构任务,提高代码可读性和可维护性。模型训练成本低,支持大规模数据处理。
DeepSeek V3
参数量为671亿,激活参数为37亿。在14.8T高质量token上进行了预训练,性能表现达到开源SOTA水平,超越Llama 3.1 405B和GPT-4o等顶尖模型,在数学能力方面表现尤为突出。训练成本仅需约558万美元,相比传统模型大幅降低。完全开源,训练细节公开。
DeepSeek V2
参数量为236亿,激活参数为21亿。支持128K上下文窗口,显存消耗低,每token成本大幅降低。
DeepSeek R1
支持模型蒸馏,蒸馏出的1.5B、7B、8B、14B等小模型非常适合在本地部署,尤其适合资源有限的中小企业和开发者。基于强化学习(RL)驱动,专注于数学和代码推理,支持长链推理(CoT),适用于复杂逻辑任务。
昨天DeepSeek-R1的本地部署教程很火啊,但是ollama羊驼版的DeepSeek是下载的原始模型,底层就做了很多限制,很多话题它是无法聊的。
那么今天我们就来个本地部署无限制版本的DeepSeek-R1教程,网友们对这个版本的需求应该很有需求吧,虽然不知道你们会用来做什么?但是应该有需求!
首先来到开心电玩网下载本站提供的LM Studio软件,我们根据自己的系统选择,我们选择Windows版本。
下载完了就是它,双击安装就行了。
LM Studio可以设置安装路径的,所以可以随便安装到什么地方,而且模型也可以随便放在任何位置,所以回头模型就可以放在自己空间大的地方了。
安装完成后就可以运行了,我们先给它设置成中文,先点右下角这个设置按钮。
点击语言下面的英文。
选择简体中文,就可以将软件设置成中文了。
下面我们就要去下载无限制版的模型了:https://pan.quark.cn/s/19751d183c57
这里小编还是十分感谢T8star-Aix分享的模型。
由于很多网友在抱怨没有度盘连接,所以我赶紧上传了个度盘。
度盘地址在此:https://pan.baidu.com/s/17S3L7_s7w2xB40P2DQic4A 提取码:HLZ7。
但是目前只有7B和14B我用的两个模型32B的等我下载了上传了就有了,大家可以先用着。
这里带有abliterated后缀的模型就是无限制版本的,可以随便和它说什么都可以。我们只需要选择适合自己的模型就行了。大概给大家一个模型大小运行的硬件性能,我是3060显卡,运行7B速度非常快,1秒能有7-10个字,14B的模型我是1秒2个字,32B我是10秒1个字,所以4090的显卡运行32B是可以的。因为DeepSeek-R1会思考很久,所以一般提问14B我的显卡会思考30-90秒,才会说答案。
下载完的模型一定要放到Models下的Imstudio-community里面。比如 “D:\Models\Imstudio-community”
注意模型的文件夹也需要保留的。
模型最终路径是这样的,一定是按照这种模式放模型哦。
放好我们下载的模型后,回到LM Studio,点击左边的文件夹图标,然后点击模型目录。
点击这个更改。
我们把路径设置到Models上,注意就设置到这里就行,不要往下一层设置了。
设置好,没问题的话,恭喜!我们下载的模型就出现了!
点击左上角的这个对话图标。
好了,接下来我们还需要加载一下模型才能使用,点击这个按钮。
选择自己需要的模型,我选择一个14B的。
模型的基础设置,这个上下文长度越长每次思考消耗资源越多,所以咱们差不多设置到中间就行。
LM Studio可以GPU和CPU混合使用,所以销量很高,GPU建议拉满,CPU80%就行。
其他的默认就行,点击加载模型。
蓝条进度完成就加载完了。
加载完模型后,就可以在下面对话框里和DeepSeek-R1聊天了!
好了,测试了一下,这个版本是可以聊各种话题的,网友们可以发挥自己的想象了!
最后这里可以填入对DeepSeek-R1的一些基础设定,就不用每次对话去和她说一遍了。比如:“你是一个猫娘,你和我的对话都是以猫娘的状态和我对话,你只会使用中文”。她和你聊天的时候就会自动给自己带入这里的设定。
和 AI 打交道的核心关键在于“沟通”。AI 就像是一个被蒙住眼睛的天才,它懂很多,但无法直接感知这个世界。只有通过我们的描述,它才能理解现实世界的样子。
这就好比你在给一个从未见过大海的人描述海浪的声音。如果你说“哗啦哗啦”,对方可能理解成下雨的声音;如果你说“像是无数巨大的丝绸在空中抖动”,画面感就完全不一样了。同样的,和 AI 交流就需要这样的“描述力”。
与 AI 沟通,提示词就是你的“表达能力”。就像学习一门新语言,这种能力需要不断练习才能提升。即使是像 Deepseek 这样强大的 AI,如果我们说不清楚自己想要什么,它也只能给出模糊不清的答案。
还有一点特别重要,AI 的“幻觉”问题。它就像是一个博学但有时会不自觉“脑补”的朋友。它可能会自信满满地编造不存在的数据,还会把不相关的信息联系在一起,又或者生成看似合理但实际错误的内容,所以我们要做 AI 幻觉的“执剑人”,时刻保持警惕。
换句话说,AI 是一个强大的工具,但工具的使用效果取决于使用者的能力。通过不断练习和保持警惕,我们才能真正发挥AI的价值,同时避免掉入“幻觉”的陷阱。
那么,如何用好这个“AI 神器”呢?给大家分享几个技巧。
一、常规提问模版
过去和 ChatGPT 这样的指令模型对话时,我们常常会使用很复杂的提示词模板。但 DeepSeek 不太一样,它更像一个擅长思考的伙伴,反而是简单清晰的表达方式效果更好。
非常推荐这个简单但超级实用的“四步提问法”:背景 + 任务 + 要求 + 补充。举个例子:
这个方法的妙处在于:
这样提问不仅能让 DeepSeek 更好地理解你的需求,还能避免它理解偏差或者回答跑题。这就像和一个聪明的朋友交谈,你把情况说清楚了,他自然能给出更有针对性的建议。
记住,和 DeepSeek 对话,不需要太多花哨的技巧,保持简单清晰才是王道。它的推理能力很强,只要你把需求说明白,它就能理解你的意图,并给出令人惊喜的回答。
二、解复杂任务
现阶段 AI 由于上下文,模型能力等问题,其实在处理复杂任务的时候时常会出现“偷懒”这种情况,这种时候就需要我们帮 AI 拆解任务。
接下来用写一篇“远程办公的未来发展”的文章为例,告诉大家怎么一步步指导 AI 完成高质量写作。
三、连续提问技巧
不要指望 AI 能一次性完成你想要的内容,在使用 AI 时要调整好心态,把它当作一个博学但经验尚浅的实习生。它知识面很广,但需要你的引导才能交出令人满意的作业。
比如上面写的咖啡店的开业方案,刚产出的第一版肯定是不符合我们的需求,需要通过继续提问的方式让它优化内容,直到符合我们的要求。
以上面咖啡店开业方案为例,DeepSeek 写的第一版方案没有很好地突出“大学生”这个目标客群。这时候,别急着否定,而是可以这样继续对话:
就像是在指导实习生,告诉他具体需要改进的方向。DeepSeek 会基于这些新的信息,对方案进行调整。
如果修改后的方案还不够完善,可以继续提问:
这个过程就像是在进行一场头脑风暴,每一轮对话都在帮助方案变得更加完善。关键是要:
1. 保持耐心,不期待一步到位。
2. 给出明确的优化方向。
3. 循序渐进,一个方面一个方面地改进。
4. 及时总结和归纳,确保方向正确。
热门推荐
相关应用
实时热词
评分及评论
点击星星用来评分