两种免费使用DeepSeek的方式,不需要再去官网排队了,中国开源必胜!

这段时间DeepSeek确实是太火了。


但说实在的,火有火的道理,确实是好用。


那么问题来了,铺天盖地的DeepSeek推荐,我过年回家,村里的大妈都用上了,DeepSeek官方的算力严重不足。


每次我打开DeepSeek官网想用一下,问第一个问题还能回答,第二个问题就用不了了,不知道你们有没有遇到。



无情的提示我服务器繁忙。


官方的API也是直接用不了,后来API权限都不往外放了。


好在DeepSeek是开源的,所以也能有别的渠道可以使用。


今天给大家推荐两种免费的使用方式。


一个是用4090显卡自己部署DeepSeek R1模型,项目是开源的。



另一个是直接用问小白,现在是免费放量给大家使用。



有硬件条件想自己尝试动手部署的可以试下第一种,不想麻烦或者新手小白直接无脑选择问小白就可以了。


一、通过KTransformers本地部署


KTransformers主要解决的是优化了LLM的推理,就像DeepSeek R1,本来要8张H100才能推的动,现在只需要一张4090显卡就可以了。


下面这是需要的硬件配置。


显存占用:仅需 14GB VRAM(显存)。


内存占用:需要 382GB DRAM(内存)。


想自己跑起来,只有4090的显卡其实还不行,还得有512G的运行内存。


如果这些条件都满足的话,那你可以试着玩一玩了。


为什么只要4090就能推得动DeepSeek R1?


1. 模型量化技术


KTransformers 支持多种量化格式,通过对模型进行量化,可以显著减少模型参数存储所需的显存空间。


2. 专家卸载和选择策略


  • 专家计算卸载:这种策略与 DeepSeek 的架构完美对齐,能够在有限的显存条件下实现最佳效率。


  • 选择性专家激活:根据离线配置文件的结果,KTransformers 可以选择更少的专家进行计算。


3. 多 GPU 支持与并行计算


项目链接


https://github.com/kvcache-ai/ktransformers


但是讲实在的,想完全部署好也挺麻烦的,前几天看到群友推荐了一个平台叫问小白,就一直在用,今天恰好也推荐给大家。


二、通过问小白直接使用



整个的使用页面可以说是跟官方版本的一模一样,非常的简洁。


大家最关心的一点我猜到了,它是免费的,所以我也在用。


这个月直接没续费GPT的订阅。


但也有不同的地方,它回答的真的太快了,不需要在那排队等。


至于联网搜索功能,大家也不用担心没有,而且还做的很好。


今天攻略了一下,问小白在帮用户做高质量信息获取方面非常专业,所以积累了非常多的联网搜索经验,搜索极速、丰富、精准,技术架构也非常的成熟稳定。


自己部署的话可能要搭搜索系统,直接用的话就省了这一步了。


市面上其实最近很多家都接了DeepSeek,我感觉大家也用的迷迷糊糊的。


就像微信灰度测试的,把微信里接入了DeepSeek,我试了好多次,就是不回答。


问小白体验下来,给我的感觉就是“快”!


其他软件相当一部分算力不足,导致直接不回答,还有一部分就回答的很慢,要四五秒甚至十几秒才会出来第一个token,而问小白只需要1-2秒就会开始输出了。


问小白本身就有自研MOE大模型优势,2023年的时候就在国内率先使用了MOE模型架构,所以也对DeepSeek的MOE模型非常熟悉,这也使得问小白能在这一波对决中胜出。


问小白给我的另一个感觉是实在。


免费给大家用已经很好了,但是很多营销号一直在讲DeepSeek到底怎么用才更好,只有问小白告诉我:


“对复杂提示词说NO!只需简单表达,R1比你更懂你想要的。”


确实是这样,这也是我想给大家讲的。


用DeepSeek跟用GPT是一样的,只要模型够强,提示词其实并不需要那么复杂。


我们平时写复杂的提示词是为了固定输出格式,其实咱们平时用的时候根本没必要到处去学提示词。


大道至简,想用好DeepSeek,写提示词的秘诀就是把问题描述清楚。



肯定有人不喜欢用网页,或者想外出不带电脑的时候也在手机使用。


问小白的APP也上线了,大家也可以直接在应用商店去下载使用,页面也是同样的简洁,速度也是依旧的快。


网页版使用链接


https://www.wenxiaobai.com/


如果你还不知道怎么用DeepSeek,或者想跟大家交流下如何使用,可以加一下问小白的官方群聊。


(文:开源AI项目落地)

发表评论