专栏名称: warfalcon
想每年读完100本书吗?想在100天内培养一个好习惯吗?想搞定拖延和注意力不集中吗?关注我,让你成为一个行动者,跟几十万读者一起成长,欢迎参加100天行动。
目录
相关文章推荐
来去之间  ·  转发微博-20250612200737 ·  22 小时前  
正和岛  ·  1467亿,“恐怖”的王宁 ·  2 天前  
罗辑思维  ·  有些时候,你应该拒绝“拉个群” ·  2 天前  
51好读  ›  专栏  ›  warfalcon

在当前DeepSeek 或 AI大模型建立本地知识库的实用性

warfalcon  · 公众号  · 热门自媒体  · 2025-02-23 23:58

主要观点总结

文章主要讨论了关于DeepSeek大模型建立本地知识库的实际情况及建议。文章指出,虽然目前有很多关于此主题的视频和文章受到关注,但实际上它的实用价值有限。关于DeepSeek的不同版本模型的选择要根据个人电脑配置来决定,而且要注意官网的模型是经过训练和调教的满配模型。同时,文章还提到了一些替代方案和建议。

关键观点总结

关键观点1: DeepSeek大模型的实用价值有限。

尽管有很多关于DeepSeek或使用大模型建立本地知识库的视频和文章受到关注,但到目前为止,它的实用价值有限。

关键观点2: DeepSeek版本推荐及电脑配置要求。

对于DeepSeek的不同版本(如R1、V3等),文章给出了推荐,并强调了电脑配置的重要性。特别是安装大模型需要高性能的电脑,而个人电脑很难满足其需求。

关键观点3: 替代方案和建议。

文章提到了一些替代方案,如使用Cursor + Obsidian、OpenAI、Anthropic等,还提到了线上知识库的选项,如知乎直答和IMA等。对于纯粹做研究的情况,可以自己租云主机并训练专有的大模型。

关键观点4: 模型的实用性和未来发展。

文章认为AI+本地知识库还需要进一步的发展,可能需要几个月或一年左右的时间才能更具实用性。


正文

请到「今天看啥」查看全文




个人电脑可以根据配置来进行选择,1.5B太小,可以从 7B开始试,要是电脑配置高一些推荐14或者34b,而这样的电脑基本上要 2、3万的配制才行,要是想安装满配的模型要6-8万,正常家用的电脑要是一万左右的电脑就是安装完了,响应的速度也非常慢。要是用Mac 最好也是16G或24G内存的机器, 8G就不要考虑了。

而且 7B的模型,容量有限,下载的DeepSeek 7B的模型,跟官网的是天差地别,完全不一样,14B能好用一些,32B更好,但配置要求高。注意官网是训练完数据并经常调教后的满配模型 。当前本地目前只支持 MD、txt ,字数也有限制,太大也不行、视频和图片都不支持,基本上没有任何的实用性。





请到「今天看啥」查看全文