主要观点总结
文章主要讨论了关于DeepSeek大模型建立本地知识库的实际情况及建议。文章指出,虽然目前有很多关于此主题的视频和文章受到关注,但实际上它的实用价值有限。关于DeepSeek的不同版本模型的选择要根据个人电脑配置来决定,而且要注意官网的模型是经过训练和调教的满配模型。同时,文章还提到了一些替代方案和建议。
关键观点总结
关键观点1: DeepSeek大模型的实用价值有限。
尽管有很多关于DeepSeek或使用大模型建立本地知识库的视频和文章受到关注,但到目前为止,它的实用价值有限。
关键观点2: DeepSeek版本推荐及电脑配置要求。
对于DeepSeek的不同版本(如R1、V3等),文章给出了推荐,并强调了电脑配置的重要性。特别是安装大模型需要高性能的电脑,而个人电脑很难满足其需求。
关键观点3: 替代方案和建议。
文章提到了一些替代方案,如使用Cursor + Obsidian、OpenAI、Anthropic等,还提到了线上知识库的选项,如知乎直答和IMA等。对于纯粹做研究的情况,可以自己租云主机并训练专有的大模型。
关键观点4: 模型的实用性和未来发展。
文章认为AI+本地知识库还需要进一步的发展,可能需要几个月或一年左右的时间才能更具实用性。
正文
个人电脑可以根据配置来进行选择,1.5B太小,可以从 7B开始试,要是电脑配置高一些推荐14或者34b,而这样的电脑基本上要 2、3万的配制才行,要是想安装满配的模型要6-8万,正常家用的电脑要是一万左右的电脑就是安装完了,响应的速度也非常慢。要是用Mac 最好也是16G或24G内存的机器, 8G就不要考虑了。
而且 7B的模型,容量有限,下载的DeepSeek 7B的模型,跟官网的是天差地别,完全不一样,14B能好用一些,32B更好,但配置要求高。注意官网是训练完数据并经常调教后的满配模型 。当前本地目前只支持 MD、txt ,字数也有限制,太大也不行、视频和图片都不支持,基本上没有任何的实用性。