Deepseek介绍
:DeepSeek,成立于2023年,是幻方量化的子公司,位于杭州的人工智能公司。它于2024年末推出DeepSeek-V3模型(671B参数),性能超越多种开源模型,并接近顶尖闭源模型。2025年1月,DeepSeek发布R1系列模型(660B参数),在多项任务上表现优异,同时推出了几个小模型对标OpenAI的产品。DeepSeek通过其创新技术显著提高了生成速度,并提供了具有竞争力的API服务定价。
Deepseek本地部署方法
:Ollama是一个开源工具,用于在个人设备上高效运行大型语言模型(LLMs),无需依赖云端。DeepSeek-R1模型可通过Ollama实现本地部署:首先,从Ollama官网下载适合系统的Windows版本并安装,完成后系统托盘会出现Ollama图标。其次,访问“Models”页面选择DeepSeek-R1,并根据显卡配置(如4090显卡24G显存)选择32B版本,复制对应的运行指令。然后,在命令行窗口中执行该指令以下载和运行模型(32B版本约19GB)。为提升用户体验,可采用Docker+Open WebUI构建图文交互界面,甚至将DeepSeek-R1
32B集成到微信中作为智能体使用,享受其快速响应和深度思考功能。
对AI领域投资的思考:
通过DeepSeek官网与DeepSeek-V3对话,可以了解部署各版本模型对硬件的要求。普通笔记本和台式机仅配备CPU,仅能勉强运行DeepSeek-R1-1.5B和7B,但响应速度慢,缺乏实用性。英伟达RTX
4090可较快运行DeepSeek-R1-32B,但在处理70B版本时表现不佳。中小模型如1.5B、7B和14B适合简单的微信交流场景,但无法解决复杂问题;32B模型具备深度思考能力,适用于服务客户的微信交流。671B完整版及70B模型需要企业级显卡如A100或H100支持,不适合消费级硬件。云端部署虽可行,但存在数据隐私问题。DeepSeek-R1及其开源的小型化模型的高性能,推动中小企业和个人开发智能助手,例如微信客服,这将显著增加对算力的需求。
全球大类资产策略组合表现
:全球多资产配置绝对收益@低风险组合,本年回报0.86%,相比中债总财富(总值)指数超额收益0.40%。全球多资产配置绝对收益@中高风险:本年回报3.66%,相对万得FOF指数超额收益3.61%。