专栏名称: APPSO
让智能手机更好用的秘密。
目录
相关文章推荐
51好读  ›  专栏  ›  APPSO

GPT-5最新剧透:集成各种产品/小米自研芯片不仅用于手机/刘慈欣:对AI产生很深感情 | Hunt Good 周报

APPSO  · 公众号  · app  · 2025-05-18 10:01

正文

请到「今天看啥」查看全文


5 月 14 日凌晨 3:15 左右(太平洋标准时间),有人在未获授权的情况下,修改了我们在 X 平台上的 Grok AI 聊天机器人的系统提示词。这一行为会强制 Grok 针对某一政治话题给出特定的回应,违反了 xAI 内部的政策与核心价值观。事件发生后,我们立即展开调查,目前正在采取措施,提高 Grok 的系统透明度与可靠性。
xAI 还给出了相对应的整改行动:
公告发出时,我们将在 GitHub 上公开发布 Grok 的系统提示词,供公众查阅。任何人都可以审阅,并反馈我们对 Grok 所做的每一次提示词修改。我们希望通过这种方式,增强用户对 Grok 作为追求真相的 AI 系统的信任。
xAI 还表示将增加额外的审查措施和检查机制,确保未来所有提示词修改必须经过严格的内部审核,xAI 员工无权再私自修改。
值得一提的是,本周有网友提问「Grok 3.5、GPT-o3 Pro 和 GTA 6 哪个会最先发布?」对此,马斯克在 X 平台回应称「 3.5 还是有点太粗糙了。还需要一周左右的时间。
最后,附上 Grok 系统提示词地址:
🔗 https://github.com/xai-org/grok-prompts
🤯 消息称 Meta 旗舰 AI 模型延迟发布
据《华尔街日报》消息,Meta 正计划推迟其旗舰 AI 模型「Llama 4 Behemoth」的推出。
据知情人士透露,Meta 的团队目前正担忧 Llama 4 Behemoth 的性能表现是否能达到宣传预期。
Llama 4 Behemoth 于 4 月 7 日亮相,号称未来最强大的 AI 模型之一,具备 2880 亿激活参数量,总参数更是达到 2 万亿。不过当时 Meta 仅公布了这一模型,未宣布其何时能够发布。
1,861 × 857
但同期发布的另外两款 Llama 4 模型——Scout 和 Maverick,却被网友指出性能与实际宣传不符,甚至出现了「在测试集上进行训练」这样的「作弊丑闻」。因此,Meta 的员工也很担心 Behemoth 会再次遭受到这一不堪经历。
据悉,Behemoth 原计划与另外两款尺寸较小的 Llama 4 模型一同发布,但后来内部将 Behemoth 的发布目标推迟至了 6 月,现在更是推迟到了秋季或者更晚的时间。
报道指出,Meta 近期的挑战也反映了顶尖 AI 公司在发布下一代前沿模型时,必然会遇到的挫折或延迟。研究人员认为,Meta 这种状态也表明未来 AI 模型的进步速度,可能比过去慢得多,并且投入成本巨大。
🔗 https://www.wsj.com/tech/ai/meta-is-delaying-the-rollout-of-its-flagship-ai-model-f4b105f7?mod=tech\_trendingnow\_article\_pos1
💰 Perplexity 获新一轮融资,估值 140 亿美元
据路透社消息,AI 初创 Perplexity 目前正进行高级别讨论,以进行新一轮融资,估值或将达到 140 亿美元。
报道指出,140 亿美元的估值虽然高于 Perplexity 最近一次估值,但低于其最初的目标。
知情人士透露,全球创投公司 Accel 正谈判计划, 领投 Perplexity 本次 5 亿美元投资。但据此前报道,Perplexity 此前希望能筹集高达 10 亿美元的资金(包括本次融资),估值达 180 亿美元。
給需要做研究報告、簡報教學的職場上班族,5 步驟透過Perplexity.ai 有效率的收集資料
Perplexity 成立于 2022 年,去年其估值从 10 亿美元提高到 30 亿美元,几个月后又翻了一倍。然而,Perplexity 的核心业务——搜索功能遭受到 Google 和 OpenAI 日益激烈的竞争。
近期,Perplexity 还计划推出一款名为 Comet 的浏览器。知情人士称,投资者押注 Comet 的成功,并希望 Comet 能够通过个性化和任务导向来挑战 Google 的 Chrome 浏览器。
另据知情人士消息,Perplexity 现在每年有 1.2 亿美元的经常性收入,较 3 月时的近 1 亿美元有所增长。
🔗 https://www.reuters.com/technology/ai-firm-perplexity-eyes-14-billion-valuation-fresh-funding-round-wsj-reports-2025-05-12/?utm\_source=tech.therundown.ai&utm\_medium=newsletter&utm\_campaign=it-s-not-theranos-2-0
👏 DeepSeek 公布 V3 降本技术,梁文锋参与
日前,DeepSeek 公布了旗下 V3 模型在训练、推理过程中,如何解决「硬件瓶颈」和「降本」的技术报告, 值得一提的是,DeepSeek 创始人梁文锋也在作者名单中。
据报告显示,DeepSeek-V3 使用 2048 个英伟达 H800 GPU 进行训练,但其达到了超大规模集群相当的训练效果。
其中包含了以下四项技术:

采用多头潜在注意力(MLA),减少临时数据(KV Cache)的内存占用。通过内存优化,DeepSeek-V3 的 KV 缓存大小每 token 仅需 70 KB,是传统方法的 1/7 至 1/4,从而大幅降低显存压力。

采用 DeepSeek-MoE(混合专家架构)进行计算优化。DeepSeek-V3 凭借 MoE 单次推理只激活部分参数的思路,训练成本仅为同规模稠密模型的 1/10。并且得益于激活参数减少,V3 能够在消费级 GPU 上运行,并达到每秒生成近 20 个 toeken。

通过 FP8 低精度训练,将模型所需内存占用和计算量减半,并通过「精细量化」保持精度要求。DeepSeek-V3 通过 FP8,训练成本成功降低 50%,精度损失小于 0.25%。

通信方面,DeepSeek-V3 采用了多层胖树网络(Multi-Plane Fat-Tree),避免不同任务流量冲突;在模型推理时,还将「注意力计算」和「专家间通信」分阶段执行,利用流水线并行(DualPipe)让 GPU 在计算时同时传输数据。

推理加速方面,DeepSeek-V3 使用多 token 预测(MTP)的方法,将模型生成速度提升了 1.8 倍,同时保持准确率在 80%-90%。
另外,DeepSeek 团队还对未来 AI 发展的多维度进行了展望,有「CPU 与 GPU 通信瓶颈」「低精度计算支持」「系统鲁棒性挑战」「内存系统优化」等方面内容。






请到「今天看啥」查看全文