主要观点总结
本文主要介绍了谷歌在AI领域的最新进展,包括其在搜索引擎、Chrome浏览器、虚拟试穿、Android XR生态和AI眼镜等方面的创新,以及针对创作者的AI创作工具的更新换代。谷歌通过软件硬件双管齐下的方式,提升用户体验,定义下一代AI产品。
关键观点总结
关键观点1: 谷歌在AI领域的优势
谷歌凭借巨大的存量用户优势,在AI产品商业化用户规模上领先,并且不断推出新的AI功能,如AI总结功能、多模态识别能力的谷歌Lens等,以满足用户的需求。
关键观点2: 谷歌AI产品的新功能
谷歌推出了新的“虚拟试穿”功能,借助AI技术,让用户可以看到自己穿着正在选购的衣服的图像。同时,谷歌的搜索引擎还添加了全新的“AI模式”,提供更灵活和个性化的搜索体验。
关键观点3: 谷歌在硬件方面的进展
谷歌通过Android XR的进展,展示了谷歌XR眼镜的原型机,并强调了其与Gemini AI的结合,以及未来通过与硬件厂商的合作,将AI眼镜打造的更加时尚。
关键观点4: 针对创作者的AI创作工具
谷歌针对创作者进行了一系列AI创作工具的更新换代,包括Veo3、image4、Lyria 2音乐生成模型和全新的视频创作工具FLOW等,这些工具为创作者提供了更强大的创作能力。
关键观点5: 谷歌的订阅服务
谷歌推出了“大杯”和“超大杯”订阅服务,提供物超所值的服务,如几乎无限制的各项服务使用额度、30TB的谷歌Cloud云端存储容量等。
正文
一直传闻中的谷歌想要借助 Chrome 入局 AI 浏览器,本次 IO 中也终于崭露头角,除了 Chrome 浏览器本身更深度的整合 Gemini 接口、识别网页内容以外,谷歌还为搜索引擎调添加了全新的「AI 模式」。这个模式把类似 Gemini 或 ChatGPT 的聊天机器人功能直接带入了用户的网页搜索体验。你可以用它来找链接,但也能更快地获取信息、追问问题,让 Gemini 以平时在普通网页上找不到的方式来整合信息。
谷歌搜索的负责人甚至放出豪言:如果你想知道互联网上最重要的搜索引擎未来会变成什么样,那你就去点开「AI 模式」看看。
「AI 模式」同时也支持深度研究功能,会自动将用户的提示词转化为海量的搜索,并自动查找和整合信息,同时在这个模式下,AI 搜索还可以访问你之前的搜索记录,你也可以手动开启权限,让它可以访问你的电子邮件,以便 AI能更了解「你是谁」以及你关心什么。
把所有这些功能加起来,你就会得到一个更加灵活和个性化的 AI 搜索,无论是针对用户本身还是当前的具体查询,显然都能根据用户信息给出更加精准的回答。
Gemini 2.5 家族也同时加入了支持深度思考的版本 —— Gemini 2.5 Pro Deep Think,在
2025 年美国数学奥林匹克竞赛 (USAMO)
中取得了
40.4% 的高分
,要知道这可是最难的数学基准测试之一,比之前的 2.5 Pro 版本足足提升了 10 多个百分点。同时在
LiveCodeBench 竞赛级编程难题
中,它的得分更是高达
80.4%
。同时,在
多模态推理 MMMU
测试中,也取得了
84.0%
的成绩。
Gemini Live 的摄像头共享功能于去年在谷歌I/O 大会上首次亮相,当时它的名字还叫
Project Astra
,随后作为 Gemini Live 在 Android 上正式推出。它允许谷歌Gemini「看到」您摄像头中的一切,因此您可以就周围的世界进行持续对话——例如,根据冰箱中的食材询问食谱建议。
随着谷歌在用户场景中逐渐深入,现在这一功能被直接引入搜索的
AI
模式
中,通过点击「Live」图标,用户将能够与搜索共享他们的摄像头画面,并直接询问眼前的事物,例如自行车应该如何组装。并且可以自动根据上下文对你们的情况进行同步更新回答。
在现场的演示中,最令笔者印象深刻的新功能,是其新获得的
主动性
。可以根据它观察到的事件选择何时开口,像一个真人一样,对你的操作进行建议,例如在用户做作业时进行观察,它可能会注意到您犯了一个错误,并直接指出用户哪里错了,而不是反过来等着用户要求 AI 去执行任务。
据 DeepMind CEO Demis Hassabis 表示,教 AI 自主行动一直是计划的一部分。这些「察言观色」的技巧,是人类相对擅长但难以量化或研究的事情。