主要观点总结
文章介绍了Google在智能眼镜和头部可穿戴产品领域的发展历史,以及最新的Android XR平台和智能眼镜产品Project Aura的特点。文章还提到了Google与合作伙伴的合作,以及智能眼镜未来的发展趋势。
关键观点总结
关键观点1: Google Glass的短暂历史和现今的回归
Google Glass被认为是世界上首款智能眼镜,但只存在了两年时间。如今,Google重新进入智能眼镜市场,推出了与Xreal共同开发的Project Aura智能眼镜产品。
关键观点2: Android XR平台的介绍和特点
Android XR是Google在Gemini时代构建的Android平台。它支持翻译和同传功能,可以帮助用户更自然地与不同语言的人进行交流。此外,Android XR眼镜具有视觉搜索能力,能够通过按键或语音唤醒的方式,询问Gemini看到的内容。
关键观点3: 合作伙伴和时尚元素的重要性
Google宣布与Gentle Monster和Warby Parker等知名品牌及零售商合作,推出既时尚也科技的Android XR眼镜。这表明智能眼镜的时尚元素在拓宽销路方面起着重要作用。
关键观点4: Gemini技术的关键作用
Gemini技术在Android XR平台中发挥着关键作用,包括实时翻译、视觉搜索和智能体助理等功能的实现。此外,Gemini还提供了多模态基座大模型技术,支持Android和iOS设备。
关键观点5: 隐私问题的重视
Google在智能眼镜产品开发过程中重视隐私问题,不断收集用户和测试者的反馈,以确保产品更少侵犯隐私,更多提供帮助。
正文
参数细节目前少得可怜,通过渲染图以及 I/O 2025 现场 demo 能够看到,这款轻量级智能眼镜:
左右两个摄像头,和中置的其他视觉传感器模组,用于拍摄照片、视频,以及更重要的——支持 Gemini 的视觉/agent 智能体能力(Google Project Astra)
有双声道立体声扬声器,以及多个麦克风组成的阵列,用于通话、录音,以及支持 Gemini 的语音交互能力。
这是一个仍处在测试阶段的产品,但 Google 在现场还是很勇敢地做了一些已支持功能的 demo——主要体现作为核心卖点的 Gemini 的智能体能力。
比如实时翻译/同传:现场的两位演讲者使用印地语和波斯语互相翻译,虽然其中一位的信号看起来不太好,但翻译效果还是惊人的。
翻译采用纯文本,但从早前一点的 Gemini 部分演讲中我们可以断定,Gemini 肯定是有能力直接输出音频的。Gemini 本身的自然语言交互支持 150 多个国家的 45 种语言,但截至 25 年5 月中旬的语音互译能力仅支持英-西语互译,不过未来几周内将会增加数十种语言。
这为 Android XR 眼镜赋予了强大的使用场景,无论是跨语种工作,还是出国旅游,这种翻译/同传能力使得更自然的人际互动成为可能。
打破语言的障碍,为你提供真实世界的字幕,甚至配音——这是 Android XR 和 Gemini 想做的。
现场还演示了 Android XR 眼镜的其他功效。比如,用户(特别是视障用户)可以直接通过按键或语音唤醒的方式,询问 Gemini 自己看到的东西,做搜索和解答。
这其实是 Google 将近 10 年前就在做的 Google Lens 的视觉搜索能力。但经过 Gemini 的 AI 加成,能力会更加强大。
现场女演讲者在后台和一位同事打过招呼,然后过了几分钟再唤起 Gemini,让它帮自己和刚才见过的人约个咖啡;