主要观点总结
OpenAI与苹果宣布合作,将ChatGPT整合进iOS、iPadOS和macOS系统。此次合作包含三个方面:与Siri的协同、写作工具的增强和iPhone 16的相机控制功能。发布会还展示了ChatGPT为苹果设备带来的视觉智能能力。然而,Google的Gemini 2.0发布给这场发布会带来了一些侧目的竞争。
关键观点总结
关键观点1: OpenAI与苹果的合作
OpenAI的CEO Sam Altman宣布与苹果的合作,将ChatGPT整合进iOS、iPadOS和macOS系统。这一合作包括与Siri的协同、写作工具的增强和iPhone 16的相机控制功能。此次整合旨在提升Apple Intelligence的能力。
关键观点2: ChatGPT的视觉智能能力
OpenAI团队通过即兴演示展示了ChatGPT为苹果设备带来的视觉智能能力,包括生成派对计划、编辑建议、节日播放列表和相机分析画面内容等。这项视觉集成的意义在于弥补了苹果AI系统最致命的短板之一,即视觉识别能力。
关键观点3: Google的Gemini 2.0发布的影响
Google发布的Gemini 2.0,具有多模态输出能力和原生工具使用能力,使OpenAI的发布显得有些逊色。Gemini 2.0的发布对OpenAI的发布会带来了冲击,体现了竞争对手在科技发展中的不断追赶和创新。
正文
其次是写作工具的增强,用户现在可以使用ChatGPT从头开始撰写文档,还能进行文档细化和总结;
第三是iPhone 16的相机控制功能,它能够通过视觉智能让用户更深入地了解拍摄对象。
在实际演示环节,McDon展示了如何在iPhone上启用这些功能。用户需要首先进入设置,启用Apple intelligence和Siri,然后开启新的ChatGPT扩展。
用户可以选择登录ChatGPT账号,系统还提供了确认ChatGPT请求的选项,确保用户对数据分享有完全的控制权。
特别值得注意的是,Apple Intelligence在这里是以拓展(extension)的方式调用的ChatGPT,这为之后其他第三方调用开了个口子。但至少当下,ChatGPT是唯一的选择。
团队现场策划了一场圣诞派对。通过简单地让Siri询问ChatGPT,系统就能生成完整的派对计划,包括一张歌单建议。
特别引人注目的是,用户可以轻松地在ChatGPT应用程序中继续编辑和完善这些建议。演示中还包括了生成节日播放列表和专辑封面的有趣环节,其中特别加入了一个“青蛙”元素。
这展示了ChatGPT的创意能力,也让人想起苹果迟迟难以上线的Emoji生成能力。
这场发布会最引人注目的环节,就是ChatGPT为苹果设备带来的视觉智能能力。OpenAI团队用一场即兴的“圣诞毛衣大赛”来演示了这项技术。
当开发者长按iPhone的相机控制按钮,ChatGPT就能实时分析画面中的内容。在演示中,系统不仅能识别出每个人身上毛衣的特征,还能以一种近乎幽默的方式为这些节日装扮打分排名。
但ChatGPT最后宣布Sam Altman平平无奇的毛衣是最具“趣味性”的,全场都大跌眼镜。看起来AI也会“向上管理”。
这项视觉集成的意义远不止于此。它实际上弥补了苹果AI系统最致命的短板之一。
要知道,在此之前,Siri的视觉识别能力一直是其软肋,而现在通过与ChatGPT的合作,iPhone用户可以随时通过相机获取周围物体的深度信息和解释。这种即时的视觉分析能力是苹果向竞争对手低头的象征——承认在某些领域,与其执着于自研,不如寻求最好的合作伙伴。毕竟在国产手机AI系统都突飞猛进的当下,让用户再多等一年才能体验到这个核心功能,风险太大。
但这次发布会演示的ChatGPT的视觉能力,与前两天Greg Brockman给《60 Minutes》节目展示的能实时语音对话的ChatGPT视觉比起来,操作上显得更麻烦。你得输入文字,才能获得回答。不知道是苹果有意限制OpenAI,还是OpenAI的视觉能力还没做好完全的准备。