正文
在Apple Intelligence基础上,视觉智能功能扩展到了iPhone屏幕,啥都能搜,还能直接操作屏幕上看到的东西。
你可以问ChatGPT屏幕上那东西是啥,了解更多细节;还能直接用Google、Etsy或其他支持的应用搜类似的图片或产品。
要是看上啥特别的东西,比如一盏灯,你可以圈出来,直接搜这个东西或网上类似的产品。
视觉智能还能认出你在看啥活动,比如一场演出,会直接建议你加到日历里。Apple Intelligence会自动把日期、时间、地点这些关键信息提取出来,帮你把日历事件填好。
只需按下用于截屏的按钮,即可通过视觉智能获取屏幕上的内容。截屏后,你可以选择保存、分享,或者用视觉智能进行更多探索。
这次Genmoji和Image Playground更新,你有了更多表达自我的方式。
除了把文字转换成Genmoji,还能把表情符号根据描述混搭起来,创造点新花样。
还可以改改表情,或者调调发型啥的,紧跟朋友的最新造型。
在Image Playground里,还能用ChatGPT玩出油画风或矢量艺术这种全新风格。
脑子里有啥具体想法?点「任意风格」描述一下想要的,Image Playground就会把你的描述或照片传给ChatGPT,生成一张独一无二的图片。
Workout Buddy是Apple Watch上首款结合Apple Intelligence的健身应用。
它会根据你的运动数据和健身记录,在你锻炼时提供量身定制、超有激励效果的实时建议。生成超有活力的语音鼓励,像是Fitness+教练在旁加油。
初期虽然仅支持英语,但覆盖了跑步、走路、骑行、HIIT和力量训练等热门运动。
开发者工具也得到了升级。
Foundation Models框架加入工具套装,让开发者能利用设备端智能;Xcode 26则引入ChatGPT等大语言模型,提供编码工具和其他智能功能。
超过25万个API帮助开发者将应用与苹果的硬件和软件功能深度整合。
这些API覆盖机器学习、增强现实、健康与健身、空间计算和高性能图形等广泛领域。
Foundation Models框架让开发者能基于Apple Intelligence打造智能、离线可用且保护隐私的全新体验,AI推理完全免费。
框架原生支持Swift,开发者只需三行代码就能调用Apple Intelligence模型,轻松集成生成式功能,包括引导生成和工具调用等。
例如,Automattic的Day One日记应用就利用该框架,为用户提供了注重隐私的智能功能。
开发者可直接在编码中接入大语言模型,用于编写代码、测试、文档,优化设计,修复错误等。
Xcode内置支持ChatGPT,开发者还能通过API密钥使用其他模型,或在配备Apple Silicon的Mac上运行本地模型。