(图源:苹果官网)
北京时间6月11日凌晨,苹果全球开发者大会WWDC接近两个小时的议程中,苹果主要宣布了两大事项。首先,介绍了六大平台(包括visionOS2,以及iOS18、watchOS11、iPadOS18、macOS Sequoia和Audio&Home)的系统更新,并宣布苹果头显Vision Pro将于6月28日在中国、日本和新加坡正式发售。其次,苹果聚焦人工智能领域,推出了自有的AI能力“苹果智能”(Apple Intelligence),并宣布与OpenAI达成合作,计划在Siri中引入ChatGPT。值得注意的是,苹果实际上拥有两套AI模型,当自家大模型无法解答某些问题时,Siri会征询用户是否启用ChatGPT4。
(图源:苹果官网)
发布会后,苹果(AAPL.O)股价跳水,当天收盘跌1.91%,报193.12美元/股。隔天(6月11日)苹果开盘走高,股价向上触及200美元关口。截至收盘,苹果收涨7.26%,报207.15美元,股价再创历史新高。
“苹果智能”(Apple Intelligence)有哪些功能?
(图源:苹果官网)
首先,苹果智能推出了“优先通知”功能。该功能可以根据通知内容的重要性对通知进行排序,让用户能够第一时间看到最重要的信息。例如,当用户的邮箱收到一封包含航班登机牌的邮件时,系统会将这封邮件优先展示在通知栏上,方便用户及时查看。
其次,苹果智能还推出了“全系统写作工具”。这款工具覆盖了邮件、备忘录、Pages等苹果自带的应用,以及各类第三方应用。无论用户在何种应用场景中,都可以使用这款工具进行文本的扩写、校对和总结。此外,它还能根据语境调整措辞语气,甚至提供智能回复的建议。
在图像处理方面,苹果智能引入了Genmoji和Inmage Wand功能。Genmoji可以帮助用户创建原创的图片和表情包,风格包括素描、卡通和插画等。尽管其在实际演示中的表现与当前热门的大模型如Stable Diffusion相比存在一定差距,但仍然为用户提供了更多的创意可能。Inmage Wand则可以将用户的粗略手绘转化为精美的图片,或根据文本生成相应的图片,虽然效果略显一般,但无疑为用户提供了更多的图像处理选择。
此外,苹果智能还对Siri进行了升级,增加了“语义索引功能”。Siri可以根据用户的照片、日历、文件、邮件等信息建立“语义索引库”,实现更加智能的信息搜索和提取。例如,当用户需要在一份文件中填写驾驶证编号时,只需调用相册中的驾驶证图片,Siri就能自动将其填写到文件中。
在此基础上,苹果智能还允许开发者通过App Intents API在他们的应用程序中引入Apple Intelligence,使得用户可以横跨多个APP执行复杂的操作。
在隐私保护方面,Apple Intelligence会根据具体任务来决定在设备端还是云端执行。对于简单的任务,全部在设备端运行,以确保用户的隐私安全。而对于需要更强计算力的任务,苹果会借助“私密云”完成计算,同样确保了用户的隐私不被泄露。
总的来说,苹果智能以用户需求为导向,不断推出创新功能,旨在为用户提供更加智能、便捷、安全的使用体验。未来,苹果智能还将继续深化研发,为用户带来更多意想不到的惊喜。
(图源:苹果官网)
苹果AI会登录三端操作系统(iOS 18、iPadOS 18、MacOS 15),但对芯片要求很高,只支持A17 Pro(手机)或M系列芯片(平板和电脑)。手机目前只支持iPhone 15 Pro和15 Pro Max,以及之后上市的iPhone 16系列。
天风国际证券分析师郭明錤就表示,整合ChatGPT之关键卖点能否在全球所有主要市场使用。
另外目前Apple Intelligence也仅支持英语,Siri和设备语言都需设置为英语(美国)才能使用。苹果表示将在未来一年里陆续更新今天发布的功能,并支持更多的语言和设备。
2024年,苹果AI只支持英文,只能在可以使用ChatGPT的国家和地区使用。最终,国内用户能使用多少功能、中文效果如何?苹果训练的大模型会比国内现有的大模型更先进吗?
接下来,苹果AI还面临许多不确定性。
peop