简单说说:
- 有消息称,苹果正在测试新一代Siri,它能同时处理好几个指令,底层用的是谷歌Gemini技术的基础模型。
- 这次大升级会出现在iOS 27、iPadOS 27和macOS 27里,支持理解上下文、跟屏幕内容互动,还能在各种App里执行上百种操作。
- 苹果想大幅提升Siri的能力,好跟现在主流的AI助手竞争,在AI赛道上追赶上来。
说起来挺理所当然的,现在的AI助手应该能一次听好几件事才对。比如你可以说:“帮我下午五点安排个理发预约,顺便发条短信给我老婆,说我那天会晚点回家。”但现在的Siri还做不到这一点,要让AI准确地把一句话拆成好几个动作,其实没那么简单。
根据彭博社最新的报道,苹果目前正在测试这个功能。它会是iOS 27、iPadOS 27和macOS 27里Siri大改版的一部分。报道提到,用户以后可以把“查天气、加日历事件、发消息”这类多个请求,放在一条指令里一起说。
这事儿居然还能算新闻,也说明苹果在AI助手领域已经落后不少。现在很多聊天机器人和智能助手早就支持这种操作了,而苹果才刚开始测试,预计最早也要到今年秋天才能推给所有用户。
新一代Siri会换上全新的基础模型,核心技术来自谷歌的Gemini。它应该会实现之前在iOS 18里承诺但没兑现的那些功能:理解个人上下文、看懂并响应屏幕上的内容,还能在App里执行几百种不同的操作。据说它还会变成一个完整的聊天机器人,有界面能查看之前的对话和指令,并且随时引用。
新Siri还会扩展现在的Siri Extensions功能,目前只支持ChatGPT,以后用户可以通过App Store安装其他AI助手也能用上。
古尔曼还提到,苹果在测试一款新的系统键盘,主要改进自动纠错,但可能不是大家最期待的那种方式。这款键盘会像Grammarly一样,建议替换的词语或短语。不过彭博的报道说,苹果还没最终决定要不要推出这个键盘。

2507222545
全部评论 0
暂无跟帖