Apple claims its new AI outperforms GPT-4 on some tasks by including on-screen content and background context
公司技术进展 - 苹果公司的AI研究团队发布了一篇关于新AI系统ReALM的论文 该系统全称为Reference Resolution As Language Modeling [1] - 该团队声称其ReALM系统在某些类型的查询上能够超越GPT-4的表现 [1][2] - 新系统的核心能力在于能够利用模糊的屏幕引用信息 并访问对话和背景信息 从而更准确地回答用户问题 [2] - 具体而言 系统可以将用户屏幕内容作为搜索过程的一部分 寻找用户提出查询前行为的线索 并能查看查询设备上当前运行的其他进程 以理解用户的思维脉络 [2] - 通过将此类信息与传统大语言模型处理技术结合 该系统更有可能为用户提供他们寻找的信息 [2] - 团队表示已针对包括GPT-4在内的多个大语言模型测试了其系统 并声称在某些类型的任务上得分优于所有模型 [3] 产品整合与发布计划 - 苹果计划将ReALM系统整合到其设备与Siri语音助手之间 这将使Siri能够提供比现在好得多的答案 [3] - 该功能很可能仅面向在今年夏季升级到iOS 18的用户提供 [3] 行业竞争背景 - 过去几年中 GPT-4等大语言模型主导了计算领域 各公司竞相改进产品以获取更多用户 [1] - 苹果在这一领域明显落后 其数字助手Siri在人工智能方面未有太多新增功能 [1] - 苹果团队强调 其ReALM系统不仅是为了追赶 更是一款在某些查询类型上优于目前所有公开可用大语言模型的产品 [2]