量子位
搜索文档
结构化预处理让DeepSeek准确率提升51%,现已开源丨清华&深言
量子位· 2026-01-05 13:00
核心技术:LingoEDU方法概述 - 方法全称为LingoEDU,即基本语义单元技术,其核心是在大模型正式生成前增加一个预处理环节,将输入文本精准切分为最小的完整语义单元,并为每个单元分配唯一的索引标记,形成富含结构信息和语义信息的篇章结构树[1][5] - 该方法的核心优势在于实现了生成内容的可溯源性,通过为每个基本语义单元前置唯一索引标记,为模型创建了明确的参考坐标系,使得模型输出的任何内容都能精确对应到原文的具体位置,从而在最大程度上解决幻觉问题[4][5][23] - 该方法选择句子作为基本语义单元,相比Token能减少碎片化并保留完整语义命题,相比段落则在不同文体中长度分布更稳定,便于模型建模[24][30] 技术原理与设计 - 技术采用增强型结构生成与指针机制,模型被训练为输出指向EDU的“指针”而非重新生成文本内容,通过解码范围标记可将生成结构无损映射回原文物理位置,从根本上消除凭空捏造的可能[26][30] - 在推理阶段实施了严格的词法约束,即受限解码,当模型生成范围标记中的数字时,其可选词表被严格限制为当前输入中实际存在的索引,从物理上阻止了编造不存在引用的可能性[27][28] - 训练数据侧引入了基于分解的可扩展数据合成流程,通过“求解器”与“批评家”两个代理的迭代优化机制以及双层任务分解,自动化生产高质量的拆分数据,解决了该领域高质量对齐数据稀缺的核心瓶颈[29][31][37] 性能表现与实验数据 - 在语义切分效果实验中,基于248篇文章构建的数据集显示,LingoEDU在树编辑距离指标上为4.77,显著优于GPT-4o的6.22、Claude 3.5 Sonnet的6.65等基线模型;在文章级别准确率指标上达到49.60%,同样显著领先[34][35][36] - 在成本与效率方面,LingoEDU的成本为0.17美元,延迟为1.20秒,显著优于多数通用大模型方法,例如成本低于GPT-4o的5.21美元和Claude 3.5 Sonnet的7.09美元[36] - 在HLE测评集上,应用LingoEDU后,DeepSeek-R1的准确率从9.0%提升至13.6%,准确率相对提升51%;在BrowseComp-ZH测试集上,应用该技术后,DeepSeek V3.1的准确率提升幅度近一倍,达到18.7%[7][38][40] 下游任务应用效果 - 在LongBench的多文档问答任务上,应用LingoEDU后,Gemini-2.5-Pro在HotpotQA上的准确率从35.20%提升至40.46%,相对提升14.94%;在DuReader上从7.15%提升至8.12%,相对提升7.69%[42][43] - 在LongBench的摘要总结任务上,应用LingoEDU后,GPT-4.1在MultiN上的准确率从20.85%提升至23.50%,相对提升5.80%;在VCSum上从12.50%提升至14.62%,相对提升8.96%[42][43] - 实验结果表明,LingoEDU能够提升模型在LongBench所有摘要总结、多文档问答等子任务上的效果[42] 行业价值与定位 - 该技术直接针对大模型应用中最受诟病的“幻觉”问题,通过结构性变革实现“根治”,而非缓解,其提供的可溯源生成能保证100%的文本忠实度[44][46] - 该技术实现了从“粗放式压缩”到“精细化信息管理”的范式转变,提供的是结构更清晰、语义更完整的“文本地图”,能以更低的计算开销获得更准确可靠的处理结果,提供更优的投入产出比[45][47] - 该技术定位为一次重要的技术范式演进,推动了AI从“黑盒魔术”走向“白盒工程”,定义了让大模型更可靠地理解与处理人类复杂知识的新标准,是下一代可信AI基础设施的关键模块[47]
华为开源7B多模态模型,视觉定位和OCR能力出色,你的昇腾端侧“新甜点”来了
量子位· 2026-01-05 13:00
华为推出开源多模态大模型openPangu-VL-7B - 华为推出开源新玩家openPangu-VL-7B,这是一款7B参数量的多模态大模型,直接瞄准端侧部署与个人开发者这一核心应用场景 [1][3] - 模型具备轻量化特性和强劲性能,能灵活适配各类终端场景,并覆盖图像信息抽取、文档理解、视频解析、物体定位等高频需求 [2] 模型性能与效率表现 - 模型为昇腾原生结构,在单张Ascend Atlas 800T A2卡上,对720P图像进行首字模型推理时延(ViT与LLM模型时延和)仅160毫秒,能够进行5FPS的实时推理 [4] - 模型在训练阶段的MFU达到42.5% [4] - 在预训练阶段完成了3T+tokens的无突刺集群长稳训练,为开发者使用昇腾集群提供了极具价值的实践参考 [5] 模型在核心任务上的基准测试表现 - 在通用视觉问答任务上,模型在MMBenchvl.I_DEV上得分86.5,在AI2Dics上得分84.7,在RealWorldQA上得分76.1,在MMStar上得分70.1 [8] - 在OCR与图表/文档理解任务上,模型在OCRBench上得分907,在TextVQA上得分85.1,在ChartQA上得分88.3,在DocVQAtest上得分96.0,在CharXivpo上得分83.9,在CharXivgo上得分54.3 [8] - 在STEM任务上,模型在MMMUval上得分65.2,在MMMU-Pro overall上得分52.6,在MathVistamini上得分75.0 [8] - 在多图像理解任务上,模型在BLINKval上得分63.3,在MUIRBench上得分61.6 [8] - 在视觉定位与计数任务上,模型在RefCOCO-avg上得分90.6,在ODinW-13上得分51.5,在Point-Bench上得分65.4,在CountBench上得分96.1 [8] - 在视频理解任务上,模型在MVBench上得分74.0,在VideoMME w/o sub上得分68.0,在MLVU上得分76.9 [8] 模型应用能力展示 - 官方提供的cookbook展现了模型在视觉定位、文档理解等领域的优异能力 [9] - 例如,给定一张菜品图,模型能够点出所有樱桃番茄的位置并正确计数 [10] - 给定一张年报截图,模型能将其转变为markdown格式,省去人工摘录 [12] 核心技术细节与设计创新 - 模型采用了适配昇腾的高性能视觉编码器,其架构深度为26,使用2D RoPE位置嵌入和GELU激活函数 [14] - 该视觉编码器在相同参数量下,在昇腾芯片上的吞吐较使用窗注意力的ViT-H系列编码器提升15% [15] - 采用多标签对比学习框架,让模型具备更优的细粒度理解能力,为后续视觉定位数据学习筑牢基础 [16] - 创新采用“加权逐样本损失+逐令牌损失”的混合训练方案,加权系数由令牌位置和样本重要性动态决定,解决了不同长度训练样本的学习均衡问题 [17][18] - 区别于业界主流的0-999定位方案,模型采用000-999千分位带填充相对坐标完成视觉定位,使用整齐的三个token进行位置回归,降低了学习难度并提升了格式遵从性 [20][21] - 技术报告还深入探索了预训练数据配比、位置编码、模型融合等关键策略,为开发者提供了全面的技术细节参考 [23] 对行业与生态的影响 - 对于昇腾使用者而言,openPangu-VL-7B的开源是一大利好 [24] - 这款兼具轻量化、高性能与强通用性的多模态模型,为端侧开发和个人使用提供了新选择,也将进一步丰富昇腾生态的应用场景 [24]
融资35亿后,Kimi神秘模型现身竞技场
量子位· 2026-01-05 13:00
神秘模型Kiwi-do的发现与推测 - 一个名为Kiwi-do的神秘模型在大模型竞技场出现,引发关注 [1] - 该模型自报家门,声称来自月之暗面Kimi,训练数据截止到2025年1月 [2] - 有网友指出Kiwi-do在竞技场中表现出一些有趣的结果 [3] Kiwi-do的身份推测与测试 - 最早发现者对比了Kiwi-do与已上线模型K2-Thinking在SVG绘图上的表现,两者结果有明显差别 [4][8] - 有网友猜测Kiwi-do可能是一个小参数模型 [12] - 发现者联想到Kimi曾在AMA活动中提及将发布VL模型,并使用VPCT基准测试Kiwi-do [13][15] - Kiwi-do在视觉物理理解测试中正确解决了所有问题 [16] - 基于测试表现,博主与网友推测Kiwi-do很可能就是AMA中提到的K2-VL模型 [17] - 有评论认为Kimi的新模型通过VPCT测试将改变多模态Agent的格局 [18] Kimi的新模型发布计划 - 根据《科创板日报》消息,Kimi计划在2025年一季度上线多模态新模型,型号可能是K2.1或K2.5 [19] - 此前AMA提到的K2-VL也是多模态版本,因此可能与计划发布的新模型是同一模型的不同代号 [20] Kimi的融资与资金状况 - 2025年末,Kimi完成了5亿美元(约35亿人民币)的C轮融资 [21] - 本轮融资由IDG领投,阿里、腾讯、王慧文等老股东进行了认购,投后估值为43亿美元 [22] - 融资后,Kimi的现金储备达到100亿人民币 [23] 融资用途与公司战略 - 融资资金将用于“激进地扩增显卡”,以加速K3模型的训练和研发 [24] - 公司的远期目标是成为世界领先的AGI公司 [25] - 整个大模型行业算力成本高昂,需要持续融资维持,同为“六小虎”的MiniMax和智谱选择了IPO并提及算力扩张 [25][26] - Kimi在融资方式上依然看好一级市场,不急于IPO,因其B/C轮融资额超过了许多IPO募资和上市公司定向增发 [27][28] - 未来公司也会将上市作为加速AGI的手段,择机而行 [29] K3模型的发展目标 - K3模型的目标是在预训练水平上追平世界前沿模型,并通过技术改进使其等效FLOPs提升至少一个数量级 [32] - 旨在通过垂直整合训练技术和产品品味,让K3成为更“不同”的模型,提供其他模型不具备的全新用户体验 [32] - 在产品和商业化上聚焦Agent,不以绝对用户数量为目标,而是追求智能上限,创造更大的生产力价值,并实现营收规模的数量级增长 [32]
「AI 100」榜单启动招募,AI产品“年会”不能停丨量子位智库
量子位· 2026-01-05 13:00
2025年中国AI产品市场概览 - 2025年国内AI产品领域涌现多个关键趋势,包括深度思考、Agentic AI、多智能体协作、多模态生成和端侧AI [4] - 多个颠覆性产品引领各技术方向:DeepSeek凭借强推理和透明化思考引领智能助手迭代;Manus实现从“思考→规划→执行→交付”的全链路自主任务处理,成为“真正意义上的通用AI Agent”;Lovart等产品通过多智能体协作实现高效任务处理;即梦AI等在多模态生成上取得进步;豆包AI手机将系统级AI智能体深度集成于手机操作系统,重构人机交互范式 [4] 量子位智库「AI 100」榜单介绍 - 榜单旨在对过去一年中国AI产品发展进行全景式检阅,并深度洞察未来AI产业格局,目标是找到代表中国AI实力的巅峰力量 [4] - 榜单共分为三大板块:代表最强综合实力的「旗舰AI 100」、最具未来潜力的「创新AI 100」和十大热门赛道的代表产品 [6] - 「旗舰AI 100」聚焦2025全年表现,评选综合能力最强的100款AI产品,这些产品在技术上实现突破,并在实际应用场景中展现巨大价值 [7] - 「创新AI 100」旨在挖掘在2025年崭露头角、具备2026年爆发潜力的创新产品,这些产品代表了AI技术的前沿方向 [8] - 榜单对10个热度最高的细分赛道进行专项提名,每个赛道评选TOP3产品,赛道包括:AI浏览器、AI Agent、AI智能助手、AI工作台、AI创作、AI教育、AI医疗、AI娱乐、Vibe Coding和AI消费级硬件 [9] 榜单评估体系与内容 - 「AI 100」是量子位智库推出的AI产品风向标系列内容,旨在全维度提供AI技术驱动下产品长期创新和变革的第三方参考,主要由「旗舰 AI 100」和「创新AI 100」构成,按季度发布 [12] - 榜单采用定量与定性相结合的双重评估体系以确保客观性和准确性 [13] - 定量评估以真实用户数据为基础,涵盖用户规模、用户增长、用户活跃、用户粘性四大核心维度,包含下载总量、新增下载、活跃用户数、留存率等超过20个具体指标;对于硬件产品则考察产品出货量 [13] - 定性评估聚焦长期发展潜力,通过专家评估和用户调研,综合考量产品的底层技术、市场空间、功能设计、变现潜力、团队背景、增长速度等多重因素;对于硬件产品则考察具体功能设计和实际使用体验 [13] - 除榜单外,周边内容还包括数据解读文章、分赛道产品解析、1v1 AI产品深度访谈等 [14] 相关资源与参与方式 - 量子位智库已对外公开自研梳理的国内AI产品知识库,提供对国内AI应用生态全景式、结构化、实时更新的梳理 [15] - 榜单申报时间为即日起至2026年1月15日,榜单计划于2026年1月中下旬发布 [10]
宇树IPO搁浅传闻满天飞,王兴兴:别当真,也不用和外人解释
量子位· 2026-01-05 11:22
公司对不实传闻的澄清 - 公司针对“A股上市绿色通道被叫停”的传闻发布严正声明,指出相关报道内容与事实不符,公司未涉及申请“绿色通道”相关事宜[10] - 公司表示上市工作正常推进,相关进展将依法依规进行披露,并已就相关不实报道向主管部门反映,督促撤回,保留法律追责权利[10][11] - 公司创始人王兴兴在疑似网络截图中称相关消息为“好几周之前的,被人乱编的消息”,呼吁大家不要当真[14] - 截至目前,关于公司上市绿通被叫停的相关报道已下架[17] 公司上市进程梳理 - 公司于2025年7月8日提交了辅导备案登记材料,由中信证券担任辅导机构[18] - 2025年9月2日,公司声明正积极推进IPO准备工作,预计在2025年10月至12月期间提交上市申报文件[19] - 2025年10月23日,公司完成更名,由“杭州宇树科技股份有限公司”变更为“宇树科技股份有限公司”,同时创始人王兴兴由执行董事变更为董事长[22][23][24] - 2025年11月15日,公司完成IPO上市辅导工作,拟申请在境内IPO[25] - 从公开信息看,公司上市准备工作整体仍沿着既定的合规流程推进[26] 公司产品与技术展示 - 公司发布了一条1米8人形机器人H2的最新训练视频,作为日常更新[3] - 视频展示了机器人进行飞踢、倒挂金钩、踢沙袋和西瓜等多种动作[4] - 视频中出现了酷似公司创始人王兴兴的男子,引发了网友讨论[5][6]
字节Seed:大概念模型来了,推理的何必是下一个token
量子位· 2026-01-04 19:00
henry 发自 凹非寺 量子位 | 公众号 QbitAI LLM的下一个推理单位,何必是Token? 刚刚,字节Seed团队发布最新研究—— DLCM(Dynamic Large Concept Models) 将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。 DLCM通过 端到端地方式学习语义边界,动态地将Token序列分割成概念,在压缩后的概念空间中进行深度推理,并借助因果交叉注意力将 概念级推理结果重构为Token级预测 。 由此,传统LLM中基于均匀、冗余Token信息密度的计算分配,被转化为面向概念的动态推理与自适应算力分配。 在以推理为主的基准任务上,DLCM在将推理阶段FLOPs降低 34% 的同时,还将平均准确率提升了 2.69% 。 这也意味着,大模型的推理效率并不必然依赖更密集的Token级计算,而可以通过更高层级的语义组织来获得。 接下来,我们具体来看。 分层的下一token预测框架 如上所说,DLCM的核心在于学习动态的Token-概念映射,实现了计算资源的自适应分配。 接下来,在 动态分割 阶段,模型基于Token级表示,计算相邻Token之间 ...
MIT新论文:2026推理模型过时了,“套娃模型”当立
量子位· 2026-01-04 17:06
文章核心观点 - 麻省理工学院(MIT)提出了一种名为“递归语言模型(RLM)”或“套娃模型”的新范式,该范式通过将长文本存储在外部代码环境中,并让模型通过编写和执行Python代码来递归处理信息,从而革命性地提升了大型语言模型处理超长上下文的能力[1][3][5] - 该方法在多项性能指标上显著超越了以GPT-5为代表的传统推理模型,有效处理规模达到**1000万Token**级别,超出GPT-5等模型原生上下文窗口**两个数量级**,同时成本更低,且能有效缓解“上下文腐烂”问题[1][2][8][23] 技术原理与架构 - 核心范式转变:RLM将自然语言处理任务重构为交互式编程任务,引入外部Python REPL环境,将超长文本作为静态字符串变量存储在内存中,而非直接输入模型[9] - 解耦输入长度与上下文窗口:模型作为拥有读写权限的Agent,通过生成和执行代码操作外部变量,使可处理文本长度仅受物理内存限制,而非Transformer注意力机制跨度[10] - 基于代码的认知循环:模型通过“编写代码-观察执行结果”的迭代循环,以极低成本在庞大文本中进行索引和定位,仅在必要时读取关键段落,实现高效上下文管理[12][13] - 递归调用机制:模型可在编写的代码中调用自身的新实例来处理子任务,实现任务的并行化分解和多层级深度推理,确保每步处理都在模型原有上下文窗口限制内[14][15][18] 性能表现与优势 - 处理规模突破:RLM有效处理规模达**1000万Token**,远超现有前沿模型[23] - 缓解上下文腐烂:在信息密度高的复杂任务中,当输入长度超过特定阈值,RLM能保持得分稳定性,而基础模型性能随长度增加而衰减[24] - 复杂信息整合能力卓越:在OOLONG任务(需线性扫描处理几乎所有信息)上,RLM实现了**双位数**的性能提升;在更难的OOLONG-Pairs任务(需聚合文中成对信息片段)上,搭载RLM的GPT-5和Qwen3-Coder分别取得了**58.00%** 和 **23.11%** 的F1分数,而它们的基础模型F1分数不足**0.1%**[26][27] - 成本效益显著:RLM通过按需读取策略改变了“上下文越长成本越高”的线性规律。例如,在BrowseComp-Plus测试中,GPT-5-mini处理**600万至1100万Token**的理论成本约为**1.50至2.75美元**,而RLM平均实际花费仅为**0.99美元**,成本低于全量阅读的基础模型和压缩上下文的Summary Agent方案[28][29][31] 涌现能力与策略 - 自发高效策略:模型在未经专门训练的情况下,自发学会利用正则表达式等编程工具过滤信息,例如先构造查询语句进行关键词匹配,仅提取相关片段阅读,大幅减少Token消耗[20] - 构建外部工作记忆:针对输出长度受限问题,模型能将子任务结果存储在列表变量中,最后通过代码连接,构建了一个动态、可编程的外部工作记忆空间,使其能像操作数据库一样操作文本[21][22]
OpenAI首款硬件定型为笔!网友:就叫oPen吧
量子位· 2026-01-04 15:25
OpenAI首款AI硬件产品形态 - 产品形态被指向一支“AI笔”,具体为“无屏AI智能笔”[1][2][6] - 产品体积接近iPod Shuffle,重量估计在10-15克之间[7] - 产品由前苹果首席设计官Jony Ive共同参与设计[3][13] AI笔的核心功能与交互 - 硬件具备音频能力,并能通过配对的智能手机或其他终端与ChatGPT进行“双向交流”[4] - 硬件可能本地运行OpenAI定制模型,能将手写内容直接转换为文本[10] - 转换后的文本信息可同步至ChatGPT,供用户后续追问、补充和扩展[11] - 硬件还能与配对设备通信,帮助用户完成一些原本需要在手机上进行的操作[12] 产品开发背景与战略意图 - 该项目并非近期决定,OpenAI首席执行官奥特曼大约在两年前已开始与Jony Ive探讨“更长期”的事情[13] - 关键动作发生在去年5月,OpenAI以约65亿美元的价格收购了Jony Ive创办的硬件公司io,这是公司史上最大收购案[14] - Jony Ive本人是“笔控”,其设计工具包中包含复古钢笔,这或许影响了产品形态的选择[15][16] - 奥特曼认为当前电脑、软件和硬件是为“没有AI的世界”设计的,交互过程充满干扰[19] - 奥特曼理想的AI体验是安静、克制、平静的,只在合适时机介入,如同“湖畔小屋”[20] - AI笔的形态天然具备存在感低、不抢注意力、随手可用的特质,符合上述理念[23][24] 公司的战略转型与生态布局 - 长期依赖其他平台硬件和生态,公司若想让AI成为用户日常第一交互层,仅靠软件不够,必须掌握“端到端”体验[25][26] - 选择笔的形态,避开了与手机巨头的正面冲突,并试图填补“第三核心设备”的空白[27] - 当前收入主要依赖API和ChatGPT Plus订阅,增长面临压力,硬件旨在开辟新的变现路径,并将高阶订阅与服务能力绑定,形成“硬件+服务”闭环以提升生态天花板[27]
量子位编辑作者招聘
量子位· 2026-01-04 13:21
公司概况与市场地位 - 公司是一家以追踪AI新进展为核心的内容平台,拥有8年行业积累[1] - 公司在微信公众号拥有超240万订阅用户,全网用户超700万,日均阅读量200万以上[12] - 公司在第三方数据平台被认定为AI及前沿科技行业TOP1新媒体[12] 招聘岗位与方向 - 公司开放三大方向的岗位招聘:AI产业方向、AI财经商业方向、AI产品方向[2][6] - 招聘岗位面向社招和校招,社招覆盖编辑、主笔、主编各个层级,校招接受应届毕业生及实习生[4][6] - 所有岗位工作地点均为北京中关村[2] AI产业方向岗位详情 - 岗位职责包括跟进AI基建层新进展,涵盖芯片、AI Infra、云计算领域及核心玩家动态[6] - 职责还包括对前沿论文、开源社区、技术大会报告进行大众化解读,并参与产业专家采访及撰写落地案例[6][7] - 任职要求包括对芯片、GPU、NPU、服务器、模型训练架构、云计算有基本理解,熟悉AI行业供应链与生态,并能进行结构化表达,技术背景者优先[11] AI财经商业方向岗位详情 - 岗位职责聚焦创投、AI创业公司、上市公司、商业模式及产业链资本动向,产出融资、财报解析、战略分析等稿件,并进行相关访谈[11] - 任职要求包括对数据敏感,对财报、股权结构、战略规划感兴趣,逻辑结构强,对商业叙事敏感,并热爱对话采访[11] AI产品方向岗位详情 - 岗位职责关注AI在软件应用和硬件终端的落地,撰写产品深度评测,跟踪多终端新品发布,并进行相关创业者与专家访谈[11] - 任职要求包括对智能硬件和AI终端趋势敏锐,是重度AI产品体验人士,熟悉终端厂商业态和体验方法论,具备强逻辑和结构化表达能力[11] 加入公司的价值主张 - 员工可第一时间接触AI领域最新技术和产品,构建完整的AI认知体系[6] - 员工可将各种AI新工具应用于工作,提升效率和创造力,并通过撰写原创内容建立个人影响力[6] - 员工可与AI领域大咖零距离接触,拓展行业人脉,并获得专业指导,应届新人由主编级编辑提供一对一指导[6] - 员工将加入扁平、简单、开放、多劳多得的团队氛围,并获得行业TOP薪资待遇及完善福利[6] 应聘方式 - 应聘者需将个人简历发送至指定邮箱,邮件主题需注明应聘方向及姓名[11] - 随简历需附上科技行业代表作品或能展现个人写作水平和风格的作品[11]
「AI 100」榜单启动招募,AI产品“年会”不能停丨量子位智库
量子位· 2026-01-04 13:21
2025年中国AI产品市场概览 - 2025年国内AI产品领域涌现多个关键趋势,包括深度思考、Agentic AI、多智能体协作、多模态生成和端侧AI [4] - 多个颠覆性产品引领各技术方向:DeepSeek凭借强推理和透明化思考引领智能助手迭代;Manus实现从“思考→规划→执行→交付”的全链路自主任务处理,成为“真正意义上的通用AI Agent”;Lovart等产品通过多智能体协作实现高效任务处理;即梦AI等在多模态生成上取得进步,与国外Sora2和Nano Banana呼应;豆包AI手机将系统级AI智能体深度集成于操作系统,重构人机交互范式 [4] 量子位智库「AI 100」榜单介绍 - 榜单旨在对过去一年中国AI产品发展进行全景式检阅,并深度洞察未来AI产业格局,目标是找到代表中国AI实力的巅峰力量 [4] - 榜单共分为三大板块:代表最强综合实力的「旗舰AI 100」、最具未来潜力的「创新AI 100」和十大热门赛道的代表产品 [6] - 「旗舰AI 100」聚焦2025全年表现,评选综合能力最强的100款AI产品,这些产品不仅在技术上突破,更在实际应用场景中展现巨大价值 [7] - 「创新AI 100」旨在挖掘在2025年崭露头角、具备2026年爆发潜力的创新产品,它们代表了AI技术的前沿方向 [8] - 十大细分赛道TOP3评选针对热度最高的10个领域,依次为:AI浏览器、AI Agent、AI智能助手、AI工作台、AI创作、AI教育、AI医疗、AI娱乐、Vibe Coding和AI消费级硬件 [9] 榜单评估体系与内容 - 「AI 100」是量子位智库推出的AI产品风向标系列内容,旨在全维度提供AI技术驱动下产品长期创新和变革的第三方参考,主要由「旗舰 AI 100」和「创新AI 100」构成,按季度发布 [12] - 榜单采用定量与定性相结合的双重评估体系以确保客观性和准确性 [13] - 定量评估以真实用户数据为基础,涵盖用户规模、用户增长、用户活跃、用户粘性四大核心维度,包含下载总量、新增下载、活跃用户数、留存率等超过20个具体指标;硬件产品则考察出货量 [13] - 定性评估聚焦长期发展潜力,通过专家评估和用户调研,综合考量产品的底层技术、市场空间、功能设计、变现潜力、团队背景、增长速度等多重因素;硬件产品考察具体功能设计和实际使用体验 [13] - 除榜单外,周边内容还包括数据解读文章、分赛道产品解析、1v1 AI产品深度访谈等 [14] 相关资源与参与方式 - 量子位智库已对外公开自研梳理的国内AI产品知识库,提供对国内AI应用生态全景式、结构化、实时更新的梳理 [15] - 榜单申报时间为即日起至2026年1月15日,榜单计划于2026年1月中下旬发布 [10]