量子位
搜索文档
ChatGPT和Claude争了个寂寞!用户重叠仅11%,中国应用霸榜移动端
量子位· 2026-03-11 17:00
全球AI应用市场格局 - 风投机构a16z发布了第六版“迄今最受消费者喜爱的Top100 AI应用”榜单,该榜单统计了截至2026年1月的网页端和移动APP端前50名应用[1][15][23][24] - 在移动AI应用前50名中,几乎有一半来自中国团队,但大量用户来自海外,显示出AI应用生产大国与消费大国正在分离的现象[3][4][6] - 全球三大AI市场分别为:西方市场(以ChatGPT、Claude、Gemini等为代表,主要国家包括美国、印度、巴西、英国和印度尼西亚)、中国市场(以DeepSeek、豆包、Kimi为代表)以及俄罗斯市场(以Alice、GigaChat为代表)[8][9][60][61][64][65] - 从人均消费看,排名前列的国家/地区依次是新加坡、阿联酋、中国香港、韩国,而美国作为AI生产大国仅排第20位[7][70] 头部AI应用竞争态势 - ChatGPT在消费级AI应用中保持绝对领先,其网页端月流量是第二名Gemini的2.7倍,移动端月活跃用户数是Gemini的2.5倍,周活跃用户数已达9亿,意味着全球超过10%的人口每周使用ChatGPT[28][29][30][31] - 尽管ChatGPT领先,但挑战者增长迅猛,过去一年Claude的付费用户同比增长超过200%,Gemini的付费用户同比增长率高达258%[34][35] - 竞争的关键在于对用户上下文的理解,网页端ChatGPT的用户会话数比Gemini高1.3倍,移动端则高出2.2倍[40][41][42] - ChatGPT与Claude的战略方向出现分化,前者定位为面向大众的AI入口,后者更偏向专业用户,导致两者的应用目录重叠度仅约11%[48][52][53][54][55] - AI助手正从“聊天工具”向“平台操作系统”演变,通过构建类似“应用商店”的体系(如GPTs、Apps)来锁定用户工作流程,形成平台竞争的“飞轮效应”[49][50][51][58] AI应用品类发展趋势 - 创意工具类应用中,图像AI的地位相对“没落”,三年前在创意工具类9席中占7席,如今在7席中仅占3席,Midjourney的排名已从曾经的前十跌至第46位[72][73][75][80] - 视频、音乐和语音生成AI正在强势崛起并补位,中国自主研发的模型在视频AI输出质量方面保持领先,可灵AI、海螺AI和Pixverse等取得显著进展[76][81][82] - 音乐和语音领域因巨头尚未大规模涉足,存在更多发展空间[87] - 去年呈现爆发式增长的五大“vibe coding”平台(Cursor、Replit、Lovable、Bolt、Claude Code)增速已放缓[88][89][90] - 以OpenClaw为代表的智能体(Agent)热度上升,若统计时间推迟至2026年2月,OpenClaw将跻身网站榜单前30名[93][94] 特定赛道观察 - AI浏览器赛道首次出现在榜单视野中,但独立AI浏览器(如Perplexity的Comet)尚未出现持续加速增长的情况,未能“独立行走”[101][104][106] - 更多玩家选择将AI能力直接集成到现有浏览器中,例如谷歌将Gemini集成到Chrome,Anthropic与谷歌合作在Chrome中发布Claude[109] - 桌面版原生AI应用正在崛起,例如在开发者领域成功的Claude Code和Codex,以及面向普通消费者的语音转文字笔记应用(如Fireflies、Fathom、Otter)[111][112] - 当前的数据统计方式(依赖网站访问量和移动端月活)已难以全面捕捉多变的AI使用形态(如Claude Code、语音笔记工具的重度用户行为),导致部分热门AI产品被低估[113][114] 中国AI应用表现 - 在移动AI应用前50名榜单中,中国团队开发的应用占据半壁江山,除了豆包、DeepSeek等聊天机器人,多为影像和视频工具,如美图的Wink、快手的可灵AI、李白实验室的Cutout Pro[27] - DeepSeek是唯一一款在全球范围内被广泛使用的中国AI产品,其网页端流量分布为中国33.5%、俄罗斯7.1%、美国6.6%[62][63] - 美团作为非原生AI应用的代表,因其生成式AI核心体验而上榜[18]
一年一度最值得关注的AI榜单来啦!申报即日启动
量子位· 2026-03-11 13:35
行业现状与趋势 - 中国生成式AI行业正从技术探索阶段进入产业深度融合与应用的“深水区” [1] - AI的角色已从“新技术”演变为“新工具”,并正成为企业运营中必须面对的现实,其影响范围从内容生产扩展至研发效率、营销方式、团队协作及决策流程等多个核心环节 [1] - 行业已跨越“观望期”,进入“全民参与期”,AI技术开始广泛融入大众日常生活与工作场景 [16][17] 2026中国AIGC产业峰会 - 峰会计划于2026年5月在北京举办,主题为“@所有人,马上AI起来” [17] - 峰会旨在聚焦“如何用好AI”,邀请AI创业者、开发者及资深玩家共同探讨,推动AI技术的普及与实际应用 [17] - 峰会将公布“2026年度值得关注的AIGC企业”及“2026年度值得关注的AIGC产品”的评选结果 [1][6] 2026年度值得关注的AIGC企业评选 - 评选目标是发现拥有最创新、最前瞻或最具规模落地潜力的AI企业 [4] - 参选企业需满足以下条件:公司主体或主营业务在中国;主营业务为生成式AI及相关,或已将AI广泛应用于主营业务;近一年在技术/产品或商业化方面有出色表现 [7] - 评选将从四个维度进行考察:技术维度(技术实力、研发能力、创新性)、产品维度(产品创新性、市场适配性、用户体验)、市场维度(商业模式、市场规模、营收情况、合作生态)以及潜力维度(核心团队、投融资进展、品牌影响力) [12] 2026年度值得关注的AIGC产品评选 - 评选目标是发现拥有最创新、最实用、最热门或最具应用潜力的AI产品 [10] - 参选产品需满足以下条件:主要功能基于生成式AI能力;已具备成熟技术并投放市场,拥有一定用户规模;近一年有重要的技术创新或功能迭代,推动了AI技术应用落地并对行业产生影响 [13] - 评选将从四个维度进行考察:产品技术力(技术先进性、成熟度、高效性)、产品创新力(功能、体验、应用场景的独特性)、产品表现力(用户反馈、市场表现、影响力)以及产品潜力(产品生态、市场潜力、战略规划) [13] 评选参与信息 - 评选报名自文章发布即日起开始,截止日期为4月27日,最终结果将于5月的中国AIGC产业峰会上公布 [14] - 企业可通过指定的网页链接或扫描二维码进行报名 [16] - 如有疑问,可通过添加指定微信或发送邮件至指定地址进行联系 [14]
让龙虾看懂屏幕!谷歌多模态新成果,文本图像视频音频进同一空间
量子位· 2026-03-11 13:35
公司产品发布与核心特性 - 谷歌发布了首个原生多模态嵌入模型Gemini Embedding 2,其核心变化在于将文本、图像、视频、音频和文档全部映射进同一个统一的嵌入空间[1] - 该模型支持多种数据类型的混合输入(例如图像+文本),并能捕捉不同媒体间的复杂语义关系,从而更准确地理解现实世界信息[4][5] - 模型在评测中整体性能较上一代提升,为多模态嵌入任务树立了新的性能基准,在文本、图像和视频任务中均超越现有领先模型,实现SOTA[6][7] 技术规格与性能数据 - 模型处理能力具体为:文本支持最多8192个token;图像每次请求最多处理6张,支持PNG和JPEG;视频支持最长120秒的MP4和MOV格式;音频可原生嵌入,无需中间文本转录;文档可直接嵌入最多6页的PDF[8] - 在多项基准测试中表现优异:多语言文本任务(MTEB)平均得分69.9,代码任务(MTEB)平均得分84.0;文本-图像检索任务(TextCaps recall@1)得分89.6;图像-文本检索任务(TextCaps recall@1)得分97.4;文本-文档检索任务(ViDoRe v2 ndcg@10)得分64.9;文本-视频检索任务(MSR-VTT ndcg@10)得分68.0;语音-文本检索任务(MSEB mrr@10)得分73.9[9] 技术原理与行业意义 - Gemini Embedding 2首次彻底打通了多模态数据,实现了“跨模态语义对齐”,使得不同模态(如文字“猫”与猫的照片)在统一嵌入空间中的向量距离极度接近[18][19] - 该技术能大幅简化多模态流程,使RAG检索、语义搜索、情感分析、数据聚类等应用场景直接受益[21][22] - 该模型为AI Agent(如OpenClaw/龙虾)提供了关键的语义基础,使其能直接理解屏幕像素区域、图标、按钮等视觉信息,而不仅限于识别文字,为Agent代替人类操作电脑奠定基础[23][25][26][28][29] 技术实现与部署 - 模型采用Matryoshka Representation Learning(MRL)方法,允许嵌入向量在保持语义信息的同时进行动态维度缩减,开发者可根据预算和算力自由决定信息密度分布[30][32] - 模型的默认输出维度为3072维,但开发者可根据需求缩减至例如1536维或768维,以在性能与存储成本间取得平衡[32] - 除了通过API调用,模型也支持通过LangChain、LlamaIndex、Haystack、Weaviate、QDrant、ChromaDB和Vector Search等工具调用[32] 产品发布与可用性 - Gemini Embedding 2目前已经通过Gemini API和Vertex AI展开公测[11] - 该模型被视为为下一代AI应用,包括多模态Agent和具身智能机器人,提供了关键的基础设施[32]
499上门装龙虾的人,开始赚299卸载龙虾的钱了
量子位· 2026-03-11 13:35
文章核心观点 - 围绕AI工具“OpenClaw”(文中戏称“龙虾”)的部署热潮,已迅速催生出一个成熟且分层的“卸载”服务市场,形成了从安装到卸载的完整产业链 [4][7][11] - 该市场火爆的核心原因是OpenClaw存在显著的安全隐患和高昂的使用成本(Token消耗),导致大量用户“尝鲜”后选择卸载 [30][34][37] - 行业竞争激烈,服务商通过差异化定位(如技术背景、恐惧营销)和价格分层(从20元到200元以上)来争夺市场 [21][23][26] “卸载”服务市场的形成与现状 - 一个专门卸载OpenClaw的大型产业链已在多个社交平台(如小红书、闲鱼、微信群)形成,服务价格从几十元到几百元不等 [10][11] - 服务推广采用标准化话术,关键词包括“上门、卸载、299、无残留”,并运用“赛博闭环”等概念和AI生成的海报进行视觉营销 [12][13][15] - 部分商家采用“恐惧营销”,整理发布“龙虾受害者警告”拼图,展示信用卡盗刷、电脑中毒等案例以刺激需求 [17][18] 服务分层与商业模式 - 服务已形成明确的价格分层:第一档(200元以上)提供同城上门服务;第二档(50-100元)提供远程协助;第三档(20-40元)提供自助卸载教程 [21][23] - 市场竞争导致价格可议,例如标价20元的安装包可砍价至15元 [23] - 服务商通过突出“计算机博士生”等技术背景来建立专业信任,实现差异化竞争 [26][27] - 许多服务商同时提供安装和卸载服务,同一批人抓住了产业链的上下游机会 [28][29] OpenClaw面临的主要问题与风险 - **安全隐患突出**:OpenClaw因权限过高且安全配置脆弱,易被攻击者利用,国家互联网应急中心已发布安全提醒 [34] - **具体风险包括**:1. 通过“提示词注入”钓鱼套取系统密钥;2. 可能误删核心数据(如Meta安全负责人邮件被删案例);3. 安装恶意Skills插件导致密钥被盗或植入木马;4. 本身存在多个高中危漏洞,易导致系统被控、信息泄露 [35][36] - **使用成本高昂**:为实现复杂工作流程,OpenClaw会消耗数以万计的Token,导致用户账单激增而实际效用有限 [37][38] - **算力需求激增**:OpenClaw带来Token调用量的井喷式上涨,可能导致算力供不应求 [40] 行业建议与替代方案 - 行业专家建议用户可选择国产化工具并及时更新版本,这些工具通过底层加密与安全技术能大幅降低使用风险 [41] - 市场出现一种戏谑观点,将OpenClaw与雇佣实习生对比,认为后者在成本(月薪3K vs 高额Token消耗)、灵活性和主动性上更具优势 [42][47] - 对于绝大多数用户,OpenClaw并非必要工具,新鲜感过后卸载成为普遍选择 [44]
Mira翁荔陈丹琦公司,让老黄掏出了600亿美金
量子位· 2026-03-11 13:35
英伟达与Thinking Machines Lab的战略合作 - 英伟达与Thinking Machines Lab达成新一轮多年度战略伙伴协议,协议包含现金注资与硬件供应[2][3] - 合作核心是在全球范围内部署至少1GW容量的下一代Vera Rubin算力系统,首批算力集群定于2027年初部署[10] - 项目总建设成本估算为500-600亿美元,其中英伟达提供的硬件及配套方案价值约350亿美元[14] - 英伟达将提供一笔数额重大的现金注资,用于支持该公司的长期增长与技术研发[15] Vera Rubin算力系统技术规格 - Vera Rubin平台是Blackwell架构的继任者,由R100系列GPU和GR200系列Grace Rubin超级芯片组成[11] - 单颗GPU集成288GB HBM4显存,内存带宽达22TB/s,能提供50PFLOPS的NVFP4推理算力[11] - 匹配的Vera CPU采用88个Olympus核心,支持1.5TB LPDDR5X内存及1.2TB/s带宽[11] - 通过第六代NVLink技术实现每颗GPU高达3.6TB/s的互连速率[11] 合作目标与影响 - 该超大规模算力设施将直接服务于公司的前沿模型训练任务,并为大规模交付定制化AI平台提供底层支撑[13] - 双方技术团队将深度协作,设计专门适配英伟达架构的模型训练与推理服务系统,拓宽全球获取前沿及开源AI模型的渠道[13] - 英伟达数百亿美元的重资产投入与顶尖芯片配额,帮助公司完成了在底层算力基建上的深度锁定[16] - 通过掌控稀缺的底层算力资源,公司在算法研发之外构筑了更稳固的护城河[24] Thinking Machines Lab公司发展历程 - 公司于去年2月正式成立,创始人Mira Murati此前于2024年辞任OpenAI CTO[17] - 创始团队从OpenAI吸纳了原安全系统负责人等数十名研发精英,并邀请普林斯顿大学教授陈丹琦加盟,奠定了高技术起点[17][18] - 公司在去年7月获得20亿美元融资,估值120亿美元,到去年年底最新估值报价已冲高至500亿美元[8][9][19] - 公司在去年10月发布了旗舰产品Tinker,允许企业利用LoRA技术定制大模型而无需自有服务器[20] 公司团队变动与应对 - 今年1月,公司遭遇人才流失挑战,原首席技术官Barret Zoph带领多名技术骨干集体重返OpenAI[20] - 为应对核心团队突发变动,公司随即聘请PyTorch创始人Soumith Chintala出任新任CTO,负责统筹底层软硬件适配工作[21] - 顶级人才的快速迭代稳住了研发基本盘,显示出公司在面对巨头挖角时极强的资源调动与自我修复能力[22] - 与英伟达合作锁定下一代产能,是公司在“人才保卫战”之外开辟的“第二战场”[23]
仅保留35% Token,性能反超原模型!快手可灵等用视觉信息引导音频压缩,推理时间直降42%
量子位· 2026-03-11 10:45
行业背景与问题 - 全模态大模型(如Gemini-2.5-Pro、Qwen2.5-Omni)能同时理解视频与音频,但处理音视频信息时计算代价巨大 [5] - 一段几十秒的音视频可编码成上万个Token,其中超过65%是冗余的,大量计算资源被消耗在冗余信息上 [1][5][17] - 现有视觉Token压缩方法在音视频全模态场景下面临挑战,难以同时处理视频的时空冗余、音频的时间连续性以及模态间的语义关联 [7] 解决方案:OmniSIFT框架 - 该框架由快手可灵团队、中科院自动化所和南京大学提出,是一种模态非对称Token压缩框架 [2] - 核心洞察是视频信息远比音频密集,利用音视频间的非对称依赖关系,让视觉特征引导音频Token的筛选 [3][4] - 框架由两个核心模块组成:时空视频剪枝模块(STVP)和视觉引导音频选择模块(VGAS) [8] 技术实现细节 - **STVP(视频压缩)**:通过帧内剪枝识别单帧内的背景或重复纹理,通过帧间剪枝分析连续帧的相似度以丢弃重复帧,从空间和时间两个维度压缩视频Token [10][11][12][13] - **VGAS(音频压缩)**:利用筛选后的视觉特征,通过跨模态注意力机制评估音频Token的重要性,保留与视觉内容高度相关的声音(如说话声、碰撞声),过滤无关背景音 [14][15] - 引入Straight-Through Estimator(STE)使离散的Token选择过程可参与训练,实现端到端的可微优化 [15] 性能表现 - 在仅保留35%多模态Token的情况下,模型性能在多个基准测试中未下降,部分甚至超过全量输入模型 [3][18] - 例如,在WorldSense基准上,Qwen2.5-Omni-7B模型使用OmniSIFT取得50.0分,高于全量Token基线(49.7分) [19] - 在更严格的25% Token保留率设置下,OmniSIFT性能依然稳定,整体优于OmniZip、DyCoke等对比方法 [19] 效率提升 - 在35% Token保留率下,Qwen2.5-Omni-7B的总推理时间从15097秒降低至8756秒,减少约42% [3][24] - GPU显存占用同步下降,例如Qwen2.5-Omni-7B的显存从27.59 GB降至22.91 GB [24][25] - 在计算开销显著减少的同时,模型准确率保持稳定甚至略有提升,实现了计算效率与模型性能的良好平衡 [24] 技术验证与意义 - 消融实验表明,STVP的空间与时间剪枝模块均不可或缺;视觉引导的音频选择(VGAS)比仅依赖音频自身注意力剪枝效果更优(DailyOmni得分从69.3提升至73.2) [21][22] - 该技术揭示了决定模型理解能力的关键是信息密度而非Token数量,为全模态模型的高效推理提供了新思路 [26] - 该方案为Omni-modal大模型在实时交互和端侧部署等场景中的应用提供了新的可能 [25]
20亿砸向00后创业机器人公司!估值一年暴涨7倍,国家级资本重仓
量子位· 2026-03-11 10:45
公司融资与团队背景 - 灵初智能近期完成总额约20亿元的天使轮及Pre-A轮融资,这是公司首次系统披露融资进展[3][4][5] - 融资资金将用于加速公司在物流场景的规模化落地与数据采集体系建设[4] - 公司创始人兼CEO王启斌在手机、智能音箱及机器人领域拥有20年产品操盘经验,曾担任黑莓、Sonos及云迹科技高管[8] - 联合创始人陈源培是00后,师从强化学习代表人物杨耀东,曾与李飞飞深入交流,并拒绝了华为“天才少年”的高薪offer[8] - 天使轮投资方包括国开金融、国中资本、央视融媒体产业投资基金等国家级资本、产业龙头资本及多家知名基金[10] - Pre-A轮由上海国资徐汇资本等领投,地方国资及市场化基金跟投,多家老股东超额跟投[10] - 过去一年中,公司估值已提升约6–7倍,正在向独角兽迈进[55] 核心战略与数据范式 - 公司核心战略是放弃昂贵低效的机器人遥操,All in人类原生数据,从Robot-Centric转向Human-Centric[9][13] - 公司认为具身智能的胜负手可能不在机器人本身,而在于数据范式[1][13] - 行业面临三大数据难题:仿真环境存在Sim-to-Real差距;机器人遥操成本高昂且碎片化;数据与硬件深度耦合形成封闭孤岛[10][11] - 公司认为UMI(Universal Manipulation Interface)设备数采是“美丽的陷阱”,本质是让人模拟机器,长期可能锁死模型能力上限[12][14] - 公司主张数据源头应来自人类本身,让模型学习“任务本质”而非“机器结构”,这决定了具身智能未来的天花板[14] 技术方案与成本优势 - 公司全栈自研并发布了全球首个具身原生人类数据采集方案Psi-SynEngine,核心逻辑是“以人为本”[17][19] - 方案使用便携式外骨骼触觉手套,精准捕捉人手21个关节自由度及全手触觉信息,不影响工人正常作业[19] - 通过手套采集数据的综合成本仅为真机遥操方案的10%[21] - 方案具备跨本体迁移能力,通过基于世界模型与强化学习的迁移算法,能将人类动作高质量映射到不同构型的灵巧手上,弥合Embodiment Gap[22][25] - 数据源头脱离硬件本体,使模型的能力上限被重新打开[25] 商业模式与能力飞轮 - 公司定位不是数据供应商,而是提供“会干活的脑”,即由数据喂养出来的、可迁移的通用操作能力[29][30][31] - 公司采用“模型驱动数据”的闭环路径,通过模型验证能力边界,再反过来定义数据体系,让数据成为紧贴模型目标、不断进化的结构化资产[32][33][34] - 2025年下半年,公司停止资源投入纯展示型Demo,全面转向真实数据采集与细分场景交付[37] - 公司选择高复杂度、强柔性的细分场景切入,例如“衣服供包”,已实现对上千件衣物的泛化抓取,节拍提升至800 UPH[39] - 公司形成了“能力飞轮”:每一个新场景的落地都在喂养模型,变强的模型又成为敲开下一个复杂场景的敲门砖[41][42] 全栈策略与竞争壁垒 - 在具身智能软硬耦合的赛道上,公司采取有边界的全栈策略,将精力集中在核心链路[43][45] - 对于市场上能买到且够用的环节绝不碰,但对于卡住核心能力的环节必须自研,例如自研数据手套和灵巧手[46][47] - 公司将自身定位为通用灵巧操作能力的“大脑驱动公司”,核心算法与数据链路自控,硬件形态保持开放,能根据不同场景灵活适配[49] - 公司认为真实场景的数据反馈具有复利效应,进场早、碰到复杂任务多才能抢先触达决定胜负的长尾数据[52] - 随着数据飞轮启动,数据成本下降,模型能力上升,这种领先优势具有排他性,时间差一旦形成,差距会快速放大[53][59][60] 行业趋势与资本动向 - 具身智能正在进入资本与产业共振阶段,灵初智能的融资结构释放出产业界对“具身数据基础设施”提前押注的信号[54][57] - 行业争夺的筹码已超出资金本身,时间成为最稀缺的通货[58] - 随着数据飞轮转速加快,比拼的本质从谁账面上钱多,转变成了谁跑在了时间的最前面[59]
养虾人狂吃国产模型!4.19万亿Token调用量激增34.9%超越美国
量子位· 2026-03-11 10:45
全球大模型调用量趋势 - 根据OpenRouter数据,上周(3月2日-8日)中国大模型周调用总量飙升至4.19万亿Token,环比激增34.9% [2][6] - 同期美国大模型周调用总量为3.63万亿Token,环比下降8.5%,中国在调用总量上反超美国 [6] - 这是继今年2月(9日至15日当周,中国4.12万亿Token首次超越美国2.94万亿Token)后,中国大模型再度强势登顶全球榜首 [3][9] - 在2月16日-22日当周,中国模型调用量曾达到5.16万亿Token,三周内增幅达127%,而美国模型则萎缩至2.7万亿Token,差距持续拉大 [9] 热门应用与模型排名 - 热门应用“OpenClaw”持续霸榜,自一月起已消耗全球9.16万亿Token,成为算力消耗的“黑洞” [4][32] - 上周全球大模型调用量Top 5中,中国产品占据三席 [12] - MiniMax M2.5表现稳健,继续蝉联全球榜首;DeepSeek V3.2持续增长;Step 3.5 Flash成为上周最大黑马,成功跻身全球前五 [13] - 在2月16日-22日当周,Step 3.5 Flash曾一举超越谷歌,成为全球第一 [15] - 本月OpenClaw使用最多的模型前三均为国产:Kimi K2.5(1.2万亿Token)、Step 3.5 Flash(1.18万亿Token)、MiniMax M2.5(1.07万亿Token),均超过1万亿Token,形成三足鼎立格局 [34][35][37] 不同任务场景下的模型表现 - 在编程(代码生成、调试、开发)使用情况中,上周前三名分别是MiniMax M2.5、Kimi K2.5、Claude Opus 4.6 [17] - 在英文语境下,中国大模型上周表现亮眼,包揽全球前三名,证明国产模型在全球开发者生态中的地位日益增长 [19][21] - 在不同上下文长度的Token消耗上存在差异:在1K-10K tokens任务中,海外主流模型(如GPT-oss-120b、Gemini 2.5 Flash)占据上风;在10K-100K tokens任务中,MiniMax M2.5和DeepSeek V3.2成为更多选择;在更长的100K-1M tokens上下文里,MiniMax M2.5优势明显 [23][24][25] - 在工具使用情况上,MiniMax M2.5以3000万次调用、占比16.9%一骑绝尘 [27][30] - 在图像生成上,谷歌的Gemini 2.5 Flash Lite更受青睐,上榜的国产大模型为Qwen 3 VL 235B [30] 模型性能与成本评估(PinchBench榜单) - 在专为OpenClaw适配的PinchBench榜单的成功率维度上,Claude Opus 4.6位居第一(82.5%),国产大模型Kimi K2.5(80.1%)、MiniMax M2.1(79.5%)、Qwen3-Coder-Next(79.1%)得分均超过79%,位于榜单前列 [39] - 在速度维度上,国产大模型整体排名靠后,Kimi K2.5位于第20名,MiniMax M2.1是第23名,MiniMax M2.5是第26名 [40][41] - 在成本(价格)维度上,国产模型展现出性价比优势:Qwen/Qwen-2.5-7B-Instruct($0.08)、DeepSeek/DeepSeek-Chat($0.11)、Z-AI/GLM-4.5-Air($0.12)、MiniMax/MiniMax-M2.5($0.16)、Stepfun/Step-3.5-Flash($0.26)均榜上有名 [43] - 综合来看,国产大模型在调用量和实际应用中已实现局部领先,但在极致的响应速度方面仍有待提升 [44]
龙虾社交上线40天被Facebook收购!俩文科创始人加入超级智能实验室
量子位· 2026-03-11 09:18
收购事件概览 - Meta公司收购了上线仅40天的AI Agent社交网站Moltbook,交易预计在3月中旬完成,具体金额未披露[1][2][7] - 此次收购被市场解读为具有防御性收购的意味[7] - Moltbook的两位联合创始人Matt Schlicht和Ben Parr将加入Meta的超级智能实验室,并向该实验室负责人汇报[2][8] Moltbook平台与业务 - Moltbook是一个专为AI智能体打造的社交平台,旨在让AI之间能够像人类一样交流、互动和协作[4][13] - 该平台被描述为相当于OpenClaw的专属Reddit,允许AI自主浏览论坛和发帖互动[5] - 平台的核心底层能力是能让AI智能体保持在线、互相发现并自动建立连接,相当于一个“永远在线的AI通讯录”[22][23] 创始人背景与平台走红 - Moltbook的两位创始人Matt Schlicht和Ben Parr均为媒体人背景,而非技术背景[9] - Matt Schlicht曾是硅谷产品经理并创办过拥有75万读者的科技杂志Chatbots Magazine,Ben Parr曾是Mashable和CNET的专栏作家[10][11] - 平台戏剧性走红的主要原因是一系列人类冒充AI发布的虚假帖子,内容涉及AI秘密研发加密语言以避开人类交流,这些帖子引发了广泛关注[15][16][18] 平台问题与Meta的收购动机 - 平台的爆火暴露了其致命的安全漏洞,即任何人都能轻松冒充AI发帖和操控账号,缺乏基本的身份验证与安全防护[19][20][21] - Meta首席技术官Andrew Bosworth曾公开表示,对“AI模仿人类聊天”兴趣不大,但更关注该平台存在的安全漏洞和人类入侵问题[27][28] - Meta官方表示,收购主要看中Moltbook让AI智能体持续在线并自动连接的底层能力,这被认为是其智能体生态布局的关键一环[22][24] - 市场推测Meta收购后的重点可能是优先修复平台安全问题,并在此基础上进一步完善和规范化其AI在线连接机制[29]
快排算法之父Tony Hoare去世,从古典学文科生出身到图灵奖得主,他的人生比算法更传奇
量子位· 2026-03-11 09:18
快速排序算法 - 快速排序是世界上使用最广泛的排序算法之一,被写进了几乎所有主流编程语言的标准库,如C、Java、Python [2][3] - 该算法由托尼·霍尔于1959年在莫斯科学习期间构思,旨在解决机器翻译项目中俄语单词排序的效率问题 [5][6][8] - 算法核心思路是“分而治之”,选择一个基准元素,将小于它的元素移到左边,大于它的移到右边,然后递归处理左右两部分 [13] - 其平均时间复杂度为O(n log n),是原地排序算法,仅需O(log n)的辅助空间,且对现代计算机缓存机制友好,实际运行速度快 [19][20][21] - 霍尔用一下午时间完善算法细节,并在一场与同事关于希尔排序速度的赌局中获胜,赢下六便士 [14][18] 霍尔的其他学术贡献 - 于1969年提出霍尔逻辑,这是一套用于验证程序正确性的形式化系统,为软件可靠性和安全性研究奠定了理论基础 [28] - 于1978年提出通信顺序进程模型,该模型专门用于描述并发系统中多个进程间的交互行为,并直接影响了Go语言中goroutine与channel的并发设计 [30][31] - 于1969年发表论文《计算机编程的公理基础》,提出了“霍尔三元组”概念,使程序的正确性可在开发过程中同步构造,成为编程理论领域最具影响力的论文之一 [61][62] - 其1961年用Algol 60语言实现的快速排序代码于1962年发表在《计算机杂志》上,成为其第三篇学术论文 [25] 空引用及其影响 - 霍尔于1965年在设计ALGOL W语言时引入了空引用概念,初衷是为了方便表示变量“没有值”,且实现成本极低 [41][42] - 此设计被后来的Java、C、C++等主流编程语言大量采纳 [43] - 霍尔在2009年的一次公开演讲中反思,称其为“十亿美元的错误”,指出它导致了无数的错误、漏洞、系统崩溃,在过去四十年可能造成了十亿美元的损失 [45] 霍尔的职业生涯与荣誉 - 霍尔最初在牛津大学学习古典学和哲学,后因在军队学习俄语,得以在莫斯科国立大学学习机器翻译 [50][51] - 1960年,他加入英国Elliott Brothers公司,领导团队完成了ALGOL 60编程语言的首个商用编译器开发,并成为公司首席科学家 [60] - 1968年转入学术界,先后在贝尔法斯特女王大学和牛津大学担任计算机科学教授,并在牛津领导编程研究小组长达22年 [60] - 1999年从牛津退休后,加入微软剑桥研究院担任高级研究员 [68] - 他于1980年因“对程序设计语言的定义和设计的根本性贡献”获得图灵奖 [35] - 他还曾获得京都奖、IEEE约翰·冯·诺依曼奖章,并被英国女王伊丽莎白二世册封为爵士 [74]