Workflow
量子位
icon
搜索文档
马斯克SpaceX背后的她:现实版钢铁侠小辣椒
量子位· 2026-01-24 13:19
SpaceX的“世纪IPO”与关键人物 - 2026年全球资本市场的头号悬念是SpaceX的“世纪IPO” [1] - SpaceX预计在2026年以1.5万亿美元的目标估值和超300亿美元的融资规模,冲击全球最大IPO纪录 [2] 格温·肖特韦尔的角色与特质 - 格温·肖特韦尔是SpaceX真正的操盘手,被称为“The Adult in the Room” [5][6] - 她具备大胆、热情、有趣、凶悍、鼓舞人心的特质,说话直接但能拿捏分寸,能与马斯克有效沟通 [10][11] - 拥有西北大学机械工程学位和应用数学硕士学位,是技术迷,但形象与刻板工程师不同 [15] 格温与马斯克的合作渊源 - 格温曾两次拒绝马斯克:第一次拒绝入职邀请,后成为SpaceX第11号员工 [16][20][22] - 第二次拒绝出任总裁,在马斯克亲自协调后接受,拉开了执掌SpaceX的序幕 [23][24][26] - 她加入时不确定能否成功,但认为若SpaceX失败,自己也不想留在该行业 [21] 格温的关键贡献:拯救公司 - 2008年猎鹰1号连续三次发射失败,公司资金耗尽,处于生死边缘 [29][30] - 猎鹰1号第四次发射成功,使公司转危为安 [30] - 格温积极推动与NASA合作,通过谈判赢得价值16亿美元的国际空间站货运合同,将公司从破产边缘拉回 [32][33] - 马斯克承认,若合同晚几个月,SpaceX将不复存在 [34] 格温与马斯克的合作关系 - 格温是马斯克最倚重的喉舌,对马斯克了解细致入微 [27][39] - 她与马斯克有相同的目标和底层逻辑(第一性原理),虽觉其想法疯狂但常证明是对的 [40][41][42][43] - 她敢于直言、指出马斯克错误,但清楚彼此界限,对外无条件支持马斯克 [44][45] - 在马斯克与外部机构(如NASA)发生矛盾时,她负责斡旋,维护商业关系 [49] - 她调节马斯克与工程师团队的关系,保护员工不被过度压榨,同时落实核心要求 [49] 格温的领导风格与公司价值 - 前SpaceX高管评价她总在公司最需要时挺身而出,是员工遇到问题时的首选处理人 [50] - 她从不居功自傲,强调公司成就是团队努力的结果 [52] - 她选择低调隐身幕后,与马斯克形成一刚一柔、一主一辅的搭档,被比作现实版钢铁侠与小辣椒 [53][54] - 在马斯克面临骚扰指控时,她展现忠诚与果断执行力,强调公司有更重要任务,并承诺调查投诉 [47] - 她认为马斯克不完美,但保持诚实并选择认同的道路是正确的 [48] 格温对当前IPO的意义 - 在SpaceX跨越资本市场的关键节点,格温的存在为动荡的市场注入了最强的定心剂 [55]
微软发布医疗时序基座模型:基于4540亿数据预训练,解决不规则采样难题
量子位· 2026-01-24 13:19
文章核心观点 - 当前医疗AI在理解生命动态演变方面存在关键能力缺失,而医疗时间序列数据是记录生命体征连续轨迹的关键[2][4] - 微软亚洲研究院推出的通用基座模型MIRA,旨在解决真实世界医疗时序数据不规则、异构性的核心难题,并展现出卓越的预测性能和零样本迁移能力[5][6] 行业现状与挑战 - 现有医疗AI(如大模型和计算机视觉)主要处理静态影像(快照)和文本(叙述),但缺乏对连续生命体征轨迹的理解能力[1][4] - 真实医疗场景(尤其是ICU)的时序数据具有多时间尺度交织、采样频率不规则的特点,这是大模型在医疗领域落地的核心障碍[9][10] - 传统方法通过插值强行对齐不规则数据,容易引入人为噪声并丢失时间动力学信息,属于削足适履[12] MIRA模型的技术创新 - 模型基于4540亿个医疗数据点进行大规模预训练,旨在学习跨场景、跨模态的生理动态模式[5][12] - 核心技术一:连续时间旋转位置编码(CT-RoPE),通过将真实连续时间戳代入计算,使模型能精准感知历史记录中的任意时间间隔变化,而非依赖离散的等距索引[14][15][16] - 核心技术二:神经常微分方程(Neural ODE)模块,通过模拟生物体内部的动力学变化,基于离散数据推导出连续时间下的潜在状态演化轨迹,从而对未来进行连续预测[17][18][19] - 模型架构接收不规则时间序列和时间戳,应用CT-RoPE编码后,通过混合专家层路由,最终由Neural ODE模块演化到任意目标时间戳以实现预测[13][14] 模型性能验证 - 在MIMIC-III、MIMIC-IV等权威数据集上评估,MIRA在关键预测任务上表现超越了现有SOTA模型[6][20] - 零样本预测能力突出:在未经过特定目标数据集训练的情况下,于分布外测试集上的表现甚至超越了部分专门训练的全监督模型,表明其学到了生理信号变化的通用规律[21] - 对稀疏数据具有高鲁棒性:无需插值预处理即可原生适配缺失值,在数据极度稀疏(仅保留30%观测点)的条件下,性能依然保持稳健,未出现显著下滑[23] - 性能数据对比:在缺失率从10%到80%的多种条件下,MIRA各版本(small, base, large)的RMSE和MAE指标均显著优于Moirai、Chronos等对比模型[24] 行业影响与未来展望 - MIRA的提出是医疗时序预测向“通用基座”时代迈进的重要探索,为解决不规则采样和异构数据难题提供了方案[25] - 该模型为医疗AI摆脱“烟囱式”开发模式提供了可能,未来医院可利用其作为底座,配合少量本地数据微调,快速获得高精度的定制化模型[25] - 此项技术为构建更智能的ICU早期预警系统、慢病管理以及通用AI助手奠定了坚实基础[25]
将登央视春晚,今年冲击IPO!苏州具身新贵魔法原子联创披露一堆新信息
量子位· 2026-01-24 09:40
公司概况与战略规划 - 具身智能创业公司魔法原子成立于2024年1月,旗下产品包括Magic Bot人形机器人系列及Magic Dog四足机器人系列 [4] - 公司宣布将登上今年央视春晚舞台,并计划在2026年冲击IPO [1][2][3] - 公司认为未来的行业竞争是资源、资金和人才之争,当前阶段的核心任务是快速跑通商业化闭环,以保障未来有强壮稳健的现金流 [10][11] - 公司希望以多元化手段吸引市场资源,支持其实现“走向全球/世界第一”的目标 [13] 产品与技术能力 - 公司产品具备多样化形态,包括人形机器人、足式机器人以及模块化产品(如加装机械臂的割草机器人、双臂咖啡机器人)[24] - Magic Bot可完成复杂动作并具拟人社交能力;Magic Dog能耐受-20℃至55℃极端环境,凭精准定位穿梭复杂场景 [5] - 公司具备软硬件全栈自研能力,调整产品矩阵效率高,一两个月就能推出新形态 [20][26] - 高性能关键模组最大扭矩达525N·m [8] - 公司在末端工具上多路线并行探索,包括两指夹爪、三指夹爪、液压夹爪、五指灵巧手 [42] - 公司判断长期来看更高自由度的末端工具(如灵巧手)是发展方向,但短期因成本过高(如特斯拉擎天柱21自由度全电驱灵巧手)不具备大规模量产条件 [43][44][50] 商业化与成本控制 - 公司已实现数据采集设备和数据本身的交易与收入,具备实际营收能力 [12] - 公司定下“万台规模下整机成本压至1万美元以下”的目标 [8] - 当出货量达到一万台级别,在11自由度的灵巧手配置下,整机成本有机会降到1万美元以内,该价格区间客户接受度较高 [41][52] - 整机降本的关键在于关节模组和核心主控芯片(目前使用英伟达Orin芯片),随着量产规模扩大,核心关键模组将最先实现快速降本 [39][40] 数据与研发优势 - 公司自有数据采集工厂,目前日采集1.6万条数据,训练模型所用数据中真实数据占比超过80% [8][15][19] - 公司强调模型训练是“有的放矢”,由真实场景需求牵引,并已早期进入真实工厂部署,积累了应对光照差异、节拍约束等工程化问题的系统级交付能力 [16][17][18] - 公司认为模型的有效性取决于数据质量而非数量 [20] 全球化布局与市场表现 - 公司从创立之初就定位为全球化品牌,而非简单的“出海”,强调完全本地化,在目标地区搭建完整的本地团队 [54][56][60][62] - 2025年,公司海外业务占比30%以上,单月峰值超过60%,并已在美国硅谷设立办公室 [8] - 公司以全球视角配置资源,预计未来中国市场销售占比将接近中国GDP占全球的比重(约17%)[58] - 不同地区需求差异明显:美国在科研、工业、物流场景落地快;欧洲导览导购类需求突出;日韩和亚太地区也有类似特征 [65][66] - 计划未来1-2年内,在1000个城市推动10000家门店落地 [8] 生产实践与挑战 - 公司团队在2023、2024年已让人形机器人进入追觅科技的洗地机工厂产线工作 [29][30] - 实践表明实验室环境与真实产线存在差距:实验室模型成功率超99%,但在产线会因环境因素(如顶光照射角度变化)导致不稳定 [32][33] - 生产节拍是现实挑战,机器人完成一次上下料需17-18秒,与熟练工人的10秒左右存在差距,直接影响产线效率 [34][35][36] 未来计划与目标 - 公司即将发布新产品,并计划在2026年3月起陆续发布新一代产品 [7][68] - 2026年各产品品类(大人形、小人形、大狗、小狗)的出货量目标均为千台级别 [67]
以最低图像分辨率斩获SOTA!全栈开源具身模型发布:3.5万小时炼出通用大脑
量子位· 2026-01-23 20:09
行业背景与核心问题 - 具身智能行业存在“马太效应”,单一硬件出货量决定数据采集上限,数据规模又直接限制模型表现,形成残酷闭环,中小型本体厂商因缺乏海量数据而面临商业化与融资困境 [1][3] - 行业长期面临数据孤立导致的训练困境,一线厂商凭借高投入建立“数据护城河”,而小厂资产规模限制了其产品专用模型的训练 [1] Being-H0.5模型概述与核心价值 - Being-H0.5是目前训练数据量最大的视觉-语言-动作模型,有望打破行业数据孤立的僵局,成为“通用底座” [2][3] - 该模型首次在复杂人形机器人本体上实现了真正意义上的跨机器人零样本技能迁移 [2] - 其核心价值在于让硬件厂商从枯燥的重复数据采集中解脱,将精力聚焦于形态创新与应用场景 [4] - 模型通过“以人为中心”的学习范式,将人类交互行为定义为物理世界的“母语”,将机器人控制信号视为“方言”,实现了低成本的跨本体泛化 [7] 训练数据:UniHand-2.0数据集 - UniHand-2.0是具身史上最大规模的“通用预训练语料库”,总时长突破3.5万小时,包含1.6万小时人类数据、1.4万小时机器人数据及5000小时通用多模态数据 [8] - 数据集总训练Token数高达1200亿,汇集了超过30种异构硬件的轨迹数据,涵盖了从工业桌面臂到高动态双足机器人在内的所有已知机器人形态 [8][10] - 该数据集在规模和多样性上比现有VLA数据集提升了至少3倍,真正终结了数据的“烟囱式”存储 [9][14] - 团队同步研发了UniCraftor人类数据采集系统,为解决人类视频标注稀缺的行业痛点提供了标准化工具 [14] 关键技术突破:统一动作空间 - 团队创新性地构建了统一动作空间框架,通过高度抽象的特征映射,将双足人形、轮式底盘、机械臂等异构硬件映射至统一的表征空间,以消弭“维度鸿沟” [16] - 这一框架打破了硬件维度的物理限制,为跨本体的联合训练与知识共享奠定了基础 [16][17] - 深度对齐过程验证了将混杂异构数据简单混合训练增益微乎其微,而深度对齐能挖掘出跨本体数据中最具价值的“通用特征” [18][19] 以人为中心的训练范式 - Being-H0.5确立了一套以人为中心的预训练范式,实现了从人类意图到机器人动作的深度对齐 [20] - 采用统一序列化建模,将人类演示、机器人轨迹与视觉文本映射为统一的多模态Token序列 [20] - 实施混合监督,对文本、离散人类动作和连续机器人轨迹分别采用Next-Token Prediction、Masked Token Prediction和Action Prediction进行差异化优化 [20] 模型架构升级 - 团队设计了Mixture-of-Flow架构,将“动作专家”解耦为学习通用“运动原语”的共享专家和负责特定形态精准执行的特化专家,实现了物理共性与硬件特性的完美解耦 [23] - 引入流形保持门控机制,确保模型在感知模糊、传感器噪声等不确定性高时能自动退回到稳健的物理先验分布,提升系统鲁棒性 [23] - 开发通用异步分块技术,使模型能够动态适配各种控制频率和通讯延迟不同的机器人硬件,实现极高兼容性 [23] 性能验证与实验结果 - 在真机测试中,Being-H0.5实现了“同一份模型权重,多本体部署”,操控PND、Unitree-G1、Franka等多种异构机器人完成了如“使用按压式喷壶浇花”等精细操控任务 [27][28] - 在LIBERO仿真评测中,Being-H0.5在仅使用224x224像素RGB图像、不使用任何辅助模态的情况下,取得了平均98.9%的成功率,超越了π‑0.5、GR00T等所有已知VLA模型 [34][35] - 在RoboCasa评测中,仅依靠224x224分辨率RGB图像,Being-H0.5取得了平均53.9%的成功率,显著超过π‑0.5、GR00T等先进VLA模型 [36] - 定量评测显示,Being-H0.5的通用版本与针对特定本体优化的专用版本性能基本持平,实现了近乎“零损耗泛化” [30][31][33] 开源策略与行业影响 - 团队决定实施全栈式深度开源,不仅公开全部模型参数,更提供完整的训练框架、评估工具及详细技术配方,以打破社区复现与创新的壁垒 [37] - 此举旨在将Being-H0.5打造成具身智能领域的公共基础设施,赋能全球开发者共建开放生态 [38] - 该模型为行业提供了一个前瞻性范式,即高质量的物理智能不一定需要堆砌昂贵的机器人集群,从根本上重塑了研发门槛,使本体厂商无需投入天文数字即可获得跨本体的通用能力 [39]
把医疗AI禁锢在严肃区间:百川M3 Plus首创“证据锚定”,幻觉率2.6%刷新全球纪录
量子位· 2026-01-23 20:09
文章核心观点 - AI正悄然成为公众日常寻医问诊的前置入口,但在严肃医疗领域,其落地需克服信任与成本两大障碍[1][5] - 百川智能通过发布循证增强医疗大模型Baichuan-M3 Plus,以极低的幻觉率和引用准确率,并结合大幅降低的成本与免费开放计划,旨在让AI成为医生可信赖的助手并惠及患者[6][7][23][24][61] 行业现状与趋势 - AI已成为普通人就医流程中的常见前置入口[1] - 医疗界对AI发展趋势的判断基本一致,年轻医生群体正积极尝试使用AI[2][4] - 国内有上千家医院和数百亿投入的专项工程正在探索AI应用[54] 百川智能医疗大模型的技术突破 - **幻觉率降至全球最低**:Baichuan-M3 Plus凭借六源循证等技术,将幻觉率降低至**2.6%**,低于业内标杆产品及部分人类医生的平均误判率[6][8][16][19] - **评测表现领先**:其前代M3版本在OpenAI的HealthBench评测集上夺得全球第一,反超GPT-5.2 High,当时幻觉率已压低至**3.5%**[11][14] - **核心技术**:采用Fact-Aware RL(事实感知强化学习)和Citation Reward Model,在训练中引入医学事实硬性约束并惩罚错误引用,让模型对幻觉产生“过敏反应”[12][13] 成本优化与可及性 - **调用成本大幅降低**:通过MoE架构优化、模型量化及Gated Eagle-3投机解码等工程优化,M3 Plus的API调用成本较上一代降低**70%**[21] - **推理效率提升**:Gated Eagle-3相较原始Eagle-3可带来约**15%**的推理吞吐量提升,从而直接压低单位请求成本[22] 创新技术:证据锚定 - **解决行业痛点**:针对医疗大模型常见的“张冠李戴”和“内容冲突”等引用不准确问题(行业常见引用准确率区间为**40%到50%**)[26][27][28] - **技术原理**:引入“证据锚定”技术,约束模型必须为每一句关键医学判断在原始证据中找到精确对应的段落,否则不应说出该结论[32][33] - **效果显著**:将模型的引用准确率从行业普遍的约**75%**提升至**95%**以上[46] - **证据来源广泛**:包括药品说明书、中英文文献、专家共识等[35][37][39] 市场推广与生态建设 - **推出“海纳百川”免费计划**:将M3 Plus以API形式永久免费开放给服务医务工作者的机构,不限Token数量,旨在推动技术普惠与行业验证[47][48][54] - **计划成本估算**:若全国**500万**医学工作者都使用,公司预计一年投入成本约**1亿元**,认为是可以接受的[56] - **用户基础**:公司专业版模型已有约**10万**医生用户,且年轻用户居多[2]
量子位编辑作者招聘
量子位· 2026-01-23 20:09
编辑部 发自 凹非寺 量子位 | 公众号 QbitAI AI热潮还在汹涌,但如果你还不知道如何参与……那为什么不来 量子位 呢? 我们是一家以 追踪AI新进展 为核心的内容平台,经过8年积累,目前拥有顶流影响力,广泛且备受认可的产业资源,以及时代风口的最佳观 测和学习生态位。 目前,我们有 三大方向 岗位招聘,希望你是 (或者能成为) 这三个方向的内容专家: 岗位均为全职,工作地点:北京中关村。 岗位面向: 加入我们,你可以获得: 以下是岗位详情: 所有岗位不同能力层级职位均在开放,欢迎结合个人履历和经验申请。 AI产业方向 岗位职责: AI产业方向 :关注基建层创新,包含芯片、AI Infra、云计算; AI财经方向 :关注AI领域创投和财报,跟踪产业链资本动向; AI产品方向 :关注AI在应用和硬件终端方向的进展。 社招:覆盖编辑、主笔、主编各个层级,按能力匹配岗位; 校招:应届毕业生,接受实习且可转正。 站在AI浪潮之巅 :第一时间接触和了解AI领域最新技术和产品,构建完整的AI认知体系。 玩转AI新工具 :将各种AI新技术、新工具应用于工作,提升工作效率和创造力。 打造个人影响力 :通过撰写独家原创内 ...
2.4万亿参数“最强文科生”,文心5.0正式版,你挺懂山东人啊?
量子位· 2026-01-23 20:09
文心大模型5.0正式版发布 - 文心大模型5.0正式版发布,其参数量高达2.4万亿,主打原生全模态能力 [1] 模型性能与基准测试表现 - 近三个月,文心5.0 Preview版在全球大模型竞技场LMArena上多次在文本榜和视觉理解榜拿下国产第一 [3] - 1月8日,ERNIE-5.0-Preview-1220以1226分登上视觉理解榜国产第一、全球Top8 [3] - 1月15日,ERNIE-5.0-0110以1460分登上文本榜国产第一、全球Top8,标志着模型已进入全球第一梯队 [3] - 在LMArena的用户反馈中,文心5.0在创意写作、复杂指令遵循、高难度理解等任务中优势明显 [5] - 根据官方40余项权威基准的综合评测,文心5.0在语言、音频、视觉理解、视觉生成等多个维度超越Gemini-2.5-Pro、GPT-5-High等模型,整体处于领先水平 [5] 核心能力展示 - **全模态理解与生成**:模型能够接收视频+文字指令,自动理解视频内容及核心交互逻辑,并拆解步骤输出详细教程 [7][8] - **风格模仿与创意写作**:模型能精准模仿特定人物(如王熙凤)的说话风格,并融合现代商业逻辑进行创造性写作 [9] - **深度知识整合与哲学思辨**:针对“活人微死”这一概念,模型能引用加缪《局外人》和谭嗣同《仁学》等不同哲学视角进行有层次、有脉络的创造性整合与串联 [15][16][17][18][21] - **高级文学创作与风格把握**:在模仿鲁迅文风的书信写作中,模型超越了简单堆砌标志性词汇,展现了深层的风格理解和情感表达 [24][25][26] - **跨语境概念创造与商业洞察**:模型能将《西游记》唐僧师徒类比为初创团队,并策划商业计划书摘要,展现其在看似不相干领域间建立映射、进行结构性对应的能力,同时精准触及当前AI行业投资人的痛点 [30][31][32][34] - **现实场景沟通与情商**:模型能为职场中的尴尬场景(如撞倒领导生日蛋糕)设计出一整套包含多种策略(玄学口彩法、幽默自嘲法、霸道总裁背锅法)的沟通方案 [35][36][37] - **稳定的视频理解与总结**:模型能直接挖掘复杂或高信息密度视频中的细节,输出高质量且稳定的总结,几乎不出现幻觉 [41][42] 核心技术架构 - **原生全模态建模**:与传统多模态模型不同,文心5.0从一开始就通过原生全模态建模,融合语言、图像、视频和音频等多模态数据进行统一训练,实现理解与生成一体化 [45][46] - **超大规模混合专家模型**:采用超大规模混合专家模型架构,总参数超过2.4万亿,通过超稀疏激活,每次推理只调用不到3%的参数,在保持强大能力的同时降低计算与推理成本 [46][47] - **强化长程任务与智能体能力**:在后训练阶段,通过大规模真实与模拟工具环境合成长程任务轨迹数据进行数据增强,并基于思维链、行动链采用端到端多轮强化学习,显著提升了模型在规划、决策和工具调用上的能力 [47][48] 训练与推理基础设施 - **飞桨全链路支撑**:百度飞桨为文心5.0的训练和推理提供全链路支撑 [49][50] - **训练端大幅提速**:依托飞桨的多项技术,文心5.0在预训练周期内提速超过240% [50] - **推理端高效部署**:飞桨设计了全模态统一多级分离推理框架,并针对MoE架构特性优化,通过多项技术实现大规模分布式部署与加速 [50] 行业竞争与应用战略 - **押注原生全模态路线**:原生全模态正成为全球AI竞争新焦点,文心5.0押注于此底层且长期的技术路径,与OpenAI的GPT-4o、Google的Gemini 3等方向一致 [51] - **全栈AI技术能力**:公司是全球为数不多的提供从芯片、云、模型到智能体应用层生态的全栈AI技术公司,形成了闭环工程体系,为长周期、高复杂度的技术路线提供了持续投入与迭代空间 [54] - **应用模型双线布局**:将文心应用模型拆分为两条线:一是面向通用产品的矩阵模型;二是针对行业场景打磨的专精模型,强调可复用、可规模化落地 [56] - **前沿技术展示与落地**:大会展示了多项前沿技术,包括基于声音Token的端到端合成大模型、5分钟超越真人的直播技术、实时交互数字人技术等,其中部分能力已进入实用场景,如服务于电商直播的罗永浩数字人 [57][58] - **技术势能转化**:文心的技术势能正被高效转化为面向产业的具体解决方案,模型价值将在实际应用场景中得到放大和验证 [58]
内存条涨速超金条!100根可换上海一套房,你的手机电脑汽车都逃不过涨价
量子位· 2026-01-23 18:25
文章核心观点 - AI服务器需求激增引发存储芯片严重供应短缺,导致DDR5等通用内存价格飙涨,并可能引发一个持续数年的超级涨价周期,对下游PC、手机、汽车等行业造成广泛成本压力 [1][4][6][15][19] 存储价格暴涨现状与市场反应 - 2025年12月,单条256G DDR5服务器内存售价超4万元,一盒(100根)总价达400万-500万元,其价值已相当于上海一套80㎡房产(总价约468万元)[1] - 自2025年下半年起,DDR5内存价格飙涨超过300%,DDR4价格也上涨150%以上 [2] - 市场报价呈现“一天一个价”的剧烈波动,被业内人士称为从业以来所见“最猛一次”涨价 [3] - 瑞银等投行指出,存储行业正进入一个“十年一遇”的严重供应短缺阶段,当前行情已超越2018年历史高点 [4] - 机构对2026年DRAM价格涨幅预测不一,花旗银行预测平均售价将同比增长88%,TrendForce预测为58% [5] 涨价核心驱动因素:AI服务器需求 - AI是引爆此次超级周期的核心变量,AI服务器对内存的需求量是普通服务器的8到10倍 [6] - 为匹配高端GPU性能,必须搭配高带宽内存HBM,这挤占了通用DRAM产能 [6] - 三星、SK海力士、美光三大存储巨头将产线资源向利润更高的HBM倾斜,导致用于PC、手机和汽车的DDR5、LPDDR5等通用内存供应急剧减少 [7][9] - AI服务器目前已消耗全球内存月产能的53%,AI客户的高价支付意愿迫使手机、PC厂商必须出同等高价才能抢到货 [9] 供应端约束与厂商策略 - 存储厂商对扩产态度极为谨慎,因2023年至2024年初的行业下行周期亏损严重,担心AI需求放缓后重蹈覆辙 [10][11] - 美光决定退出消费级业务,将全部资源集中到数据中心 [11] - SK海力士计划将约一半的通用DRAM产能转向更先进的1c制程,但这在短期内会加剧供应紧张 [11] - 尽管DDR5已成为主流,但主要厂商已停止或大幅削减DDR4产能,持续的需求导致DDR4价格异常坚挺,甚至出现价格高于DDR5的倒挂现象 [11] 下游行业影响与传导 - 存储芯片价格暴涨正在向PC、手机、汽车等下游各行业传导 [15] - 联想、戴尔等PC品牌已开始提价,消费者未来可能面临更高售价或存储容量“减配”的设备 [16] - 智能汽车行业压力明显,汽车对存储的需求已从几个GB跃升至256GB甚至TB级别,蔚来创始人李斌公开预警内存是当年最大的成本压力来源 [18] - 企业承压能力分化,苹果、华为等拥有长期协议和强大供应链管理的巨头受冲击较小,利润微薄、议价能力弱的中小企业更为难受 [18] 涨价周期持续时间预测 - 缺货的真正高峰将落在2026年第一和第二季度,届时“无论多高的价格都会有人抢购” [19] - 多家机构预测2026年上半年价格仍将维持20%以上的环比增长 [19] - 中长期看,市场普遍认为涨价周期至少持续到2026年底,TrendForce预测2026年DRAM需求同比增长26%,而供应增长仅为20%,缺口显著 [19] - 多数分析认为供需关系在2027年之前难以恢复平衡,因为新产能建设和落地需要时间,部分激进观察者认为短缺可能持续到2028年 [19] - 历史规律表明,当AI基础设施建设进入平稳期且新产能充分释放后,涨价潮将迎来回调,但时间点可能不会早于2027年 [19][20] 厂商个案:铠侠的困境 - 日本存储巨头铠侠在行业涨价背景下,第二财季净利润同比骤降超过60% [13] - 困境主因是与苹果签订了长期固定价格的移动NAND芯片供货协议,当市场现货价一个月内翻倍、合约价涨幅超50%时,铠侠仍需以协议价履约,错失超额利润 [13] - 同时,其智能设备营收占比提升,但智能手机存储芯片利润率偏低,且部分云服务商客户将采购重心从高利润SSD成品转向利润率更低的闪存芯片,进一步拖累盈利 [13] - 西部数据、希捷等同行财报表现优异,充分吃到涨价红利,铠侠表示未来将调整产品组合以改善盈利能力 [13]
VS Code现在能像Figma一样搞设计了
量子位· 2026-01-23 18:25
产品核心概念与功能 - 产品Pencil是一个基于Agent驱动的MCP画布工具,能够将Figma设计图直接转换为可运行的代码,实现了设计与开发的无缝结合[6] - 该工具采用完全开放的设计格式,直接扎根于用户的代码库中,没有黑盒或锁定情况,允许用户使用自己的工具对生成的设计文件进行读取、调试或扩展[8][10] - 在Pencil画布上进行拖拽等设计操作时,其背后的代码逻辑会实时更新,实现了设计动一下,代码跟着变的像素级对齐效果[9][31][32] 产品工作模式与应用 - 产品主要有两种应用方式:下载独立客户端并接入Claude Code进行设计;或在IDE(如VS Code)中下载插件,将Pencil和AI工具接入同一环境[11] - 用户将想法输入AI提示词窗口后,可获得临时效果图,在Pencil中手动调整模块细节,满意后由AI输出代码,即可直接在浏览器上预览[13] - 产品支持从Figma直接复制粘贴设计,且向量、文本和样式能够完整保留,实现了与Figma的完全兼容[33][34] 产品价值与行业影响 - 该产品重新定义了UI设计,将设计从存在云端的图片转变为存在Git里的逻辑,使设计文件能够像开发代码一样进行版本控制、分支和合并[24][34] - 产品实现了“设计即代码”的理念,从根本上将设计和代码绑定,用户在画布上的每一步操作都是直接对代码库中的UI描述进行修改,避免了传统流程中设计稿与最终代码货不对板的情况[30][31] - 通过案例展示,借助Pencil和Claude,用户可在10分钟内完成一个带shadcn/UI的仪表盘设计,并将其转换为可部署的Framer组件,大幅提升了开发效率[19][21]
猜AI视频,你猜你也错!只有10%的人过关了
量子位· 2026-01-23 15:44
Runway Gen-4.5模型盲测实验的核心发现 - 在1043名参与者中,仅有10%的人(99位)能在20道题(10个真实视频和10个AI生成视频)中答对15道以上,超过90%的参与者无法准确区分AI视频与真实视频[4][8][10] - 所有参与者的平均正确率仅为57.1%,仅比随机猜测的50%高出一点,表明人眼辨别能力已接近失效[11] - 实验发现,人们更容易将AI生成的视频误判为真实视频,而将真实视频错认为AI的情况则较少见[11] AI视频生成技术已达到的逼真程度 - Runway发起实验的起因是发现其自家员工也难以区分其新模型Gen-4.5生成的视频与真实视频[6] - 实验方法强调客观性,视频输出不做任何编辑或反复生成,直接展示模型的原始效果[10] - 参与者普遍对AI存在“歧视”心理,倾向于认为画质更清晰、轮廓更明确的视频是AI生成,而画面稍“糊”的更像真实拍摄,但当AI视频在画面处理上已与真实视频无异时,该判断标准失效[12][13] - 有分析认为快速镜头导致来不及抠细节是难以分辨的原因之一[14] 行业研究对AI内容辨别能力的进一步佐证 - 生物识别技术公司iProov的一项更大规模研究(涉及2000名英美消费者)得出了更极端的结论:仅有0.1%的参与者能完全正确区分所有AI内容与真实内容[22][24] - iProov研究发现,参与者判断AI合成视频的正确率比判断AI图像的正确率低了36%,表明视频比图片更具欺骗性[24] - 该研究还揭示,约20%的测试者甚至没听说过“AI生成”概念,同时有60%的测试者(尤其是18-34岁人群)对自己辨别AI的能力过度自信,与实际表现无关[25][26] - 一项针对澳大利亚高中生的测试显示,他们对21个短视频的整体辨别正确率仅为67%,与Runway的数据接近[27][28] AI视频技术发展带来的影响与趋势 - 随着模型训练数据和算力的持续增加,视频生成模型的迭代速度迅猛,人工智能产业与社会正逼近一个临界点,普通人将越来越难判断视频真伪[17][18] - 单纯依靠肉眼鉴定视频真伪的方法已经不够用[19] - 从内容创作角度看,AI视频生成效果已达到新高度,对创作者而言是利好消息[31] - 市场对更有效的AI内容辨别工具存在迫切需求[32]