Workflow
量子位
icon
搜索文档
马斯克星舰试验再创历史!3次爆炸3次推迟终成功,顺利完成太空载荷部署
量子位· 2025-08-27 10:24
发射试验概况 - 星舰第十次发射试验于美国中部时间26日19时36分取得圆满成功 S37飞船成功落入印度洋目标海域[1][2][44] - 本次发射采用B16发动机搭配S37飞船的组合体 目标包括扩大助推器运行范围 进行有效载荷部署和多次再入实验[10][12] - 发射过程中虽有一台发动机损失 但未影响整体飞行和着陆过程[17] 发射过程细节 - 点火后1分钟通过最大气动压力点 2分半左右助推器引擎熄火 16秒后完成船箭分离[14][18] - 助推器于6分42秒成功落入墨西哥湾预定海域 高度达2400米时展示喷火画面[20][25] - S37飞船在发射后第9分钟进行熄火准备 19分13秒成功释放首个模拟卫星载荷[24][27] 技术突破与改进 - 本次试验完成首次有效载荷部署 共释放8个载荷 并成功实现太空二次点火[30][34][35] - 第二代星舰采用电力推力矢量控制系统取代液压控制 并测试新一代防热瓦包括主动冷却金属瓦[51][52] - 针对此前燃料扩散器问题 公司重新设计结构并完成严格认证 承受超过预期使用寿命十倍的时长[55][56] 历史试验背景 - 此前三次试飞均未成功 分别因推进剂泄漏 发动机硬件故障及姿控失效等问题导致失败[53][54] - 本次发射原计划6月下旬进行 但因S36飞船静态点火测试爆炸而改用S37飞船 并经历多次天气和技术延误[45][47][49]
DeepSeek“极你太美”bug,官方回应了
量子位· 2025-08-27 10:24
核心观点 - DeepSeek V3 1模型在代码生成输出中随机出现"极"字 导致编译失败等问题 引发开发者社区广泛讨论[1][2][5] - 问题根源被推测为数据清洗不彻底 模型将"极"字作为终止符或语言切换标记学习[19][21][22] - 官方已确认将在近期版本修复该问题[12] 事件表现 - 多个平台包括火山引擎 chutes 腾讯CodeBuddy和DeepSeek官方均出现输出异常[5] - 异常表现为随机输出"extreme" "极" "極"等字符[7][8] - 问题对需要高精度 结构化输出的代码开发场景造成严重影响[11] 临时解决方案 - 通过提示词工程缓解问题 禁止特定符号序列模式[空格][token][占位符]的出现[15][18] - 该方法主要适用于调用API的第三方平台 DeepSeek官方平台暂不需要[18] 技术分析 - 类似问题曾在早期R1模型中出现 表现为枚举素数时输出"极长"作为终止符[21] - 模型在陷入thinking循环时有千分之一概率输出"极"字后终止思考[21] - 问题可能与SFT数据合成和预训练数据清洗不彻底有关[22] - 模型可能通过RAG技术学习到"极"字作为特殊标记[22]
英伟达韩松团队新作:具有后神经架构搜索的高效语言模型
量子位· 2025-08-26 16:11
模型性能表现 - 在生成吞吐量上实现最高53.6倍加速,在预填充阶段达到6.1倍加速[1] - Jet-Nemotron-2B相比Qwen3-1.7B-Base吞吐量提高47倍,缓存大小缩小至1/47[3] - 实现了比DeepSeek-V3-Small和Moonlight(共150亿参数,22亿激活参数)更高的准确率[4] - Jet-Nemotron-2B在数学任务上取得49.6的平均准确率,比Qwen3-1.7B-Base高6.3,同时速度快47倍[26] - 在常识推理任务上,Jet-Nemotron-2B平均准确率达到62.0,超越所有基线模型[30] - 在检索任务上,Jet-Nemotron-4B达到76.2的最佳平均准确率,与Qwen3相比保持21倍速度提升[34] - 在编码任务上,Jet-Nemotron-2B平均准确率59.5高于所有基线模型[37] - 在长上下文任务上,Jet-Nemotron-2B性能堪比拥有更多全注意力层的领先模型[39] 技术架构创新 - 基于后神经架构搜索(PostNAS)构建,继承预训练全注意力模型的多层感知机权重并保持冻结[6][7][9] - 通过4个步骤优化:全注意力层的放置和消除、选择线性注意力模块、设计新型注意力模块、执行硬件感知架构搜索[10][13][16][19] - 引入JetBlock新型线性注意力模块,使用卷积核生成器动态生成因果卷积核[17][18] - 硬件感知架构搜索将KV缓存大小固定为原始设计规格,对key维度、value维度和注意力头数进行网格搜索[21][22] 基准测试对比 - Jet-Nemotron-2B参数2.0B,缓存大小154MB,吞吐量2,885 token/s,MMLU准确率60.8,MMLU-Pro准确率39.0,BBH准确率58.3[5] - Jet-Nemotron-4B参数4.0B,缓存大小258MB,吞吐量1,271 token/s,MMLU准确率65.2,MMLU-Pro准确率44.2,BBH准确率65.0[5] - 在Gated DeltaNet注意力模块中实现最优整体准确率,后续实验均采用该模块[15] - 在多项任务测试中表现与Qwen3-1.7B-Base相当或更优,同时全注意力层显著减少且KV缓存规模更小[42][43] 团队背景 - 研究团队全为华人,包括来自清华大学、麻省理工学院、加州大学伯克利分校等知名院校的研究人员[44][45][49][50][51][52] - 韩松教授为麻省理工学院电子工程学院副教授,提出了深度压缩技术和高效推理机,影响NVIDIA安培GPU架构[53] - 韩松是TinyML研究先驱,创办的OmniML被英伟达收购,其团队成员加入英伟达成为杰出科学家[54] - 蔡涵为NVIDIA研究院研究科学家,拥有麻省理工学院博士学位[55] 开源计划 - 研究团队计划在GitHub上公开代码和模型,目前正等待法律合规审核[23] - 参考链接包括arXiv论文和GitHub项目页面[56]
GPT-5通关《宝可梦水晶》创纪录!9517步击败赤爷,效率碾压o3三倍!
量子位· 2025-08-26 16:11
GPT-5在《宝可梦水晶》中的性能表现 - GPT-5仅用9517步通关《宝可梦水晶》,效率远超o3的27040步(o3步数为GPT-5的2.8倍)[3][4] - 通关时间仅需202小时(约一周),而o3需近一个月,人类玩家通常需5天(每天8小时)[4][5] - 在主线任务中,GPT-5收集16枚徽章仅用9205步,o3需22334步(GPT-5效率为o3的2.4倍)[10] - 从收集徽章到击败最终boss赤爷,GPT-5仅用312步,o3需近5000步(GPT-5加速超16倍)[11] - 在四天王和冠军剧情中,GPT-5用7329步,o3用18115步(GPT-5效率为o3的2.5倍)[14] GPT-5的核心能力优势 - 幻觉显著减少,决策速度更快,成为效率提升的主因[21] - 空间推理能力更强,能规划长行动序列且几乎无错误,避免o3常见的穿墙或迷路问题[21] - 目标规划与执行能力出色,优于其他模型[21] - 通过多层信息整合(游戏截图、内存数据、文本规划)实现接近人类的决策能力[27][28] - 配备自我批评机制(Critic/Guide模型),定期评审并避免常见失败模式[33] 宝可梦游戏作为AI性能测试基准 - 游戏可衡量模型的上下文处理、决策规划及界面控制能力[29] - 需整合系统提示、游戏截图、内存信息及文本规划工具[27] - 专门构建标记地图辅助定位,模拟人类玩家的空间认知方式[32] - 但测试成本极高:通关《宝可梦红》(游戏长度仅为《水晶》一半)消耗约3500美元API费用,单token成本超4元人民币[30][31] 行业竞争与历史背景 - OpenAI联合创始人Greg Brockman公开认可GPT-5表现[18] - 此前Google Gemini 2.5 Pro于2024年5月通关《宝可梦蓝》,而Anthropic Claude仍困于剧情[23][24] - 宝可梦成为多厂商大模型性能测试的共性选择,凸显其作为复杂决策基准的价值[26]
阿里老兵造出会说话的迪迦!AI玩具单品20万销量,红杉等2亿A轮抢投
量子位· 2025-08-26 16:11
公司背景与融资 - 跃然创新(Havivi)是一家基于AIGC技术的玩具公司 由阿里前天猫精灵高管创立 专注于AI毛绒玩具赛道 [6][34] - 公司完成2亿元A轮系列融资 由中金资本旗下基金、红杉中国种子基金、华山资本等领投 资金用于新品研发、人才建设及市场拓展 [8] 产品迭代与技术升级 - 首代产品BubblePal为挂件型AI玩具 售价399元 需长按对话且仅支持2.4G WiFi 退货率较高 [9][17][26] - 第二代产品CocoMate奥特曼联名款(迪迦/赛罗)为全球首款端到端AI玩具 售价699元(较上代涨价300元) [11][17] - 技术升级包括:端到端语音模型(响应速度800ms)、4G联网、3000mAh电池(上代800mAh)、NFC卡牌系统、多音轨混音及深度思考模型 [27][33][45] - 新增遗忘机制 通过函数模型动态筛选记忆内容 避免信息过载 [47][48][49] IP战略与用户定位 - 采用"头部IP授权+艺术家签约"双模式 IP被视为玩具灵魂 首批选择迪迦/赛罗因知名度与衍生品销量最高 [14][15][16] - 目标用户为3-8岁儿童 产品通过全球安全认证 面料及电子模组均采用高规格标准 [30][31] - 未来规划两条产品线:儿童线(高知名度IP)和成人线(情绪陪伴型设备) 后者预计今年上市 [60][61][62] 市场表现与竞争壁垒 - 首代产品BubblePal销量达20万台 成为全球销售最快的AI硬件产品 [40][55] - 公司认为短期壁垒在于IP与技术体验 长期壁垒在于用户与AI建立的情感记忆 [56] - 目前同量级对手较少 但计划在出货量达100万台后推动行业生态扩张 [58] 技术细节与用户体验 - 与字节联合调试端到端语音模型 支持防噪音打断、故事不中断及古诗词专模调用 [27][28] - 通过RAG实现长期记忆 同时依据时间、频率、关联度及情绪浓度动态遗忘非关键信息 [47][48] - 角色设定强绑定世界观 确保迪迦/赛罗等IP的回答符合原生角色逻辑 [42][43]
大模型开发生态还有哪些新机遇?9月13日来外滩找答案 | 报名开启
量子位· 2025-08-26 13:46
论坛概况 - 论坛主题为AI开源时代构建全球生态与可持续增长 由蚂蚁开源与魔搭社区联合主办 将于2025年9月13日亮相上海外滩大会[1][5] - 活动设置三场主题演讲与两场圆桌讨论 聚焦大模型开源生态 Vibe Coding及AI Agent等前沿方向[1][2] - 专业观众限350个席位 目前已开放报名通道[2] 主题演讲内容 - 蚂蚁集团开源技术委员会副主席王旭将基于社区数据分析全球大模型开源生态全景与趋势 为技术决策提供中立参考[1][5] - 魔搭社区产研负责人陈颖达将分享社区汇聚9万+优质模型的实践 阐释模型即服务(MaaS)理念如何驱动开源生态螺旋式进化[1][8] - 硅基流动联合创始人杨攀将从基础设施提供商视角 解析全球开源模型生态的竞争协作格局及产业实践[1][9] 圆桌讨论方向 - 首场圆桌聚焦Vibe Coding 探讨AI如何重构软件开发全流程 包括代码生成 调试优化及架构设计等环节[11] - 次场圆桌聚焦AI Agent技术演进与AGI路径 涵盖多模态理解 长期记忆构建及动态环境适应等核心能力突破[13] - 圆桌嘉宾来自蚂蚁集团 字节跳动 光年之外 ClackyAI等机构 涵盖技术专家 产品负责人及创业者[11][13][15] 行业参与机构 - 参与机构包括蚂蚁集团 字节跳动 粤港澳大湾区数字经济研究院 光年之外 ClackyAI CAMEL-AI.org及Fellou等[2] - 论坛汇聚开源技术专家 AI行业领袖及社区先锋 旨在推动跨国界跨领域协作生态构建[5]
榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒
量子位· 2025-08-26 13:46
行业背景与挑战 - 大语言模型在行业应用中面临推理效率与显存成本的尖锐矛盾 尤其KV Cache技术成为显存消耗的主要瓶颈 每增加一个token都需要更多显存存储键值向量 制约模型规模扩张和并发能力提升 [1] 现有技术方案局限性 - Nvidia Dynamo项目采用多级缓存算法 将热数据存于显存、温数据在主机内存、冷数据在SSD或远端存储 但存在数据迁移流程复杂和延迟开销问题 [2] - 微软LMCache存储系统兼容vLLM等推理框架 但分布式存储支持度低且空间上限受限 [3] - 阿里巴巴方案将KV Cache扩展到Tair数据库 虽易于扩展存储空间 但读写性能难以满足低延迟需求 [3] 技术创新方案 - CXL高速互联技术凭借高带宽、低延迟和硬件级缓存一致性特性 为破解内存瓶颈提供新方向 但目前业界针对CXL存储加速LLM推理的研究仍较少 [5] - 中兴通讯与华东师范大学联合推出Mariana分布式共享KV存储技术 通过三项核心创新实现比现有方案高1.7倍吞吐量 尾延迟降低23% [6] - 细粒度并发控制方案将锁粒度从节点级降至条目级 通过RDMA_CAS竞争空闲槽位闩锁 显著减少写密集型和高偏斜工作负载下的争用 [8] - 定制化叶子节点数据布局采用分离式存储 Key连续存放可一次性加载至SIMD寄存器 Value与校验和另存内存块 大幅提升查找速度 [10] - 自适应缓存策略通过Count-Min Sketch算法快速感知热点数据 维护按热度排序链表 降低热点数据加载延迟 [11] 性能验证与应用 - Mariana支持将数据分布在远端CPU DRAM及PMem/SSD组成的共享内存池 理论存储空间无上限 [13] - 在vLLM框架测试中 GPU显存仅能存放50% KV数据时 Mariana多级存储方案显著提升大模型推理预加载阶段性能 [15][17] - 该技术通过硬件加速和智能缓存减少KV Cache查找的计算与网络开销 提升读吞吐量 其数据路径针对低延迟优化 延迟远低于需经远端CPU协议栈的解决方案 [19] 技术演进前景 - Mariana设计理念与底层硬件解耦 核心算法可直接从RDMA网络迁移至CXL硬件生态 仅需替换远程访问API即可利用CXL低延迟和一致性优势 [18] - 该技术重新定义大模型推理存储逻辑 使分布式存储在高吞吐与低延迟间找到平衡点 为百亿/千亿参数模型在普通硬件上高效运行奠定基础 [18]
马斯克起诉OpenAI和苹果垄断:App Store操纵排名,索赔数十亿美元
量子位· 2025-08-26 13:46
马斯克对OpenAI和苹果的反垄断诉讼 - xAI正式对OpenAI和苹果提起反垄断诉讼 指控苹果在Apple Store操纵应用排名榜单偏袒OpenAI和ChatGPT 同时打压自家Grok [1] - 诉讼指控两家公司去年签署的合作协议联手垄断AI市场 构成不正当竞争 [9] - 苹果被指控延迟应用程序更新 使Grok长期处于不利地位 [13] 苹果与OpenAI的合作协议 - 协议规定苹果将ChatGPT集成到iOS、iPadOS和macOS中 使其成为苹果设备上唯一的生成式AI聊天机器人 [10] - Siri将在必要时调用ChatGPT输出更复杂准确的回答 ChatGPT将被嵌入苹果写作工具中帮助用户起草生成内容 [11] - 基于苹果在智能手机市场的主导地位 该合作严重影响Grok对数十亿潜在用户的推广 [12] 苹果商店的排名争议 - 苹果商店铺天盖地都是ChatGPT广告 [3] - 多个榜单下ChatGPT名列前茅 其他生成式AI应用身影寥寥无几 [5] - AI应用程序推荐包含Gemini和Copilot 但没有Grok [26] - 整个商店像ChatGPT大卖场 马斯克嘲讽苹果是OpenAI旗下的公司 [28] 诉讼要求与赔偿 - xAI向OpenAI和苹果寻求数十亿美元赔偿 并要求法院认定两家公司的合作违法 [14] - 诉讼书长达61页 还暗指苹果AI创新不足 不能有效推出自家智能系统 只能靠和OpenAI捆绑销售 [15] 马斯克与OpenAI的历史矛盾 - 去年马斯克曾起诉OpenAI背弃非盈利初衷转而追求利润化 [16] - OpenAI最初作为非营利机构运营且免费提供技术 马斯克捐赠超4000万美元 [16] - 奥特曼攀上微软后将公司转向通过AGI获取商业利益 OpenA被视为微软赚钱的子公司 [17] - 马斯克大闹一场后撤诉 但未撤销未来再次起诉的权利 [19] 马斯克与苹果的历史矛盾 - 苹果造车项目疯狂挖特斯拉墙角 马斯克回击苹果是特斯拉的坟墓 苹果造车可能只造出高尔夫球车 [22] - 特斯拉濒临破产时马斯克希望讨论苹果收购可能 但库克未给见面机会 [23] - 马斯克曾公开批评苹果在App Store收取30%高昂佣金 威胁移除应用 后称误会解除 [23] 网友观察与市场反应 - 合作后AI应用榜单第一名并非全是ChatGPT DeepSeek曾强势上位 [30] - OpenAI迅速回应称诉讼和马斯克持续的骚扰模式一致 [7] - 苹果尚未对诉讼发表回应 [8]
世界首例!中国团队将基因编辑猪肺成功移植人体
量子位· 2025-08-26 13:46
研究突破 - 全球首例基因编辑猪肺成功移植至脑死亡人体并维持通气与气体交换功能达9天[1][12] - 移植肺通过六处CRISPR基因编辑沉默三个猪免疫触发糖基因并添加三个人类免疫调节蛋白基因以降低免疫风险[14][17] - 术后未出现超急性排斥反应且同步病原学监测无活跃感染迹象[21] 技术细节 - 患者接受多种免疫抑制药物包括兔抗胸腺球蛋白、利妥昔单抗、巴利昔单抗及糖皮质激素等[16][21] - 术后第3天和第6天出现抗体介导的排斥反应导致器官损伤[20] - 研究人员观察到促炎分子产生及白细胞浸润猪肺现象[18] 行业意义 - 该成果被国际专家评价为异种移植领域的里程碑[4][7] - 有望缓解全球肺移植供体短缺问题[5][9] - 异种肺移植因肺部暴露于空气及微妙的生理平衡而面临比心肾移植更大挑战[9][11] 研究背景 - 过去30年猪心瓣膜已广泛应用于人类移植但完整器官移植仍处探索阶段[9] - 此前异种移植试验限于肾脏心脏和肝脏且成效尚不显著[9] - 美国马萨诸塞总医院实验显示狒狒移植猪肺最长存活34天[23] 后续计划 - 研究团队将优化基因编辑策略与抗排异治疗方案以延长器官存活时间[13] - 计划应用无管技术减少机械通气对供体肺的损伤[13] - 需进一步临床前研究解决器官排斥和感染相关挑战[26]
英伟达咽喉上的苏州女人
量子位· 2025-08-26 13:46
公司背景与市场地位 - 英诺赛科是英伟达供应链中唯一的中国氮化镓功率半导体供应商,其出现在英伟达名单后股价单日暴涨63.64% [1][2][3] - 公司成立于2015年,从无技术、无量产经验、无客户基础的"三无"状态起步,7年内累计融资60亿元,投资方包括宁德时代(投资2亿元)、OPPO、小米等巨头 [3] - 2024年12月登陆港交所,市值达722.68亿港元,成为"中国氮化镓半导体第一股" [4][35] 技术突破与产能 - 全球首家实现8英寸硅基氮化镓晶圆量产的企业,量产进程仅用6年(业界普遍需10年以上)[30] - 2023年月产能达1.25万片晶圆,芯片累计出货量超10亿颗(2023年单年出货6.6亿颗)[31][37] - 采用IDM模式(设计-制造-封测全流程自主)和8英寸工艺,以掌握定价权并降低单位成本 [15][17][19] 市场表现与竞争格局 - 2023年全球氮化镓功率半导体市占率42.4%排名第一,2024年份额29.9%仍领先纳微半导体(16.5%)、英飞凌(10.3%)等 [31][34] - 营收从2021年6822万元增长至2023年5.93亿元,三年复合增长率超100% [31] - 客户覆盖消费电子(小米、OPPO、荣耀)、汽车(比亚迪、速腾)、激光雷达(禾赛)等140家企业 [3][95][99] 氮化镓技术优势与应用 - 氮化镓为第三代半导体材料,具备宽禁带、高电子迁移率、耐高压高温特性,比硅基器件能效更高、体积更小 [49][54][55] - 在AI数据中心应用中,可使800V直流架构输电能力提升85%、铜材需求减少45%、端到端效率提升5% [47] - 解决AI算力电力瓶颈:英伟达2027年全面转向800V架构,氮化镓芯片可缩减电感电容体积,为GPU释放主板空间 [44][56][57] 创始人与技术团队 - 创始人骆薇薇为NASA前首席科学家,专注火箭燃料燃烧研究15年,2015年放弃美国优渥待遇回国创业 [11][80][83] - 技术团队包括原LG北美总裁孙在亨、德国工程院院士Eicke Weber,CEO吴金刚为中芯国际"技术五虎"之一 [28] - 公司坚持"技术话语权"战略,通过车规级AEC-Q101认证(-40℃~125℃千小时测试)进入比亚迪供应链 [93][95] 行业趋势与增长动力 - 全球氮化镓功率半导体市场规模2023年仅18亿元(渗透率0.5%),但数据中心细分市场从2019年不足1000万元增至2023年7000万元 [61][64] - AI驱动电力系统换代:传统数据中心机架功率从千瓦级迈向兆瓦级,氮化镓器件需求爆发 [43][65] - 应用领域从充电器扩展至新能源汽车、激光雷达、储能等100多个细分场景 [52][99]