Open Source
搜索文档
小米语音首席科学家:AI发展的本质就像生物进化,不开源要慢1000倍 | MEET2026
量子位· 2025-12-15 16:05
就像生物进化一样, AI"配方"的设计本质上就是一个不断试错的过程,而进化的速度,取决于"复制"一个新想法所需的时间。 在本次 量子位MEET2026智能未来大会 上,他也将开源视为AI进化的核心加速器—— 若没有开源,行业的进化速度恐怕要慢上一千倍;正是因为有了开源,技术才能像生物适应新环境一样,经历"长期停滞+瞬间爆发"的非线性 跃迁。 编辑部 整理自 MEET2026 量子位 | 公众号 QbitAI 从生物进化的漫长历程到AI技术的疯狂迭代,两者遵循着惊人相似的底层逻辑。 在探寻下一代AI架构的关键时刻,著名的"Kaldi之父"、小米集团首席语音科学家、IEEE Fellow Daniel Povey 提出: 至于如何在未来的竞争中生存,在他看来,大公司最明智的策略是"两条腿走路"—— 一边利用Transformer赋能当下的产品,一边保留资源探索未知,赌中下一个颠覆世界的机会。 为了完整体现Daniel Povey的思考,在不改变原意的基础上,量子位对演讲内容进行了翻译和编辑整理,希望能给你带来更多启发。 MEET2026智能未来大会是由量子位主办的行业峰会,近30位产业代表与会讨论。线下参会观众近 ...
刚刚,「欧洲的DeepSeek」发布Mistral 3系列模型,全线回归Apache 2.0
机器之心· 2025-12-03 08:06
产品发布概述 - Mistral AI发布新一代开放模型Mistral 3系列 包括多个模型 所有模型均采用Apache 2.0许可证发布[4] - 该系列模型发布标志着欧洲重返由中美主导的AI竞赛[4] - 公司声称Ministral模型代表同类产品中最佳性价比 Mistral Large 3跻身前沿指令微调开源模型行列[4] Mistral Large 3模型详情 - Mistral Large 3是混合专家模型 总参数量675B 激活参数41B 在3000台NVIDIA H200 GPU上从头训练[5][7] - 该模型在通用提示词上达到与市场最好指令微调开放权重模型同等水平 具备图像理解能力 在多语言对话中表现一流[7] - 在LMArena排行榜的OSS非推理模型类别中首次亮相即排名第2 在所有开放模型中排名第6[14] - 模型还有推理版本即将推出[16] Ministral 3模型详情 - Ministral 3系列针对边缘和本地用例 提供3B 8B和14B参数三种尺寸[19] - 每种尺寸均发布基础版 指令版和推理版变体 全部具备图像理解能力且采用Apache 2.0许可证[19] - 公司强调Ministral 3实现所有开源模型中最佳性价比 其指令模型性能相当或更好 同时生成token数量通常少一个数量级[22] - Ministral推理变体14B版本在AIME '25上达到85%准确率[23] 合作伙伴与部署优化 - Mistral与NVIDIA vLLM和Red Hat合作 提供更快更易用的Mistral 3[17] - 发布采用NVFP4格式的检查点 可使用vLLM在Blackwell NVL72系统及单个8×A100或8×H100节点上高效运行Mistral Large 3[17] - 所有新Mistral 3模型在NVIDIA Hopper GPU上训练 利用HBM3e内存处理前沿规模工作负载[17] - NVIDIA为DGX Spark RTX PC笔记本电脑及Jetson设备提供Ministral模型优化部署方案[18] 平台可用性与定制服务 - Mistral 3即日起可在Mistral AI Studio Amazon Bedrock Azure Foundry Hugging Face等平台使用 即将在NVIDIA NIM和AWS SageMaker上线[25] - 公司提供定制模型训练服务 为组织微调或完全适配模型以满足特定需求 确保企业级部署的AI解决方案安全高效[27] 战略背景分析 - Mistral此次全线回归Apache 2.0协议 被视为对DeepSeek激进开源策略的战略调整[28] - 发布可看作公司对DeepSeek的正面追赶 通过在MoE架构上深耕和端侧模型差异化优势 在中美巨头挤压中寻找机会[28]
阿里巴巴蔡崇信最新港大演讲:中国AI有四张底牌,美国的AI规则是错的,为什么开源一定会赢?
美股IPO· 2025-11-30 10:07
阿里巴巴的转型逻辑 - 公司转型的秘诀是始终围绕用户需求,自主培育核心业务,不依赖收购 [3] - 公司发展云计算完全是出于处理自身平台海量数据的技术自主可控需求,起点是内部使用再开放给外部客户 [8] - 对创业者的建议是优先选择有机增长而非并购,因为自身团队培养的能力DNA纯正且文化匹配 [8] 中国AI生态的战略优势 - 中国AI战略的核心目标不是模型性能,而是普及率,计划到2030年AI智能体普及率达到90% [3] - 中国电力成本比美国低40%,得益于国家电网每年900亿美元的资本支出,其电力装机容量是美国的2.6倍,新增装机容量是美国的9倍 [4] - 在中国建设数据中心的成本比美国低60% [5] - 全球几乎一半的AI科学家和研究人员拥有中国大学的学位 [6] - GPU资源的匮乏迫使中国团队在系统层面进行创新,以优化效率 [7] 开源模式与AI商业模式 - 开源模型会击败闭源模型,因其在成本、数据主权和隐私方面更符合全球大多数用户的利益 [7] - 公司的AI商业模式不依靠模型收费,而是通过提供云计算基础设施服务来实现变现 [3][7] AI时代的人才与技能 - 年轻人在AI时代需要三大核心能力:知识获取、分析思维和提问能力 [3] - 学习编程的目的不是为了操作机器,而是为了训练思维过程 [9] - 未来值得关注的专业方向包括数据科学、心理学与生物学、以及材料科学 [10] 对AI行业的宏观判断 - AI的价值在于渗透率,真正的赢家是能在自身行业和生活中最好地应用AI的一方,而非拥有最好模型的一方 [3] - AI可能存在金融市场泡沫,但技术本身是真实且具有变革性的,其发展不会重蹈互联网技术泡沫覆辙 [13] - AI将从工具变为伙伴,AGI将改变人类行为方式 [3]
“Linux真正的活不是我在干”,Linus爆料近况:近20年不做程序员、没碰过AI编程、压力全来自于“人”
猿大侠· 2025-11-23 12:11
行业技术趋势 - AI被视为提升生产力的工具,类似于编译器取代手写汇编,但不会导致程序员消失[21][24] - AI在Linux内核开发中仍处于实验阶段,尚未大规模应用[21] - AI爬虫对kernelorg等开源基础设施造成严重干扰,占用维护资源[21] - Rust语言已正式成为Linux内核组成部分,尽管花费5年时间才完成整合[13][14] 开发模式演变 - 项目维护者角色从主要说"不"转变为需要鼓励团队接受新想法[10][12] - 内核开发重点从新增功能转向持续维护和代码优化,项目周期已持续35年[9] - 每两个月发布新版本,每次发布有上千人参与,开发流程保持稳定[16] 硬件生态变化 - 行业焦点从CPU转向GPU和加速处理器,Nvidia和AMD成为重要参与者[17][19] - Nvidia在AI时代积极拥抱Linux,在Linux内核领域成为良好合作者[19] - GPU运行自有系统,Linux内核主要负责资源管理和虚拟内存等基础功能[19] 技术团队管理 - 大型开源项目需要处理人际分歧,今年出现因摩擦而移除内核组件的情况[15][16] - 维护者更关注代码稳定性,"无聊"的版本发布被视为理想状态[16] - 项目通过引入新技术如Rust来吸引新开发者加入[11] 开发工具影响 - AI代码生成工具在小型项目中效果显著,但复杂内核代码难以直接应用[22] - Vibe Coding方式让新人更容易入门编程,但生成的代码可能难以维护[23] - 现代编程工具可完成90%基础工作,但剩余10%需要专业经验[23]
openUBMC开源发展委员会成立,首批成员单位包括华为、百度等
新浪财经· 2025-11-22 00:20
行业联盟成立 - 华为计算宣布openUBMC开源发展委员会于11月21日在北京成立 [1] - 该委员会首批成员单位共计36家社区合作伙伴和用户组成 [1] 成员构成 - 创始成员涵盖科技行业多个关键领域,包括计算硬件、云计算、半导体、软件及标准制定机构 [1] - 主要成员包括华为、百度、天翼云、中移云能等云服务与互联网公司 [1] - 硬件与设备制造商包括宝德计算、长江计算、华鲲振宇、浪潮计算机、神州鲲泰等 [1] - 半导体与芯片公司包括海思、沐创集成电路、中科驭数、凌思微电子、云芯智联等 [1] - 存储与数据技术公司包括得瑞领新、力积存储、恒扬数据等 [1] - 网络与连接技术公司包括联瑞LR-LINK、网迅科技、兴汉网际、星云智联等 [1] - 软件与标准机构包括百敖软件、电子标准院、昆仑太科、软通华方等 [1]
Linus 自曝:近 20 年不做程序员,Linux 真正的活不是我在干,没碰过 AI 编程
程序员的那些事· 2025-11-20 14:15
Linux开发模式与维护者角色演变 - Linus Torvalds表示自己过去近20年已不再是程序员角色,更多担任系统技术负责人和维护者,主要工作是确保Linux内核稳定向前发展[5][8] - 其角色从过去主要拒绝激进提案转变为现在需要鼓励维护者接受新想法,例如在长期维护者反对时对新技术说“同意”[6][12] - Git版本控制系统目前也处于旁观者角色,实际开发工作由其他贡献者完成[9] Rust语言在内核中的整合进程 - Rust语言进入Linux内核已约三年时间,尽管引发代码格式争议和审查分歧,但目前已从实验阶段转变为内核正式组成部分[14][15] - 整合过程比预期耗时更长,但最终达到可接受状态,技术争议程度与其他内核开发领域相当[14][16] - 内核团队曾因人际关系冲突移除部分组件,但35年开发历史中此类事件发生频率极低[17][18] 硬件生态变化对Linux的影响 - 行业焦点从CPU转向Nvidia和AMD的加速处理器,但这些硬件通常运行专有系统而非Linux[19][20] - Linus认为GPU硬件管理属于内核上层工作,内核仍负责资源管理和虚拟内存等基础功能[21] - AI热潮促使Nvidia从20年前不关心Linux转变为积极参与内核开发,成为AI云领域的重要贡献者[21] AI技术对软件开发的影响 - AI在内核开发中仍处于实验阶段,主要用于辅助补丁管理和代码审查,尚未成为核心开发工具[23] - kernel.org网站受到AI爬虫严重干扰,同时出现AI生成的虚假漏洞报告消耗维护资源[23] - Linus本人未使用AI编程工具,认为内核代码复杂度高,AI更适合小型项目原型开发[25][26] 开发效率与职业前景展望 - AI工具被类比为编译器进化,虽提升生产力但不会取代程序员,反而可能创造新开发领域需求[27] - 现代编程工具可完成90%基础工作,但剩余10%的复杂问题仍需专业开发者解决[26][28] - 行业可能出现通过AI减少人力或利用现有资源完成更多工作的两种发展路径[28] 项目维护与社区管理 - Linux内核开发模式过去15年保持稳定,每两个月发布新版本,每次有上千人参与[11][18] - 项目维护重点是持续支持新硬件和优化核心代码,35年开发周期中未出现真正“完成”状态[10] - 社区通过邮件进行主要沟通,维护者通常只对问题反馈而不发送积极确认信息[32]
“Linux真正的活不是我在干”,Linus爆料近况:近20年不做程序员、没碰过AI编程、压力全来自于“人”
36氪· 2025-11-19 20:54
行业技术趋势与AI影响 - AI被视为一种提升生产力的工具,类似于编译器取代手写汇编,但不会导致程序员消失[21] - AI在Linux内核开发中的应用目前仍处于实验阶段,尚未完全到位[18] - AI爬虫对kernelorg等开源项目基础设施造成严重干扰,占用维护者资源[18] - Vibe Coding或AI生成代码对于新人入门和快速原型制作有积极意义,但用于正式产品维护可能效果不佳[19][20] - 行业对AI的过度炒作和数万亿美元的投入是当前热点,但期待其回归日常现实[18] Linux内核开发与维护 - Linux项目已持续35年,核心工作转向维护和持续支持,而非开发新功能[5][6] - 内核开发模式在过去15年内非常稳定,每两个月发布一次新版本,每次有上千人参与[6][12] - 项目维护者角色发生转变,从主要拒绝提案转变为有时需要鼓励接受新想法[6][7][8] - Rust语言引入内核已约三年,虽引发争议但正逐渐成为内核一部分,过程比预期更长[9][10][11] - 内核社区通过移除有问题的模块来处理分歧,在35年中这种情况很少发生但处理得当[11] 硬件生态与开源协作 - 行业硬件焦点从CPU转向Nvidia和AMD的加速处理器,但Linux仍负责系统维护和启动[13][14] - AI繁荣促使Nvidia等硬件厂商更积极地参与Linux内核开发,成为良好的开源参与者[15] - 内核与专有GPU工作负载的关系被视为用户空间应用的一种形式,内核深度参与资源管理等基础功能[14][15] - 开源不是宗教信仰,Linux之上运行商业应用和云服务是正常现象[14] 开发者角色与项目管理 - 项目领导者角色从程序员转变为技术负责人和维护者,已近20年未直接编程[1][4] - 日常工作是阅读邮件但很少回复,不回复通常意味着对进展满意[2][25] - 压力管理通过培养与工作无关的爱好实现,例如制作吉他踏板等硬件项目[23][24] - 项目成功归功于社区贡献者,而非个人功劳[4][5]
Broadcom Advances Open Ecosystem for VMware Cloud Foundation
Globenewswire· 2025-11-12 16:01
文章核心观点 - 博通公司宣布推进VMware Cloud Foundation开放可扩展生态系统,旨在为客户构建开放、适应性强的现代化私有云平台,使其能够灵活利用首选的数据中心、边缘硬件基础设施、开放网络架构和开源技术 [1] 开放硬件生态系统 - 通过新的VCF AI就绪节点、ODM自助认证以及对新边缘系统的支持,扩大开放硬件认证计划,增加OEM和ODM合作伙伴的参与度 [2] - 推出新的VCF AI就绪节点,采用预认证服务器,用于AI模型训练和推理,超微公司将成为首批认证AI就绪节点系统的OEM合作伙伴之一 [3][4] - 扩大VCF ReadyNode认证计划,允许ODM合作伙伴通过博通技术联盟计划自助认证ReadyNode,所有认证系统将确保与VMware Cloud Foundation的完全互操作性 [4] - 将支持新的边缘优化节点,用于工业、国防、零售等场景的坚固紧凑型服务器,以支持在数据生成点附近部署现代化私有云基础设施 [4] 合作伙伴协作与认证 - 超微公司成为首批将其行业领先的GPU系统认证为VCF AI就绪节点的硬件OEM之一,为客户提供从以往认证系统到最新GPU解决方案的清晰迁移路径 [3] - OVHcloud表示博通的开放认证计划支持其垂直整合战略,使其能够自助认证服务器系统,从而加速基于VMware技术的创新安全云解决方案的上市时间 [3] - 博通扩展ReadyNode认证计划将加速VMware Cloud Foundation 9在英特尔至强6平台上的部署,该组合提供更高的硬件整合度与成本优化,通过认证配置直接推动AI应用 [3] - SNUC表示其极端边缘服务器与VMware Cloud Foundation的结合,将通过自助认证加速边缘创新,帮助工业制造、医疗保健、零售和联邦政府等领域的客户最大化AI价值 [5] 开放网络战略 - 宣布新战略,通过基于标准的EVPN和BGP网络统一网络结构并简化现代化私有云中的网络运营,增强应用环境与网络之间的互操作性 [6] - 该方法使VCF与思科的Nexus One结构解决方案保持一致,为共同的客户在数据中心结构架构设计选择上带来更一致可靠的结果 [7] - VCF Networking支持SONiC,这是一个基于Linux的开源网络操作系统,可在多厂商商用交换机硬件上运行以降低成本,其模块化容器化架构可加速创新和敏捷性 [8] - 与思科的合作体现了对开放标准的共同承诺,为客户在连接、保护及扩展AI和传统关键业务工作负载时提供架构灵活性和选择 [8] 开源社区贡献 - 公司作为CNCF长期前五大贡献者积极参与Kubernetes社区,对Antrea、Cluster API、ContainerD等多个项目有贡献 [9] - 宣布VMware vSphere Kubernetes Service现已成为认证的Kubernetes AI一致性平台,这有助于客户在一致、可互操作的基础上自由创新 [9] - Linux基金会指出公司对CNCF的持续投资有助于保持Kubernetes的厂商中立性和大规模生产就绪性,尤其对于较新的AI工作负载至关重要 [10]
当全球习惯了中国技术,所谓“脱钩”就失去了根基
钛媒体APP· 2025-11-07 10:25
中国人工智能产业开源战略背景 - 中央政策高度重视人工智能发展,“十五五”建议8次提及“人工智能”,国务院8月发布《关于深入实施“人工智能+”行动的意见》[1] - 中国在人工智能全球科技竞争中坚定选择拥抱开源路线,与美国主导的闭源模式形成差异[1] 开源路线的战略意义与价值 - 开源战略有助于构建远超14亿人的全球性网络,增加人才数量和提高创新效率,打破脱钩陷阱[1][2] - 以DeepSeek为代表的优秀开源模型在全球开源社区迅速传播,吸引数以万计开发者下载使用评估贡献,将中国创新网络延伸至全球[2] - 当中国开源大模型因性能优越成本低廉被广泛采用时,其架构API接口数据格式可能成为事实上的行业标准,引导全球AI应用硬件主动适配[2] 开源对企业的具体价值体现 - DeepSeek开源带来大规模用户和间接用户,飞书微博腾讯元宝等应用接入,全球企业本地部署大模型和下游应用开发者将其作为主要模型选项[3] - DeepSeek在美国和全球一度连续登顶苹果谷歌应用商店下载榜,研究论文登上《自然》封面,成为首个经严格同行评审的主流大语言模型研究[3] - DeepSeek R1在GitHub上获得超过9万开发者关注,产生1.1万+项目副本和58个代码贡献提交申请,社区成员自发测试微调创建应用修复漏洞[3] 大模型开源的技术特点与挑战 - AI大模型开源比传统软件开源复杂,理论上需要同时开源代码模型权重和训练数据,但主流开源大模型通常只公开权重而不开源训练代码和训练数据[4] - 公开权重好比提供做好的菜,而公开训练数据和代码相当于将米其林三星厨房秘方供应链厨师团队全盘托出,会极大削弱技术和商业护城河[5] - 开源训练代码存在被滥用风险,如生成有害内容或训练偏见模型,监管方面也鼓励大模型厂商控制核心组件,开源数据还存在巨大版权和隐私风险[5] 开源策略的竞争定位与发展展望 - 开源通常是后发挑战者的最佳策略,DeepSeek通过开源在短时间内获得巨大网络规模,同时拖慢了领先闭源模型的商业化步伐[5] - 中国人工智能产业继续推进高质量开源大模型有助于提升全球竞争话语权,为构建开放包容创新的全球AI生态贡献中国智慧[6] - 开源大模型企业需审慎平衡网络规模扩张与核心技术优势保护,DeepSeek开源权重和推理代码是理性选择,但较多披露训练技术细节可能加速竞争对手追赶[6]
XPeng (NYSE:XPEV) 2025 Investor Day Transcript
2025-11-05 16:00
**涉及的公司与行业** * 公司为小鹏汽车(XPeng Motors)[1] * 行业涵盖智能电动汽车、自动驾驶、低空飞行器、人形机器人及人工智能[113][116][185][205][259] **核心观点与论据** **1 电子电气架构与智能化平台** * 最新EEA架构采用XCCP中央计算平台 算力达2,250 TOPS[10] * 通过1,000个应用共享机制实现场景化功能集成(如迎宾模式联动灯光、座椅)[6][7] * 采用双路供电冗余系统 单系统故障时冗余系统立即生效[8][9] **2 X9车型的安全与能耗优化** * X9 REEV获CNCAP五星安全认证 准备进入欧洲及海外市场[12] * 零重力座椅与ADAS信号联动 碰撞时触发座椅气囊及 recliner 系统[13] * 轻量化技术:副车架材料从钢改为铝镁合金 锻造轮毂重量降低15%[18][19] * 软件优化通过OTA提升续航15公里 主动热管理系统覆盖云、车、路三场景[21][22] **3 AI计算集群与VLA 2.0模型** * 拥有30,000张计算卡集群 AI算力达20亿TOPS[26] * VLA 2.0模型直接实现视觉到行动的转换 减少信息损失[156] * 使用1亿段视频数据训练 相当于全球65,000年极端驾驶场景总和[157] * 模型参数达720亿 每5天完成一次全周期迭代[160] **4 自动驾驶技术突破** * 窄路NGP能力提升13倍 平均每260公里接管一次[165] * 对比特斯拉FSD 13.29版本 接管率仅为后者的20%[169] * 2025年12月启动先锋用户测试 2026年Q1覆盖全部Ultra版本用户[174] * 宣布VLA 2.0开源 大众汽车成为首发客户并提名小鹏Turing AI芯片[176][177] **5 机器人业务进展** * 下一代人形机器人"铁人"计划2026年量产 配备全固态电池[225][258] * 机器人采用3颗Turing AI芯片 算力2,250 TOPS[226] * 首创VLT大模型 协调82个关节运动[227][228] * 优先商用场景(导览、接待) 暂缓家庭场景因安全与泛化能力不足[243][244] **6 飞行汽车与低空经济** * 分体式飞行汽车"陆地航母"续航10,000公里 机舱充电30分钟至80%[47][53] * 倾转翼飞行器A868原型试飞中 最高时速360公里 续航500公里[263] * 陆地航母已获7,000订单 计划2026年交付[275] * 在敦煌落地首条低空旅游航线 2026年计划扩展至200个飞行营地[270][271] **其他重要但易忽略的内容** * 公司新总部可容纳超10,000名AI、汽车、机器人领域员工[113] * 机器人开发提出"第四定律":禁止泄露人类隐私[231] * 飞行汽车工厂为全球首个量产智能飞行汽车工厂[275] * 2025年11月6日将发布X9 Kunpeng超级增程系统[288]