Workflow
AI科技大本营
icon
搜索文档
超760万元奖金悬赏,谁能徒手重构 DeepSeek 与 Kimi 的性能底层?
AI科技大本营· 2026-03-27 12:12
行业技术背景与挑战 - 大模型工程化存在“不可能三角”,即极致的推理延迟、极高的吞吐量和极大的模型规模难以同时实现[1] - 2025年DeepSeek-V3技术报告展示了新一代超大规模模型推理范式,通过MLA架构将KV Cache压缩93%,并利用MTP技术提升访存效率,实现了万亿参数模型在大规模并发下的“高吞吐、低延迟”突破[1] - 到2026年,仅依靠FP8精度和现有基础架构已难以满足爆发式的即时响应需求,大规模真实并发下每一毫秒的延迟缩减都直接关联数以亿计的算力成本与集群效能[1] 2026 AMD E2E Model Speedrun全球挑战赛概况 - AMD联手GPU MODE,豪掷110万美元总奖金发起全球竞速挑战赛,旨在寻找能深度优化底层逻辑、充分榨取AMD旗舰算力潜能的顶级开发者[2][3] - 大赛采用“预选赛+端到端决赛大考”双阶段赛制[8] - 预选赛前10名优胜者将各获得1万美金并晋级决赛[8] - 决赛晋级选手将共同瓜分100万美元现金大奖[11] 预选赛规则与任务 - 预选赛包含三大核心GPU内核极限性能调优任务,总分3750分[8] - 任务一:MXFP4 MoE,最高分值1500分[10] - 任务二:MLA Decode,最高分值1250分[10] - 任务三:MXFP4 GEMM,最高分值1000分[10] - 排名规则基于测试用例的绝对运行时间几何平均值,作品性能必须超越官方基线且排在前20名方可计分[10] - 单项得分计算公式:最大分值 × [1 - (排名分值/20)],排名对应分值0至19[10] - 总分最高前十名需经主办方独立复现结果后确定决赛席位,若遇平局以提交时间最早的内核为准[10] 决赛大考详情 - 决赛分为两条赛道:DeepSeek-R1-0528 (FP4+MTP) 与 Kimi K2.5 1T (FP4),参赛者可同时参与双线作战[12] - 赛道一:DeepSeek-R1-0528 (FP4+MTP) - 精度要求:GSM8K > 0.93,必须同时使用AMD ATOM或SGLang框架达标[13] - 性能硬门槛: - 128并发:单卡吞吐量 > 48 t/s,总吞吐量 > 6000 t/s,延迟 ≤ 22s[13] - 32并发:单卡吞吐量 > 50 t/s,总吞吐量 > 3900 t/s,延迟 ≤ 18s[13] - 4并发:单卡吞吐量 > 165 t/s,总吞吐量 > 1500 t/s,延迟 ≤ 5s[13] - 赛道二:Kimi K2.5 1T (FP4),终极大奖65万美金[13] - 精度要求:GSM8K > 0.9325,必须同时使用AMD ATOM或VLLM框架达标[13] - 性能硬门槛: - 128并发:单卡吞吐量 > 35 t/s,总吞吐量 > 5300 t/s,延迟 ≤ 24.5s[13] - 32并发:单卡吞吐量 > 65 t/s,总吞吐量 > 4500 t/s,延迟 ≤ 14.0s[13] - 4并发:单卡吞吐量 > 150 t/s,总吞吐量 > 1350 t/s,延迟 ≤ 6.0s[13] - 决赛评估在Input 8K / Output 1K标准测试负载下进行,综合考量每GPU总Token吞吐量、交互性及端到端延迟[19] - 算力支持最大TP/EP = 8的8卡节点配置,开发者可自由调优[19] - 每个并发等级根据吞吐量(权重60%)与交互性(权重40%)排名赋分,三大并发等级得分之和为决赛总分[19] 大赛时间表 - 预选赛:北京时间3月7日08:00至4月7日14:59[16] - 报名通道即将在约12天后关闭,是通往110万美元奖金池的唯一入场券[16] - 总决赛冲刺:北京时间4月8日00:00至5月16日14:59[16] - 全球颁奖典礼:5月19日,代码将正式封榜合入开源主分支[17]
信息量极大!黄仁勋最新论断:AGI已实现,OpenClaw是AI界iPhone,未来将有10亿程序员
AI科技大本营· 2026-03-26 19:18
公司发展历程与战略决策 - 公司从图形加速卡起步,通过推出CUDA打开通用计算大门,并发展为提出“AI工厂”概念的全球首个市值突破4万亿美元的科技公司,几乎重塑了整个计算产业的底层形态 [1] - 公司早期战略决策是将CUDA搭载到每一块GeForce显卡上,尽管当时成本直接上升了50%,而公司毛利率只有35%,市值一度从60-80亿美元跌至约15亿美元,但该决策被视为公司“生死存亡”的战略转折点,并最终成为当今AI计算基础设施的核心 [29][31][32][38][44] - 公司从一家功能专一的加速器公司起步,通过研发可编程像素着色器、加入IEEE标准的FP32浮点运算单元、开发Cg语言,最终走到CUDA,立志成为一家拥有自己兼容计算架构的计算公司 [27][28][29][30] - 公司认为一个计算架构的生命力取决于其装机量,因此决定将CUDA装进每年售出的数百万片GeForce GPU中,以此积累庞大的装机基础,并走进大学推广以吸引开发者 [34][36][37] - 公司靠GeForce打下江山,正是通过GeForce,CUDA才得以走进千家万户,并被科研人员和科学家所接触,为后来的深度学习革命奠定了基础 [39][40][41][42] 管理哲学与组织架构 - 公司采用“极致协同设计”方法,优化从架构、芯片、系统、软件、算法到应用的整个技术栈,包括CPU、GPU、网络、电力与散热等所有复杂组件,以解决大规模分布式计算中性能提升远超简单堆机器的问题 [9][10][12][14][16][17] - 公司首席执行官的直接汇报对象多达60人,且几乎全部具有工程背景,涵盖内存、CPU、GPU、架构、算法等各个方向的专家 [4][19][20][21][22] - 公司内部基本不进行一对一会谈,所有问题都公开讨论,让所有相关专家共同参与,以确保在讨论具体模块时,其他领域的专家也能即时提出跨领域的制约因素(如供电、内存友好性) [4][19][23][24] - 公司的组织架构设计与其所处的环境及要创造的产品紧密相关,目标是成为一套能够产出成果的机制、体系与系统,而非遵循传统的汉堡型或扁平型组织结构图 [18] - 领导方式是通过持续的逻辑推演和日常沟通,潜移默化地构建公司内外部对未来的共识,例如在正式宣布全力投入深度学习或进行重大收购(如Mellanox)前,已花费长时间进行铺垫,使决定显得理所当然 [47][48][49][50][51] 技术演进与行业趋势判断 - AI模型架构大约每六个月就会出现一种新的,而系统架构和硬件架构大约三年才迭代一次,因此必须提前预判未来两三年可能出现的技术方向 [5][65] - AI发展的规模法则已从预训练扩展至四个:预训练、后训练、推理以及智能体扩展,智能的扩张最终只取决于算力 [56][62][63] - 训练的瓶颈已从数据转变为算力,因为未来训练所用数据大部分将是合成数据,人类原生数据占比会越来越小 [57] - 推理(思考)阶段的算力需求极其密集,远比单纯的预训练(记忆与泛化)复杂,涉及逻辑推演、规划、搜索和决策 [58][59] - 下一个重要的规模法则是智能体扩展法则,智能体可以自主研究、使用工具并衍生出大量子智能体,相当于让AI实现自我复制 [60][61][62] - 有人愿意为每百万token支付1000美元的时代即将到来,这只是时间问题,智能本身是可规模化的产品,高阶智能token具有真实价值 [5][170] - OpenClaw对于智能体系统的意义,就像当年ChatGPT对于生成式AI的意义一样,是Token时代的iPhone,是历史上增长最快的应用之一 [5][80][174][177][179] 工程哲学与供应链管理 - 公司采用“光速法则”的工程哲学,即用物理极限(如光速)来检验和权衡所有设计方案的延迟、吞吐量、成本、容量等维度,追求在必要时尽可能复杂,在可能时尽可能简洁 [121][122][129] - 公司反对单纯的持续改进,主张以第一性原理从零开始重新设计,探求理论上的最快极限,而非在现有流程上进行小幅优化 [123][124][125] - 公司目前制造的是世界上最复杂的计算机,例如Vera Rubin Pod包含7种芯片类型、5种定制机柜、40个机柜、1.2万亿亿个晶体管、近2万个英伟达裸片、超过1100颗Rubin GPU、60 Exaflops算力及每秒10 PB的扩展带宽 [126] - 一个NVL72机柜就包含130万个组件、1300颗芯片,公司将超级计算机的集成工作从数据中心现场移至供应链制造环节,并以整机架形式发货 [94][96][127] - 公司需要供应链每周生产大约200个这样的Pod,并确保供应链有足够的电力(例如每周1吉瓦)用于制造和测试 [96][128] - 公司花费大量时间与上下游供应链伙伴(如台积电、ASML、内存厂商)的CEO沟通,传递行业趋势和未来需求,以引导他们进行数十亿美元级别的资本投资,共同构建未来供应链 [88][89][90][91][92][93][97] - 公司与台积电合作三十年来,业务规模高达数百上千亿美元,却没有一纸合同,建立在深厚的信任基础上 [140][142][143][144] 市场定位与竞争优势 - 公司最核心的“护城河”或竞争优势是其计算平台(尤其是CUDA)的庞大装机量,以及在此复杂系统规模下的快速执行迭代能力 [150][151][152] - 公司的第二项优势是广泛而统一的生态系统,其架构通过垂直整合和横向融合,接入了所有主要云平台、计算设备企业,并覆盖汽车、机器人、卫星、太空及各行各业 [153][154] - 公司是一家计算平台公司,进行垂直设计以优化产品,但将平台全方位开放,供其他公司整合进其产品、服务与云平台中 [53][54] - 公司对计算基本单元的认知已从单一的GPU芯片,演变为整机、集群,再到如今的吉瓦级“AI工厂”或“Token工厂” [155][156][157][158] - 公司增长的两个根本性技术原因是:计算模式从检索型文件系统转向生成型实时token处理;计算机从存储仓库转变为能创造营收的生产工厂 [168][169] - 公司未来的增长不受物理条件限制,全球GDP中用于计算的占比可能达到过去的一百倍,公司规模有望继续大幅扩张 [170][171][172] 对特定市场与技术的看法 - 中国是一个“开发者大国”,其科技产业成功源于约全球50%的AI研究人员是华人、优秀的STEM教育、内部省份间的激烈竞争、深厚的“同学”友谊纽带以及开源驱动的快速创新文化 [132][133][134] - 开源是许多行业加入AI革命的根本前提,公司通过开源AI模型(如Nemotron 3)来激活全球研究者和国家,并理解AI模型演进以更好地设计未来计算系统 [135][137][138] - 太空是处理卫星影像等海量数据的理想场所,AI必须在边缘端进行数据处理以过滤无用信息,公司GPU已成为首批进入太空的GPU,正在攻克辐射、散热、冗余设计等工程难题 [159][161][162][164][165] - 未来数据中心不应再追求“100%永久在线”,电网在99%的时间里实际负载仅为其设计峰值的60%左右,存在大量闲置电力,应通过“可优雅降级”的数据中心设计和更灵活的电力合同来利用这部分电力 [5][99][100][101][102][104] - 应对算力扩张的能源瓶颈的方法是不断优化“每秒每瓦特生成的Token数”,同时需要获取更多电力,并利用地球上闲置的电力资源 [86][87][103][166] 对同行与行业的观察 - 埃隆·马斯克是一位出色的系统级思考者,能跨越学科、质疑一切、亲临一线、并以其紧迫感带动整个供应链,从而打破思维定式并快速优化系统 [110][111][112][113][114][115][116][117] - 台积电的成功不仅在于顶尖的晶体管和封装技术,更在于其能统筹全球数百家企业动态需求的高效运营体系、兼顾技术前沿与客户服务的文化,以及所建立的无价信任 [139][140][141][142] - 以前全球只有3000万人能编程,现在这个门槛消失了,全世界10亿人都可以是“程序员”,不应为此焦虑,而应倍受鼓舞 [5] - 指望十万个智能体打造出另一个英伟达,可能性是零 [5] - 公司认为已经实现了AGI(通用人工智能) [5]
Agent重塑软件与互联网产业新范式,2026奇点智能技术大会初版日程出炉!
AI科技大本营· 2026-03-25 09:35
大会概况与核心主题 - 2026奇点智能技术大会将于4月17-18日在上海环球港凯悦酒店举行,由CSDN与奇点智能研究院联合举办 [1] - 大会由“全球机器学习技术大会”升级而来,见证了行业技术焦点从2024年的基座模型与算力竞赛,到2025年的RAG落地与AI编程工程化,再到2026年聚焦于Agent工程攻坚与商业闭环的演进路径 [1] - 大会核心观点是AI正从实验室的“高智商游戏”进化为驱动企业提质增效的核心生产力 [1] 参与机构与嘉宾阵容 - 大会云集了BAT、英伟达、AWS、微软、小红书、vLLM、京东、昆仑万维、网易等国内外顶尖机构与企业的一线AI实践者 [3] - 演讲及讨论嘉宾超过50位,覆盖了学术界、产业界及开源社区的领军人物,包括来自北京大学、上海人工智能实验室、微软亚洲研究院、NVIDIA、Google Cloud、腾讯、阿里、百度、蚂蚁集团、月之暗面等机构的专家 [9][16][21] 大会议程与核心议题 - **首日主会场**:奇点智能研究院院长李建忠将分享“Agent重塑软件与互联网产业新范式”,原阿里云副总裁黄非将分享“跨越周期看人工智能的发展”,为大会奠定聚焦Agent与落地实践的基调 [5] - **首日下午分会场**:设置四大平行专题,包括“大语言模型技术演进”、“多模态与世界模型”、“AI原生软件研发与氛围编程”以及“智能体系统与工程” [8] - **次日议程**:上午围绕“AI原生应用创新与开发实践”、“具身智能与智能硬件”、“多模态与AI+行业落地实践”、“AI Infra基础设施与运维”及“OpenClaw行业实践”展开 [15];下午则全面聚焦AI技术向真实业务场景与开源生态的“扎根”,覆盖“AI原生应用创新”、“行业落地实践”以及“开源模型与框架”等板块 [21] - **具体技术议题**:涵盖大模型在线策略蒸馏、零样本语音合成、万亿参数科学多模态模型、线性注意力、SGLang高性能推理、视频生成与世界模型、GPU编程、AI编程Agent演进、规模化Agent任务构建、微信AI搜索Agent、多模态生成模型工程实践、具身智能、vLLM编译器优化、AI Infra智能体栈、OpenClaw数字员工实践、工业场景AI工程化、大模型推理架构优化等前沿领域 [12][13][18][19][23][24] 大会产出与资源 - 大会将首次重磅首发《AI原生软件研发成熟度模型(AISMM)》白皮书,该白皮书系统定义了从L1(辅助提效)到L5(软件工厂)的五级跃迁路径,旨在为企业AI转型提供实操指南 [25] - 完成大会注册报名即可领取该白皮书 [25]
100年后 K8s 还会存在吗?创始人 Brendan Burns:它将像 Linux 一样消失在 AI 之下
AI科技大本营· 2026-03-24 18:13
Kubernetes的诞生背景与核心理念 - 核心观点:Kubernetes的诞生源于对行业趋势的现实判断,其成功的关键在于开源策略和定义新战场的能力,而非理想主义 [2][5] - 最初只是一个由几个人在不到一周(约四五天)内完成的粗糙demo,仅具备容器分发、基础负载均衡、进程自动拉起和版本升级等最基础功能 [1][12][13][14] - 项目启动的核心驱动力是吸取了MapReduce的教训:Google意识到仅发布白皮书而缺乏可运行、可部署的开源系统,将无法主导技术演进 [7] - 行业判断认为,随着软件成为关键基础设施,市场必然需要一种“自动驾驶”式的系统来管理应用部署、调度和恢复 [7] - 决定开源是基于最现实的商业考量:封闭的系统无法赢得市场,因为用户遍布不同云平台和本地机房,他们不会等待,只会自行创建替代品 [8] - 开源的根本逻辑在于,一个开源的容器编排系统必然会出现,问题的关键是由谁来主导和定义它 [9] 开源战略与商业竞争逻辑 - 开源是赢得市场的关键策略,其优势在于能够在更多环境中运行,正如Linux的成功所证明的 [8] - 对于当时并非市场第一的Google Cloud而言,将Kubernetes做成封闭的独家能力反而会失败,正确的策略是让所有人都能使用,并确保在自己的平台上体验最佳 [8] - 通过定义“容器编排”这一新战场,Google得以摆脱在虚拟机领域的追赶者角色,转而成为组织问题、定义行业语言的主导者 [10] - 这种“话语权”虽然难以量化,但至关重要,它决定了谁在定义未来和主导市场叙事 [11] - Kubernetes成功将Google置于云原生时代最核心的话语位置,尽管并未立即使其云业务成为市场第一 [11] 工程方法与原型开发哲学 - 早期原型的价值不在于优雅,而在于尽快证明概念的可行性,让一个能跑起来的系统改变讨论的性质 [14][20] - 开发方法论强调利用现有开源组件进行快速整合,而非从零造轮子,以Glue code快速构建出具备基本样子的系统 [14] - 推动创新的一个有效方法是先做出一个可运行的、哪怕粗糙的Demo,这将讨论焦点从“是否分配资源”转变为“想法是否成立、是否值得推进” [20][21] - 工程师可以从常规工作中“藏出”大约10%的精力,用于探索自己认为重要但未被明确指派的任务,许多有影响力的想法由此诞生 [16] - 接受失败是进行此类探索的前提,需要接受“试五次,成一次”的逻辑,且那一次成功的回报可能远超前四次的投入 [17] Kubernetes的演进、局限与未来 - Kubernetes在设计上没有天然不可逾越的扩展天花板,其许多组件(如API Server、调度器)可通过横向扩展(scale out)来解决压力问题 [28] - 系统真正的扩展挑战在于底层存储层(如etcd),当规模再提升一个数量级时,可能需要保留核心特性但扩展能力更强的方案来替代 [28] - 系统瓶颈会随着规模跨越数量级而发生转移,例如从受制于CPU变为受制于网络或存储 [28] - 软件的宿命是死亡,但成熟基础设施的“死亡”往往不是突然消失,而是像Linux一样,变得日益底层和隐形,成为默认存在但不再被单独讨论的基石 [5][29][30] - 在AI时代,Kubernetes很可能被埋入更深的底层,人们的注意力将转向模型、推理框架和应用接口,使其成为默认存在但非主角的系统地基 [5][32] 个人职业发展与能力构建 - 持续学习的能力比追逐热门技术方向更重要,对某个领域有热情并持续投入,比勉强学习热门领域更能培养出真正的能力 [38] - 不必过度恐惧“选错方向”,许多看似绕路的经历最终可能成为重要的养分,关键在于保持学习状态 [39] - 对于工程师,掌握将复杂想法写清楚、讲清楚的能力至关重要,这种能力在推动像Kubernetes这样的项目、争取内部支持时极为关键 [36] - 在职业发展中,越往高层级,越需要具备主动发现、提炼并推动重要项目的能力,而非等待被指派定义好的任务 [26] - 进行Side project不仅是业余爱好,更是训练主动工程视角和职业能力的重要途径 [27]
110万美元悬赏!AMD发起全球战书:谁能打破DeepSeek与Kimi的推理速度极限?
AI科技大本营· 2026-03-23 11:43
赛事概述 - 由AMD与GPU MODE联合发起一项名为“2026线上黑客松:AMD E2E Model Speedrun”的全球性AI性能优化竞赛,旨在通过极客对决定义下一代AI推理的工业标准[2][3][4] 赛事目标与意义 - 竞赛聚焦于在极高并发下突破内存墙限制,并通过优雅的代码实现最高效的算子重构,强调在AI战场中速度与吞吐量的决定性作用[2] - 参赛者的极限优化成果将有机会直接合入主流开源框架,从而影响行业标准[4] 奖金设置 - 赛事总奖金池高达110万美元[10] - 进入决赛的Top 10队伍每支保底获得1万美元奖金[5][11] - 赛道一(DeepSeek-R1-0528 FP4 + MTP)的冠军奖金为35万美元[5][11] - 赛道二(Kimi K2.5 1T FP4)的冠军奖金为65万美元[5][11] - 两大赛道独立,团队可双线作战以包揽奖金[11] 赛制结构 - 比赛采用“底层算子突围 + 端到端决赛大考”的双阶段赛制[13] - **预选赛阶段**:参赛者需对三大核心GPU算子进行极限优化,包括MXFP4 MoE(最高1500分)、MLA Decode(最高1250分)和MXFP4 GEMM(最高1000分)[14][15] - 每个内核问题的得分计算公式为:最大分值 × [1 -(排名分值/20)],排名分值从0到19[15][16] - 总分为三项内核得分之和,仅排名前20的算子可获得积分,总分排名前10的战队或个人晋级决赛[17][18] - **总决赛阶段**:Top 10选手将获得AMD提供的单节点8卡云端Instinct™ GPU集群,在指定并发度下优化两大明星模型的端到端性能[19] 决赛赛道与评判标准 - **赛道1:DeepSeek-R1-0528 FP4 + MTP** - 需在4、32、128三种并发度下同时满足吞吐量、交互性和端到端延迟的硬性指标,并保证模型精度(GSM8K ≥ 0.93)[19] - 具体性能门槛包括:在4并发时吞吐量≥1500 token/s/GPU,交互性≥165 token/s/user,E2E延迟≤22秒;在32并发时吞吐量≥3900 token/s/GPU,交互性≥50 token/s/user,延迟<18秒;在128并发时吞吐量≥6000 token/s/GPU,交互性≥48 token/s/user,延迟<5秒[20] - **赛道2:Kimi K2.5 1T FP4** - 同样需在4、32、128三种并发度下同时满足多项性能指标,并保证模型精度(GSM8K ≥ 0.93)[20] - 具体性能门槛包括:在4并发时吞吐量≥1350 token/s/GPU,交互性≥150 token/s/user,延迟≤65秒;在32并发时吞吐量≥4500 token/s/GPU,交互性≥65 token/s/user,延迟≤14秒;在128并发时吞吐量≥5300 token/s/GPU,交互性≥50 token/s/user,延迟≤24.5秒[20] - 决赛评分基于每GPU的Token Throughput(最高600分)和Interactivity(最高400分),三个并发级别总满分3000分[21] 参赛要求与成果归属 - 赛事面向AI底层优化工程师、CUDA/Triton极客、系统架构师及开源社区贡献者,支持个人或最多3人组队参赛[26] - 所有具备获奖资格的团队,其提交的代码必须在赛后2-4周内,在AMD工程师指导下向AMD官方仓库发起Pull Request并完成合并,以确保优化成果能造福AI社区[22][23] 关键时间节点 - 报名及预选赛截止时间为4月7日14:59(中国标准时间),届时将产生Top 10决赛队伍[25][26] - 决赛排位战时间为4月8日00:00至5月16日14:59[25] - 全球颁奖典礼于5月19日举行[25] 参赛资源与社区 - 参赛者需先加入AMD AI Developer Program以获取官方资源[26] - 预选赛参考内核及工具库可通过GitHub获取[27][28] - 官方鼓励参赛者加入GPU MODE Discord社区及微信比赛专属群,以获取技术支持并与全球开发者交流[5][28]
Andrew Karpathy 最新对谈:未来软件的第一客户是 Agent,软件业还剩下多少“人的位置”?
AI科技大本营· 2026-03-22 17:23
软件工程与开发范式变革 - 个人编程工作流发生剧变,从2023年12月起,编程工作分配从80%自己写代码、20%委托给Agent,转变为20%自己写、80%委托给Agent,甚至更极端[5][6] - 软件工程默认工作流与几个月前已完全不同,工程师从写单行代码转变为向多个Agent分发互不冲突的大任务,并进行审核、整合和调度[6][9] - 软件行业正按“Agent First”重构,未来许多产品将不再提供给人直接点击的UI,而是暴露足够好的API,由Agent进行编排[20][21] - 软件的第一客户可能不再是人类,而是代表人类行动的Agent[22] Agent与“龙虾”的演进 - 出现了比普通Agent更持久的“龙虾”,它并非单次对话即结束,可在后台长期运行,拥有自己的沙盒、记忆和持续性,能处理需要人类持续关注的任务[11][12] - 成功的Agent需具备三个关键要素:良好的人格感(使其像队友)、有效的记忆系统、以及将所有自动化入口统一到单一通道(如WhatsApp)[13][14][15] - Agent的应用正从代码编写扩展到智能家居等领域,例如名为“Dobby”的管家“龙虾”可整合控制家庭局域网内的多个系统,并通过自然语言交互[17][18] - 未来许多软件可能不再以独立App的形式存在,而是被Agent通过调用底层API的方式折叠掉[19] 自动化研究(AutoResearch)与能力扩展 - AutoResearch的核心目标是将研究者从循环中移除,通过设定目标、指标和边界,让Agent自动进行实验、训练和优化,以提升系统的token吞吐量[25][26] - 在已由熟练研究者手动优化的小模型上,AutoResearch仍能找到被忽略的调参组合(如weight decay、Adam betas),带来性能提升,这预示了该范式在更大规模研究中的潜力[29][30] - 研究本身的可组织方式(如program.md文件)也成为优化对象,研究对象从模型扩展到研究流程和组织结构[32][33][34] - 可考虑构建“不可信外部工作池”与“可信验证池”协作的系统,利用大量分散的不可信算力进行搜索,由可信系统进行廉价验证,这种结构可能在某些任务上超越前沿实验室[52][53][55] AI能力现状与未来趋势 - AI能力进步存在“锯齿状”不均衡,在可验证、能打分、能被强化学习优化的任务上进步飞快,但在涉及细微意图、语气等任务上表现不稳定[39][43][45] - 应预期智能出现更多“物种分化”,未来可能出现保有通用认知核心、但在特定任务上高度专门化的模型,而非追求单一模型在所有任务上都顶尖[47][49] - 闭源模型目前仍领先,但开源模型正在快速收敛,差距从约18个月缩短至约6到8个月,开源模型已能很好覆盖大量消费级和基础应用场景[67][68][70] - 数字空间(处理比特)的变革将远快于物理世界(处理原子),主要处理数字信息的职业将首先被重写[58][74][75] 行业影响与未来机会 - 软件工程需求可能因杰文斯悖论而增长,即软件生产成本下降将释放更多需求,数字空间的大量重写和重新布线可能创造更多机会[61][62] - 未来可能出现服务于Agent的“信息市场”,Agent可为获取现实世界的新数据(如照片、实验结果)而出价,从而将经济活动从数字空间延伸至物理世界[77][78][79] - 机器人及物理空间自动化变革将滞后于数字空间,但市场潜力巨大,未来重要的公司可能出现在连接数字智能与物理世界的接口层[73][76] 1. 个人能力上限被极大抬高,瓶颈从个人打字编码速度转变为如何有效串联和调度Agent能力[4][7] - 随着工具成熟,个人能启动的项目范围大幅扩大,“一人独角兽公司”的出现成为必然预期[103][104][105] 教育模式转变 - 教育接口正在变化,教学者未来可能不再直接向所有人讲授同一课程,而是将课程路径和关键点编写成“skill”脚本,由Agent进行无限耐心和定制化的解释[90][92][98] - “skill”本质是“如何教Agent去教人”的脚本,教育者的角色将更侧重于补充Agent尚无法做到的部分[94][99]
黄仁勋对话 10 位开源 AI 掌门人:未来算力将向后训练倾斜,OpenClaw 开启了现代计算机的新想象|GTC 2026
AI科技大本营· 2026-03-20 08:56
文章核心观点 - AI产业正从“模型竞争”转向“系统竞争”,未来价值创造的核心在于如何将模型整合进由工具、连接器、智能体(agent)和控制平面等构成的复杂系统,即“驾驭工程”(harness engineering) [6][10][16] - 开放模型(open models)聚合起来已是全球第二大模型群,并将在不同行业和应用中成为最大的模型群,其价值不仅在于成本,更在于为企业提供控制权、定制化和建立信任的能力 [5][65][82] - 智能体(agentic systems)时代已经开始,其标志性拐点是编码(coding)工作的自动化被验证,以及OpenClaw等项目将智能体具象化为一种大众可感知的、持续在线的计算体验 [26][33][79] - 企业部署AI的挑战正从技术能力转向治理与安全,企业需要可治理、可观测、受控的智能体系统,其部署难度远高于个人应用 [52][55][81] - 行业正形成新的产业结构:底层是前沿模型(frontier models),中间是编排(Orchestration)、驾驭工程(Harness)、智能体运行时(Agent Runtime)和控制平面(Control Plane),上层是各行业应用,周围是开放生态与企业治理的新平衡 [88][91] 黄仁勋对圆桌的定调与产业框架 - 模型是一种基础技术,如同晶体管,而非最终产品;ChatGPT是产品,而Open Model是技术底座 [10] - 产业需要超越“最强模型公司”和“应用公司”的二元叙事,关注AI软件栈中正在出现的第三类新角色 [10] - 未来不是单一模型的竞争,而是“系统模型的组合” [6] AI从模型到系统的演变 - 正在出现并壮大的第三类公司:既使用市场上最好的模型API,也在模型和智能体层面进行大量自有工作,其核心能力是组织不同模型、工具和执行流程 [11] - AI正在变成“系统”或“计算机”,其价值在于将编码、写作、多模态生成等能力组织成一个编排系统,连接各种工具、模型和资源 [14] - “驾驭工程”(Harness Engineering)成为关键,指模型周围的一切:如何连接工具、调用提示词(prompt)、使用子智能体(sub-agent)及为其分配模型,这是将模型转化为生产力的核心 [16][19][21] - 购买商业模型获得的是从芯片、编排、软件、推理到产品的整套技术栈,开放的价值在于允许他人从头到尾重新优化整个系统 [22] 智能体(Agent)时代的拐点与驱动力 - AI演进可分为三个阶段:生成式AI(Generative AI)、推理(Reasoning)、智能体系统(Agentic systems) [26] - 未来算力消耗可能从预训练(Pre-training)更多转向后训练(Post-training),因为后者是让模型获得技能、变成可落地系统的关键 [26] - 关键拐点之一是编码(coding)在去年开始真正可行,因其具备明确目标、标准化接口、可验证输出等特性,成为智能体的天然试验田,其能力正迁移至其他领域 [30][33][78] - 智能体变得可用的原因不仅是模型变强,更是模型能力、工具接口和系统工程在同一时间段完成了“对齐” [31] - 一旦模型擅长操作命令行界面(CLI)、文件(files)和工具(tools),它就获得了进入几乎所有知识工作的“通行证” [32] OpenClaw项目的象征意义与智能体内涵 - OpenClaw被视为了解智能体系统(agentic systems)的窗口,它将智能体带进大众认知,呈现了现代计算机的一种新形态 [38][49] - 智能体被定义为能够持续处理任务、调用资源、拆分步骤、在不同模型间路由并保持状态的执行系统,类似于“同事”(co-workers) [36] - OpenClaw的重要特征包括:始终在线(always-on)且主动、开始拥有可持续的“身份”、具备“记忆”并能通过代码修改自身指令 [42][43][44] - OpenClaw作为通用智能体展示了范式,但大量专用智能体(如法律、销售、编码智能体)仍不可替代,且需针对垂直场景深度定制 [44][45] - OpenClaw预示了一种新的计算机形态,其运行时(Runtime)是GPU,令牌(token)是基本消耗单位,计算将在本地与云端混合进行 [46] 企业部署智能体的核心挑战:治理与安全 - 企业部署智能体的瓶颈从能力转向治理,需要解决数据安全、权限、可观测性和统一控制平面等问题 [52][53] - 一条关键设计原则:企业通常不应允许一个智能体同时拥有“访问敏感信息”、“执行代码”和“对外通信”全部三项能力,除非它是CEO [55] - 在医疗、国防等高信任、高风险领域,开放模型因可见、可检验,更容易建立信任,这比单纯的性能差异更重要 [56][57][71] - 企业需要的是可治理的智能体,而不仅是在演示中聪明的智能体 [81] 开放模型(Open Models)的多维价值与生态 - 开放模型的价值体现在三个层面:1) 开放权重(Open Weights);2) 开放后训练与定制(Open Post-training/Customization);3) 开放研究与基础设施(Open Research/Infrastructure) [73][74][75] - 对企业而言,开放模型的核心价值在于**控制权**、**定制化**和**研发成本共享** [66][69] - 开放模型为创建高度专业化的数字专家(如心脏科专家数字孪生)提供了必要的“塑形能力”,而超大闭源模型因其固定性而难以彻底改造 [67][68][70] - 开放基础设施(如AI网格)对于前沿开放模型的持续发展至关重要,否则其发展仍会被巨额计算资本卡住 [72] 行业落地前景与未来产业结构 - 智能体将首先在**多步骤、重复性强、每一步相对可预测**的工作流中大规模落地,例如医疗领域的保险事先授权文书工作 [62][63] - 行业前沿不止于编码,视觉智能对于机器人和与现实世界交互的智能体同样关键,模型正被越来越多地部署到实体AI和机器人中 [58][59] - 前沿创新的最小单元是一个“高度聚焦、人才密集、又能拿到巨大算力”的团队,算力供给方式本身将成为产业结构的一部分 [61] - 新的产业地图正在展开:底层是前沿模型,中间层是编排、驾驭工程、智能体运行时和控制平面,上层是各行业应用,周围是开放生态与企业治理的平衡 [91] - AI工厂(AI factory/foundry)概念将愈发重要,使企业能获取所需计算资源而无须独占大量算力 [83] - 2026年将是“真实商业经济学”起飞的一年,AI从“惊艳演示”进入“可规模化经营”阶段 [86][87]
GTC 巅峰对话 Jeff Dean x Bill Dally:预训练范式已死、延迟瓶颈不在计算、谈透 AI 五年未来 | GTC 2026
AI科技大本营· 2026-03-19 10:08
行业趋势与核心变化 - 过去一年,模型在数学和编程等有可验证奖励的问题上能力进步惊人,例如Gemini在国际数学奥林匹克竞赛和ICPC编程竞赛中均获得金牌[7][8] - 基于智能体的工作流在更长时间尺度的任务上变得有效,模型可以相对自主地运行数小时甚至数天,而不再需要近距离监督[9][10] - 随着后台运行的智能体增多,超低延迟推理成为关键问题,推理延迟直接决定智能体解决问题的效率[11][12] - 推理已成为当前的重头戏,数据中心里很容易出现90%的功耗都花在推理上的情况[79][80] 硬件架构与性能优化 - 推理性能是延迟与吞吐量的权衡曲线,追求极低延迟时,大部分延迟源于通信[15][18] - 英伟达正重新设计架构以压缩通信延迟,目标是将片上通信时间从几百纳秒缩短至约30纳秒,并将片外通信的物理接口延迟降至几个时钟周期[20][21] - 通过优化,即便是相当大的模型,也能为每个用户实现每秒1万到2万个token的处理速度[23] - 训练与推理在硬件需求上差异显著:训练更吃内存容量,而推理考验计算、内存带宽、容量和通信之间的资源配比[81] - 推理内部也存在差异:预填充阶段像训练,属于密集计算型;解码阶段则为极瘦矩阵运算,是极端的带宽和延迟受限[82] - 未来硬件可能分化为针对训练/预填充、解码以及解码内部进一步细分的不同类别[82] 模型演进与算法创新 - 模型演进的一个明显方向是参数越来越大,但激活越来越稀疏,例如混合专家模型[88][89] - 注意力机制存在改进空间,以应对长上下文窗口的挑战,例如通过聚类注意力状态将复杂度降至N log N甚至更低[93][94] - 另一种有前景的架构是分层检索机制,通过多层轻量级检索从极大规模信息池中筛选出最相关部分送入上下文窗口,而非单纯扩大注意力窗口[96][97][98] - 预训练机制可能被重塑,未来模型的学习可能更深地与“在环境里采取行动”交织,并主动决定下一步学习的数据,这有望显著提高学习效率[69][70][71] - 预训练与后训练的人为边界长期看可能不会一直存在[74] 数据与算力扩展 - 对于“数据快挖完了”的观点存在不同看法,世界上仍有大量数据未被用于训练,如带音频的视频数据、机器人数据、自动驾驶数据等[56][57][58][59] - 合成数据是填补数据缺口的一条路径,可视为向系统注入算力以产生更多训练数据,本质是一种数据增强[60][61][62][67] - 通过数据增强、防止过拟合等手段,即使投入更多算力进行多轮训练迭代,模型也能持续变强且未必过拟合[67][68] AI赋能硬件与芯片设计 - AI已广泛应用于芯片设计流程,例如英伟达的NVCell系统用强化学习完成标准单元库迁移,将原本需80人月的工作缩短为一块GPU运行一夜,且结果可与人类设计打平甚至更好[103][104][105] - 强化学习系统PrefixRL用于解决加法器中的前瞻级放置问题,其设计比人类方案在面积和功耗上优20%到30%[106][107][109][110] - 专用大模型如ChipNeMo和BugNeMo,通过训练内部专有资料,可用于解答设计问题、总结错误报告和分配任务,提升工程师效率[111][112][113][116][117] - 智能体系统已开始用于架构探索,通过运行思想实验和参数空间搜索来缩小巨大的设计空间[118][119] - 长期愿景是端到端的自动化设计,可能由主智能体协调多个负责不同阶段的专门智能体完成[125] 能效与系统挑战 - 能效提升的核心原则是减少数据搬运,因为从HBM4内存读取一个NVFP4数字的能耗比执行一次乘加运算本身高约1000倍[134][135][136][137] - 关键优化思路包括让计算尽可能在SRAM附近完成,以及探索将DRAM直接堆叠在计算芯片上方,以大幅降低数据搬运的能耗和延迟[139][140][143] - 利用模型稀疏性是降低能耗的另一方向,但除了2:1结构化稀疏和MoE等粗粒度稀疏,更一般的稀疏会破坏规则性,难以在硬件上高效实现,这是一个开放问题[147][148][152][153] - 当智能体运行速度远快于人类时,为人类速度设计的工具(如C编译器)的启动时间将成为端到端延迟的硬瓶颈,未来需要重新工程化这些工具[129][130][131] 网络拓扑与互连 - 网络拓扑的选择没有绝对优劣,核心取决于业务负载和流量模式[156][158] - 对于具有强局部性的负载,低基数、直接互连的网络(如2D/3D Torus)更理想;而对于专家分散的负载(如MoE),高基数、基于交换机的网络可能更高效[156] - 混合架构是可行方案,例如局部通信采用直接互连,全局通信走专门的交换网络[156] AI的社会影响与应用前景 - AI最被看好的积极社会影响领域是教育和医疗[160][161] - 在教育方面,AI有潜力为每个人提供真正个性化的辅导老师,根据学生的学习风格和进度调整教学形式,将教学效果提升一到两个标准差[161][162][163][164][165] - 在医疗健康领域,AI可扮演个性化健康教练角色,并整合目前未被充分利用的健康监测数据、基因组信息等,帮助进行疾病预防和个性化用药[177][179][180][182] - 应拥抱AI工具,如同当年计算器进入课堂,将教育重点从机械计算转移到更高层次的理解[168][169] 公司规模与组织文化 - 公司规模从小变大后,决策速度可能变慢,官僚作风不可避免,社区感会减弱[188][189][190][192] - 大公司也带来了以前不可能拥有的规模和资源,能够承担更大的项目[193] - 组织需要持续调整,在规模扩张的同时加入恰到好处的新协作方式,避免过度官僚化[194][195]
一个大脑控制所有机器人,真的可能吗?特斯拉、Skild AI、Agility 激辩人形机器人的量产路线|GTC 2026
AI科技大本营· 2026-03-18 15:52
行业现状与核心观点 - 人形机器人行业已迈过概念验证阶段,讨论焦点从“能否做出来”转向“如何量产并部署到现实世界” [3] - 行业面临的核心挑战不再是“让机器人动起来”,而是如何实现“稳定、可靠、持续地工作” [5][8] - 各公司技术路线存在显著分歧,包括对真实数据、仿真、模型架构和通用大脑的不同看法 [6][7] 各公司发展现状与部署进展 - **Agility Robotics**:其人形机器人Digit已部署在Amazon、GXO、Schaeffler等客户的物流和制造现场,承担大宗物料搬运工作,并与丰田达成合作 [14] - **特斯拉**:其自动驾驶软件已在美国部分地区运行无人监督车队,其人形机器人Optimus被视为其自动驾驶能力向具身智能的自然延伸 [17] - **Hexagon Robotics**:其首款多用途人形机器人Aeon于2025年6月发布,已与Schaeffler、飞机制造商Pilatus以及宝马展开试点合作 [23] - **Skild AI** 与 **Physical Intelligence**:均致力于开发可控制多种机器人形态的“通用大脑”模型 [22][23] 数据策略与来源 - **Agility Robotics**:采用混合数据策略,将数据分为金字塔结构,顶层是昂贵但贴近任务的真实远程操作数据,底层是量大但相关性较弱的视频数据,在客户现场受合规限制,顶层数据最难获取 [28][29][31] - **Physical Intelligence**:强调需要“大量真实机器人在真实世界里的数据”以覆盖未来真实场景,并发现当机器人数据足够多样时,模型能更好地利用人类视频数据 [37][40] - **特斯拉**:将其在自动驾驶中积累的数据管道方法论迁移至Optimus,关键在于筛选“有学习价值的数据”,而非数据总量,其车队一天可产出相当于500年驾驶经验的数据,但仅使用其中一小部分进行训练 [44][47][48] - **Hexagon Robotics**:不仅采集机器人动作数据,还利用其环境扫描技术记录完整的360度环境上下文,以区分任务关键信息与环境噪声 [58][61] - **Skild AI**:为解决数据稀缺的“鸡生蛋”困境,在预训练阶段大量使用人类视频和仿真数据来获取规模和多样性,再通过真实数据进行微调 [70][72][77] 仿真的角色与挑战 - **特斯拉**:针对不同目的使用不同类型的仿真器,强调仿真器必须在物理上足够准确,需要真实机器人数据不断将仿真“锚定在现实”以弥补仿真与现实间的差距 [82][84][86] - **Physical Intelligence**:较少使用仿真作为主要数据来源,但将其用于系统测试、策略评估和探索分布外环境 [88][89] - **Skild AI**:仿真在预训练阶段对于获取经验和规模至关重要,尤其在移动性任务上;但在涉及复杂资产的操作任务中,真实数据重要性上升 [96] - **Hexagon Robotics**:利用其高精度数字孪生构建“现实到仿真”的反馈闭环,以测量和缩小仿真与现实差距,并发现仿真能帮助工程师发现反直觉的解决方案 [109][111][119] 模型架构与“机器人大脑” - **Physical Intelligence**:采用分层架构,可将大任务分解为小步骤,使机器人能完成长达近15分钟的任务,并允许在更高抽象层进行监督和教学 [134][136] - **Skild AI**:其“具身大脑”模型内部存在自然分层,通过在预训练阶段让模型接触多种机器人形态的数据,使其获得了类似语言模型的上下文学习能力,能快速适应未见过的机器人身体 [142][145] - **特斯拉**:坚持端到端统一模型架构,输入视频,输出实时控制,认为高层与底层决策应内生于同一系统,以应对现实世界中的长尾问题 [151][153] - **Agility Robotics**:采用明确的分层架构(任务层、技能层、控制层),认为模块化设计对于实际部署至关重要,便于混合AI学习技能与工程化技能,并适应不同的计算和延迟约束 [122][163][167] - **Hexagon Robotics**:采用“最佳组合”路线,整合现有视觉语言模型和世界模型,并转向智能体编排思路,根据环境变化实时选择最合适的模型执行任务 [172][177] 向长时运行智能体的演进 - **Agility Robotics**:智能体能力将增强其已有的机器人编排平台,使其更智能,而非推翻现有系统 [182] - **特斯拉**:认为实现长时运行智能体的前提是机器人基础智能和安全性必须首先达到阈值 [184][186] - **Physical Intelligence**:长时运行为机器人提供了持续尝试和修正的机会,这可能成为提升可靠性并跨越实用门槛的关键 [188][190] - **Hexagon Robotics**:关注机器人舰队间的点对点经验共享,即一台机器人习得的新方法如何快速同步给整个舰队 [192] - **Skild AI**:指出机器人落地的“最后一公里”难度极大,应用场景的容错度将决定落地路径和节奏 [194][197]
OpenClaw、Agent 企业级落地……2026 奇点智能技术大会硬核议题发布
AI科技大本营· 2026-03-17 16:27
行业现状与趋势 - 行业正经历从"技术试水"向"工程范式跃迁"的演进,大模型与智能体深度融入生产环境 [2] - 行业进入由智能体驱动、自动化程度极高的新周期,但与之匹配的工程规范、安全体系、组织形态等尚未准备好 [2] - 技术发展呈现"技术狂奔,治理滞后;效率飙升,风险暗涌;愿景宏大,现实骨感"的特点 [1] 大语言模型技术演进 - 大模型赛道已过"盲目拼参数"的蛮荒时代,技术决策者面临如何让模型在大规模业务中真正运行的现实拷问 [7] - 该专题旨在构建一套完整的大模型技术演进新坐标,汇集了来自奇点智能研究院、新浪微博、微软亚洲研究院等机构的顶尖学者与技术专家 [7] 智能体系统与工程 - 该专题旨在告别"盲盒式"开发,掌握构建可靠智能体的工程方法 [13] - 微信分享了在超高并发下构建可靠AI搜索智能体的实战经验 [16] - 美团与Macaron AI分享了如何通过低成本强化学习、十万级沙盒基建等手段,让智能体摆脱对人工编排上下文的依赖,实现自我进化 [16] - 专家将交付一套覆盖感知、推理、协作等六大维度的智能体顶层架构设计图纸 [16] OpenClaw行业实践 - 该专题聚焦从"全民养虾"到企业级"数字员工"的落地实践,提供从算力适配、记忆构建到产品级改造的完整指南 [17] - 腾讯云将分享打造全民AI工作台的经验,网易有道将复盘其智能体产品的养成与实践 [19] - 记忆张量MemTensor将揭秘如何让智能体学会持久化记忆管理,实现经验与上下文的高效复用 [20] - 沐曦股份将从底层GPU算力出发分享数字员工实践,MiniMax将展示国产大模型如何与开源框架深度绑定释放生产力 [20] AI基础设施与运维 - 该专题旨在用智能体思想重塑运维体系,提供面向多GPU集群的自动化运维破局方案 [21] - 无问芯穹将直击万卡集群痛点,分享基于智能体基础设施的AIOps智能体系统实践 [24] - 清程极智将提出以智能体为中心的智能软件栈,让基础设施具备自我感知与修复能力 [24] - 北京智源人工智能研究院将解析大模型框架多芯片统一高效插件体系,以跨越异构算力适配鸿沟 [24] - 昆仑芯将从国产高端AI芯片视角探讨推理框架的极致优化,清微智能将分享可重构计算超节点的探索与实践 [24] - 启元实验室将从国家级实验室视角,给出算力与数据智能融合的顶层解法 [24] AI原生应用创新与开发实践 - 该专题旨在将AI从"酷炫玩具"变成"商业摇钱树",拆解日活千万级和估值亿级AI应用的工程实践 [25] - 小红书将拆解下一代非线性视频剪辑的架构设计,构建可落地的智能剪辑智能体 [28] - 平安科技将分享在复杂医疗场景下破局大模型落地"不可能三角"的多智能体实战经验 [28] - 商汤科技将揭秘AI PPT在线编辑系统如何通过HTML结构化输出与自研渲染引擎实现稳定闭环 [28] - AWS将直击ROI痛点,分享Inference-Free稀疏搜索等降本增效的平衡术 [28] - Dify将分享如何用严谨的系统工程构建"可执行、可治理、可复用"的AI工作流体系 [28] AI+行业落地实践 - 该专题聚焦将大模型转化为实打实业务ROI的方法论,回应"能给公司赚多少钱、省多少人力"的灵魂拷问 [29] - 小红书将拆解如何用自适应强化学习驱动AI搜索智能体,在极高并发流量中准确理解用户意图以实现业务增长 [32] - 京东将分享如何利用大模型结合因果推断,让智能体掌握动态定价权,从传统预测迈向反事实建模 [32] - 蚂蚁集团将从金融风控视角剖析大模型在企业信用等高壁垒场景下的可信落地与价值重塑 [32] - 金山办公将复盘多模态模型在文档理解与图片翻译等智能办公体系的探索与实践 [32] - 百度将展示经典OCR技术如何与大模型结合持续进化,打通企业数字化转型的视觉通道 [32] AI原生软件研发与氛围编程 - 该专题旨在将AI从"代码补全器"升级为"软件研发的操作系统",提升团队整体交付效能与工程质量 [33] - 快手将分享研发范式如何从L1单点辅助向L3深度协同跨越,并复盘如何在万人规模研发团队中实现体系化的研发效率跃迁 [37] - 通义灵码将探讨大模型如何从"代码生成"进化为"意图执行",构建具备上下文感知、推理与自主修正能力的智能体架构 [37] - 百度Comate将深度复盘其在大规模工程实践中的设计智慧 [38] 多模态与世界模型 - 该专题旨在提供从模型训练、后训练对齐到云端规模化部署的全栈可落地工程路径 [39] - 昆仑万维将拆解从视频生成到世界模型的多模态生成技术演进与实践 [41] - 京东将分享在多模态理解与生成上的最新实践 [42] - 蚂蚁集团将分享百灵多模态大模型的后训练算法实战,以提升模型在金融等严苛场景下的意图对齐能力 [42] - Google Cloud将从云端工程化视角,指导如何将复杂多模态大模型高效部署到商业生产环境 [42] 开源模型与框架 - 该专题聚焦推理加速与架构解耦的极致优化,旨在将GPU利用率从30%提升至80%以上,并获取支撑万亿参数规模推理的分布式架构蓝图 [43] - 专题汇集了SGLang、vLLM、Mooncake等开源项目的核心开发者与贡献者 [46] - 月之暗面将基于Kimi大规模模型训练的真实生产线,深度拆解线性注意力等先进架构的硬件感知设计逻辑与工程权衡 [46] 具身智能与智能硬件 - 该专题提供从"视觉感知"到"底层控制"的全链路落地方法论,旨在突破物理壁垒 [47] - 北京大学专家将拆解如何利用电声磁射频等多物理场模态,为AI开启突破视觉盲区的感知能力 [51] - 网易伏羲将解析"世界模型+强化学习"如何驱动无人装载机完成高精度作业 [52] - 来自复旦大学、同济大学、优必选等机构的专家将共同探讨具身智能在多关节控制、人机协同与先进制造场景下的工程落地瓶颈 [52] 行业大会与生态 - 2026奇点智能技术大会旨在系统性理解AI变革,为穿越"十倍速变革"绘制兼具前瞻性与实战性的认知地图 [3][5] - 大会将深入探讨多模态、世界模型、AI原生研发、AI基础设施、大模型系统架构、智能体系统等12大前沿专题 [5] - 大会汇聚全球顶尖学术专家与一线技术实践领军者,旨在推动AI生态融合与行业协同创新 [53]