Scaling Law
搜索文档
云载 AI·健行未来——火山引擎“AI+医药大健康”行业论坛圆满落幕
财富在线· 2025-06-19 17:13
AI+医药大健康行业论坛核心观点 - 医药大健康行业正经历AI驱动的范式转变,云计算、大数据与AI技术深度融合将释放普惠价值 [1] - AI在科研创新、医疗信息化、药企数字化三大领域实现场景落地:充当科研机构"算力伙伴"、医院"转型助手"、药企"数据治理与智能应用提供方" [1] - 行业需结合临床医疗、生物学等数据,在疾病预防、药物设计等环节开发原创性AI技术 [3] AI技术应用成果 科研领域 - 广州实验室与火山引擎联合开发的Bio-OS-Co-Pilot系统,通过多智能体协作将数年科研流程压缩至小时级,加速建模、多模态融合等环节 [4] - AI通过贝叶斯定理、Transformer等原理支撑大模型能力跃升,实现复杂科研问题的可学习化重构 [4] 药企数字化转型 - 津药达仁堂通过数智化战略使数字化成熟度指数提升14.3%,零售动能驾驶舱实现"查打一体"闭环,AIGC内容工厂实现营销内容全链路生产 [6][8] - 数智化网络调研平台累计提升价值600多万元,效率提升8倍,ROI达3.8,并挂牌北京国际大数据交易中心首个中医药数据产品 [8] 医疗服务优化 - 美中宜和已部署AI胎心监护、病历书写助手等临床工具,计划构建以智能数据平台为核心的"AI医院"重构服务模式 [10] - 医院AI系统正从"以人为核心"向"智能体驱动"演进,医疗数据标准化处理成为关键 [10] 医疗AI落地挑战与方向 - 行业面临数据治理难度大、AI严肃性要求高等挑战,需从高性价比场景切入构建可持续迭代机制 [12] - 科研数据分析、后勤支持等"低风险高价值"场景将优先落地,AI在诊前引导环节可显著提升效率 [14][15] - AI在临床决策中定位为"助手",未来研究方向需从医院效率转向患者获得感提升 [15] 未来展望 - 火山引擎将持续完善豆包大模型能力,推动AI在生命健康领域的深度落地,构建智能医疗生态 [17]
电子行业2025年中期投资策略:算力需求仍将加大,端侧应用加速落地
东莞证券· 2025-06-17 17:21
报告核心观点 全球AI大模型竞争激烈,国产大模型崛起,算力需求持续加大,AI端侧应用加速落地,建议围绕AI算力和AI端侧两条主线布局,关注相关领域公司[176] 终端复苏及AI创新驱动,2024及25Q1业绩向好 - 行业2024年业绩向好,受益于宏观经济改善、补贴政策和AI大模型导入,智能终端需求复苏,云端算力硬件需求加大,营业收入28036.40亿元,同比增长17.04%,归母净利润和扣非后归母净利润分别增长24.10%和36.12% [13] - Q1业绩延续高增,受终端需求复苏和AI创新驱动,营业收入6949.32亿元,同比增长18.47%,归母净利润和扣非后归母净利润分别增长26.92%和32.12% [18] - 细分领域业绩亮眼,消费电子、PCB、CCL、面板制造营收和归母净利润均有不同程度增长 [26] 国产模型迅速崛起,DeepSeek推动模型平权 - 国产模型迅速崛起,比肩国际领先模型,中美竞争差距缩短,国产模型厂商在27个领先模型中占据22席 [29] - DeepSeek性能不断提升,R1-0528在多项基准测试中接近国际领先模型 [32] - 通义千问和豆包积极更新,具备较强竞争力 [37] - 国产模型API性价比凸显,有助于降低开发者使用门槛,加快AI大模型渗透 [42] 算力需求仍将加大,硬件业绩持续释放 - Scaling Law拓展至后训练、推理阶段,模型厂商在后训练和推理阶段投入更多算力,提升大模型深度思考能力 [47] - 推理带动Token消耗量增加,未来推理算力需求将进一步爆发 [50] - 海内外巨头资本开支高增,主权AI需求有望加速释放 [56][62] - 英伟达业绩略超预期,Blackwell出货加快,台系ODM厂月度营收高增,AI服务器出货动能充足 [63][66] - H20出口受限,国产算力市场打开,华为推出384超节点,集群能力大幅提升 [70][71] - AI服务器PCB迎来量价齐升,HDI需求有望井喷,多家陆系厂加快HDI布局 [76][79][82] - PCB和CCL产业链业绩持续释放,2024年和25Q1营收和归母净利润均快速增长 [84][97] AI端侧应用加速落地 AI手机渗透率有望提升,关税影响仍需进一步观察 - 终端需求回暖,2024年全球智能手机出货量同比增长约7%,2025Q1同比增长3% [112][115] - 终端推出系统级智能体助手,有望拉动用户换机需求 [120] - AI手机渗透率有望提升,预计2025年达到34%,同比提升约16个百分点,关注价值量提升环节 [131] - 关税影响仍需进一步观察,短期关注关税政策,中长期AI加持的智能终端有望加快落地 [135] Ray-Ban Meta爆品推动,AI眼镜出货量有望快增 - AI眼镜逐步落地,具备多媒体体验和多模态交互能力,有望加速渗透 [136] - Meta推出AI眼镜产品,出货量超百万,用户接受度提升 [140][144] - 国产终端积极跟进,密集推出多款产品,雷鸟V3具备多种优势 [144][151][153] - AI眼镜出货量有望快速增长,预计2025年达到376万副,2024 - 2028年复合增速为58.86% [155][156] - AI眼镜产业链新增多个环节,芯片是核心部件,AR眼镜光学显示系统成本占比较高 [160][163][169] 投资建议 - 围绕AI算力和AI端侧两条主线布局,关注AI服务器ODM、高端PCB/CCL产能公司,以及智能手机和智能眼镜相关环节 [176][179]
Scaling Law首次在自动驾驶赛道被验证!小鹏汽车CVPR演讲详解:AI「吃」下6亿秒视频后,智能涌现
量子位· 2025-06-16 12:50
核心观点 - 小鹏汽车在CVPR 2025上首次验证了Scaling Law在自动驾驶VLA模型上的有效性,展示了其"自动驾驶基座模型"的技术突破[1][46] - 公司通过720亿参数的云端VLA大模型+车端蒸馏小模型架构,实现了无规则代码托底的纯AI司机能力,决策丝滑度显著超越传统方案[4][30][42] - 新技术路线突破L2端到端局限,以"世界模型+强化学习"构建具备链式思考(CoT)能力的AI驾驶系统[18][38][40] - 量产车G7搭载3颗自研图灵AI芯片(2200TOPS),成为首款实现"VLM大脑+VLA小脑"架构的L3级AI汽车[22][53][55] 技术架构 - **云端基座模型**:720亿参数VLA大模型,骨干网络采用LLM架构,已训练2000万条30秒视频片段,验证Scaling Law效应[30][43][46] - **车端部署**:通过知识蒸馏将云端能力迁移至车端小模型,解决直接训练小模型的模态坍塌问题,实现5天/次迭代周期[42][46][47] - **世界模型**:开发中的实时建模系统可生成corner case训练数据,模拟智能体博弈行为,强化基座模型能力[39][40] - **芯片算力**:自研图灵AI芯片单颗等效3颗主流芯片,G7搭载3颗达2200TOPS,超算集群达10 EFLOPS(效率90%)[50][51][53] 能力验证 - **无规则驾驶**:完全依赖基座模型完成加减速、变道绕行、红绿灯等待等任务,无紧急避险动作[4][7][14] - **复杂场景**:成功通过福州特殊路口(两树间车道)、雨天窄路违停绕行、施工区突遇汇入货车等极端场景[15][17][11] - **决策优势**:相较传统方案(触发急刹概率高),新系统在目标距离/速度临界区间仍保持丝滑通过率[15][17] 行业突破 - **技术路线**:首创"云端大模型+车端蒸馏"架构,突破L2端到端黑箱局限,实现可解释的链式思考能力[23][26][60] - **量产应用**:G7成为行业首款搭载VLM(车辆大脑)+VLA(运动小脑)的量产车,定义AI汽车新标准[55][56][57] - **通用能力**:技术体系已扩展至机器人、飞行汽车领域,形成具身智能统一解决方案[64][65] 数据表现 - 训练数据量达2000万条30秒视频片段[43] - 云端模型参数量720亿,车端模型通过蒸馏实现能力迁移[30][42] - 超算集群算力10 EFLOPS,迭代周期5天/次[50] - 量产车G7算力2200TOPS(3颗自研芯片)[53]
Scaling Law首次在自动驾驶赛道被验证!小鹏汽车CVPR演讲详解:AI「吃」下6亿秒视频后,智能涌现
量子位· 2025-06-16 12:49
核心观点 - 小鹏汽车在CVPR 2025上首次验证了Scaling Law在自动驾驶VLA模型上的有效性,展示了其"自动驾驶基座模型"的技术突破[1][43][46] - 公司通过云端大模型+车端小模型蒸馏的技术路线,实现了AI司机的"智能涌现",在复杂场景下表现出超越传统方案的决策能力[4][7][9][11][13][14] - 新技术路线突破了传统端到端方案的局限性,构建了具备完整认知能力的"大脑+小脑"架构,为自动驾驶和具身智能的大一统奠定基础[26][27][57][60] 技术方案 - 云端部署720亿参数VLA大模型,以语言模型为骨干网络,融合视觉、语言和动作模块,实现环境理解到行为输出的闭环决策[30][33][36] - 车端部署蒸馏后的小模型,通过持续在线学习(Online Learning)实现能力迭代,G7车型搭载3颗自研图灵AI芯片,算力达2200TOPS[42][53][55] - 强化学习训练聚焦安全、效率、合规三大原则,并开发世界模型(World Model)生成高价值训练数据[37][38][39][40] 性能表现 - 在无规则代码托底情况下,基座模型直接控车完成加减速、变道绕行、转弯掉头等复杂驾驶任务,决策丝滑度显著优于传统方案[4][5][14][15] - 成功通过福州特殊路口等极端场景,展现出链式思考能力(CoT)和全局理解能力[17][18] - 模型累计训练2000多万条30秒视频片段,参数规模与数据量扩大过程中持续显现Scaling Law效应[43][46] 行业影响 - 首次从技术层面回应了"端到端只能模仿不能超越"的行业质疑,为L2与L4的技术路线融合提供新思路[27][60] - 云端算力达10 EFLOPS,集群效率超90%,全链路迭代周期5天,水平媲美顶尖AI公司[50][51] - 技术体系已实现车、机器人和飞行汽车通用,推动"AI定义汽车"向具身智能延伸[62][63][64] 产品落地 - 最新SUV G7预售价23.58万,成为量产L3级AI算力第一车,采用无激光雷达方案[2][15] - VLM作为车辆"大脑"统一舱驾交互,VLA-OL模型增强"小脑"运动规划能力[55][56] - 公司从2024年开始全面转向新技术路线,与行业主流方案形成明显差异[23][50]
AI学习机,比的是什么?
36氪· 2025-06-11 20:09
行业概况 - AI学习机市场快速增长 2024年上半年网上零售额增长136.6% [13] - 2025年学习机销量预计突破700万台 接近iPad在中国市场的800万台销量 [3] - 行业呈现三大阵营格局:教培系(学而思/猿辅导)、科技派(科大讯飞/小度)、老牌厂商(步步高/读书郎) [13][15][17] 产品特征 - 价格高端化 学而思最新款售价8299元 相当于iPhone 16 Pro Max [3][15] - 核心功能升级 支持智能语音交互/1v1个性化辅导/云端实时更新题库 [7] - 场景专一化 彻底屏蔽游戏社交软件 配合家长端APP实现学习监测 [9] 技术演进 - 采用双核架构 学而思搭载自研九章大模型与DeepSeek通用模型 [15] - 科大讯飞星火认知大模型达到国内领先水平 支持数学追根溯源功能 [15] - 老牌厂商算法依赖外部合作 难以实现动态知识图谱 [17] 竞争要素 - 题库数据为核心 需覆盖全国各省市真题/模拟题/名校试卷 [18][20] - 垂直领域内容成壁垒 艺术/音乐/编程等细分赛道积累不足 [20] - 解题准确性是关键 需优化算法减少逻辑错误和过度推理 [20] 市场需求 - "双减"政策推动需求 替代线下补习班和线上网课 [11] - 解决教育资源不均 三四线城市可获取内置名师课程 [11] - 满足碎片化学习 提供实时解题思路和灵活学习时间 [11] 产品局限性 - 非万能解药 效果取决于学生主动性和使用方法 [22] - 附加功能冗余 视频通话/家长伴读等非核心需求 [23] - 本质仍是工具 不能替代系统化学习过程 [23]
昇腾+鲲鹏双核暴击!华为打通MoE训练任督二脉再加速20%,内存省70%
雷峰网· 2025-06-04 17:31
华为MoE训练技术突破 - 公司通过昇腾与鲲鹏算力深度协同,实现训练算子计算效率和内存利用率大幅提升,MoE训练吞吐提升20%,内存占用降低70% [6][7] - MoE架构凭借独特设计成为突破大规模模型训练算力瓶颈的关键路径,支持千亿至万亿参数规模 [3][4] - 行业面临单节点训练效率挑战,包括算子计算效率低、专家路由机制导致下发中断、NPU内存不足三大难题 [10][13][16] 昇腾算子计算加速方案 - 针对占计算耗时75%的FlashAttention/MatMul/Vector三大核心算子,采用"瘦身术/均衡术/搬运术"优化策略,整体训练吞吐提升15% [19][20][21] - FlashAttention算子通过消除冗余计算和优化流水线,前/反向性能分别提升50%/30% [23][25] - MatMul算子通过双级数据流水优化,Cube计算单元利用率提升10% [26][28] - Vector算子融合细粒度小算子并减少数据搬运,性能提升3倍以上 [30][32] 昇腾-鲲鹏协同优化 - 通过Host-Device协同实现算子下发"零等待"(free时间占比<2%),训练吞吐额外提升4% [34][44] - 采用重排下发序技术使单次Host-Bound时间从2.1ms降至0.6ms,降幅超70% [39] - 自定义粗粒度绑核策略(每NPU绑24核)完全消除系统型Host-Bound瓶颈 [43] 内存优化技术创新 - Selective R/S技术实现多维度内存解剖,节省70%激活值内存 [46] - 建立细粒度重计算与Swap策略库,涵盖MLA/RmsNorm/Permute等模块的定制化优化 [50][52] - 采用贪心算法和Swap带宽竞争分析实现自适应内存优化管理,平衡内存节省与额外耗时 [56] 行业影响与成果 - 该方案为Pangu Ultra MoE 718B模型训练扫清障碍,展现公司在AI算力领域的技术积累 [58] - 技术突破包括集群通信优化、算子加速、内存节省三大维度,形成完整解决方案 [17][21][46] - 成果为行业大规模MoE训练提供参考路径,推动AI模型参数规模持续扩展 [4][59]
全球“All in AI” 中国科技巨头生态“攻守”
21世纪经济报道· 2025-05-29 22:12
中国互联网巨头AI布局与云计算发展 核心观点 - AI成为互联网巨头生态攻防的核心战场,2025年将开启军备竞赛[2] - 云计算是AI发展的底层基础,阿里云通过"双十一"脉冲场景积累算力冗余并实现商业化[4][5] - 各大厂商AI战略与其原有生态高度协同:华为侧重政企全栈自主,腾讯聚焦C端社交生态[9][10] - 2024年一季度资本开支显示巨头对AI投入趋于谨慎,主要受开源模型冲击和商业模式闭环难题影响[12][13] 算力基建发展 - 阿里云2013年成为全球首家提供5K云计算服务的企业,2024年以65.13亿美元营收领跑中国市场[4][7] - 云计算商业模式起源于阿里应对"双十一"交易峰值产生的算力冗余[4] - 阿里云已完成智算升级,支持GPU虚拟化等AI基础能力,服务全球400万客户[5][7] 巨头生态差异化布局 - 华为云依托全栈自主技术(昇腾/鲲鹏)和政企经验,重点布局工业、医疗等垂直领域[9][10] - 腾讯云基于社交生态链接麦当劳等国际企业,快速接入DeepSeek并主推微信AI智能体生态[9][10] - 阿里云中小客户占比达80%,通义千问成为性能最强的国产AI模型之一[7][8] 当前AI发展瓶颈 - 一季度腾讯AI资本开支275亿元,环比下降25%,阿里246亿元同比增120%但环比降30%[12] - DeepSeek开源导致训练算力需求减弱,C端免费模式与订阅收费存在根本冲突[13] - 行业尚未建立"用户-模型-算力"的商业闭环,资本回报周期难以测算[13]
Now, Scaling What?
机器之心· 2025-05-24 22:12
Scaling What的阶段性探索 - 自2024年起Scaling范式发生转移,预训练环节的Scaling Law边际效益递减且文本数据受限,行业开始探索「Scaling What」的新目标[3] - 业界对「预训练Scaling Law收益递减」达成共识,OpenAI、Anthropic等团队仍保持乐观但转向寻找正确的Scaling对象[4] - 新研究方向包括Densing Law、「50%任务完成时间」等替代性评估指标,以及Self-Play RL+LLM、Post-Training Scaling Law等技术路线[4] 推理阶段计算优化(TTS)的兴起 - 谷歌DeepMind 2024年8月首次提出通过增加推理时计算提升模型输出质量,OpenAI o1模型和DeepSeek-R1的GRPO技术进一步验证该方向[4][5] - 2025年5月学术综述将此类技术统称为TTS(Test-Time Scaling),提出What-How-Where-How Well四轴分类框架,显示研究重点从预训练转向推理优化[6] - TTS应用范围从数学推理扩展到开放式问答,方法从重复采样演进为混合扩展和内部扩展策略[6][7] 四大Scaling技术路线 - Parallel Scaling:通过并行生成多个输出并聚合答案,依赖覆盖度和聚合质量,实现方式包括多模型采样和输入调整[9] - Sequential Scaling:模拟人类系统2思维,通过逐步更新中间状态分步骤解决问题[9] - Hybrid Scaling:结合并行生成与序贯筛选,先迭代候选解再通过选择函数聚合[9] - Internal Scaling:模型自主分配推理计算资源,如OpenAI-o1模仿人类长推理链[10] 后训练技术的范式重构 - 传统观点认为预训练奠定基础能力,微调(指令微调/SFT/RLHF)负责领域适应[11] - 当前趋势显示微调与推理优化(TTS)在后训练阶段具有同等重要性,共同塑造模型最终性能[6][11] 注:原文中未提供具体财务数据或公司运营细节,故未包含相关分析
2024年中国人工智能产业研究报告
艾瑞咨询· 2025-05-23 17:42
人工智能产业宏观环境 - 2024年国家将人工智能纳入战略重点,各地政府推进科研创新与算力基建,因地制宜出台特色政策 [4] - GDP增速放缓背景下,AI作为新质生产力在效率提升和产业升级方面展现潜力,政府支持提供强劲动能 [4] - 资本市场聚焦语言/多模态模型应用、芯片、算力服务等领域,基础层与应用层协同完善产业生态 [4][12] - 生成式AI普及提升公众接受度,但就业替代和隐私问题引发焦虑 [4] 技术发展与创新 - Transformer架构仍主导大模型发展,研发侧通过强化学习、思维链优化提升推理能力,加速跨模态融合 [4][16] - Scaling Law面临高质量数据与资源限制挑战,厂商转向后训练思维链优化和强化学习推理优化 [18] - DeepSeek开源模型通过多令牌预测(MTP)、多头潜在注意力机制(MLA)等技术降低训练/推理成本达50%以上 [31][83] - 端到端语音大模型架构(如GPT-4o)提升交互流畅度,但级联式架构仍保持可控性优势 [50] 市场规模与商业化 - 2024年中国AI产业规模2697亿元,增速26.2%低于预期,主因大模型场景落地成本高且处于探索阶段 [6][24] - 预计2025-2029年CAGR达32.1%,2029年规模破万亿,DeepSeek开源推动2025年加速增长 [25] - B端以项目制为主(政务、教科、通信、能源领域占60%),C端采用"免费+订阅制" [6][37][39] - 价格战激烈:字节大模型降价99%,阿里云通义千问降价97%,百度部分模型免费 [34] 产业动态与竞争格局 - 算力需求向推理侧转移,开源模型推动智算中心利用率提升 [6] - 分布式框架(DeepSpeed、Colossal-AI)、LLMOps平台及一体机产品降低企业应用门槛 [28] - 大厂主导C端生态(如kimi、豆包),创业公司聚焦垂类B端市场 [66] - 出海集中在图像/视频(占40%)和社交/情感陪伴(占35%)赛道,字节、阿里云、Minimax为主要厂商 [71][73] 产品创新方向 - AI Agent从对话问答向复杂任务代理演进,智谱AutoGLM支持超长任务规划 [45][76] - 具身智能成为战略高地,需解决硬件加速与跨行业协作挑战 [80] - AI硬件端侧落地加速:华为、荣耀等手机集成大模型,豆包推出AI耳机 [47] - 多模态模型分化为生成向(DiT架构)与理解向(MLLM架构),技术融合是未来关键 [63] 技术普惠与生态建设 - DeepSeek开源策略降低中小开发者使用门槛,带动沐曦、阿里云等产业链合作 [7][37][83] - MCP协议连接1100+工具服务,推动Agent生态标准化 [77] - 视觉生成产品商业化提速,Sora验证DiT架构在视频生成的优势 [56][63]
博士宿舍激情脑暴,革新了Scaling Law?Qwen和浙大联手推出新定律,直接干掉95.5%推理内存!
AI前线· 2025-05-21 18:04
核心观点 - 阿里巴巴与浙江大学合作提出并行计算缩放定律(ParScale),通过增加模型并行计算而非参数数量提升大模型能力,内存增加量仅为参数缩放法的4.5%(1/22),延迟增加量16.7%(1/6)[1] - ParScale可通过后训练少量token将预训练模型转为并行缩放模型,降低训练成本,适用于任何模型结构、优化过程或任务[1][7] - 该方法在数学、编程等强推理任务中表现突出,P=8时编码任务提升4.3%,数学任务提升7.3%,GSM8K准确率提高10%[15][16] 技术实现 - **并行流机制**:输入通过多样化前缀生成多视角版本,并行处理后动态加权融合输出[13] - **两阶段训练**:第一阶段1T token传统训练,第二阶段仅20B token微调实现ParScale适配[14] - **计算效率**:复用现有参数扩展并行路径,内存占用仅为参数扩展法的1/22,延迟为1/6[1][19] 性能验证 - **基准测试**:在常识(MMLU)、数学(GSM8K)、编码(HumanEval)等任务中,P值越大性能提升越显著[15] - **成熟模型适配**:在已训练18T token的Qwen-2.5模型上应用,持续预训练和参数高效微调均获显著提升[16] - **边缘设备优势**:适合手机、汽车等小batch场景,内存和延迟效率优于传统方法[18][19] 行业应用前景 - **低成本部署**:通过后训练适配现有模型,降低资源需求,促进低资源场景应用[1][12] - **动态调整能力**:同一模型权重可灵活调整并行流数量,实时平衡性能与推理开销[16] - **技术互补性**:未来可能与MoE架构结合,形成内存友好与延迟友好的混合方案[19] 开源与社区反馈 - 代码已在GitHub开源,HuggingFace提供体验链接[2] - 社区评价为"突破性思路",尤其看好边缘计算场景的适用性[18] - 研究团队计划扩展至MoE架构及更大规模数据验证[19]