Workflow
大语言模型(LLMs)
icon
搜索文档
ANGI Homeservices(ANGI) - 2025 Q4 - Earnings Call Transcript
2026-02-11 22:30
财务数据和关键指标变化 - 过去三年,公司放弃了约5亿美元的低质量收入,同时调整后EBITDA翻倍,资本支出减半,从负自由现金流转为正自由现金流 [4] - 2025年第四季度,客户重复率转为正增长约10% [4] - 2025年全年,公司预计收入同比下降12%至16%,实际下降13%,放弃了超过2.5亿美元的网络渠道收入 [95] - 2025年调整后EBITDA为1.4亿美元,未包含两个高信心的各500万美元一次性收入项目 [95] - 2026年调整后EBITDA指引为1.45亿至1.5亿美元,若加上两个一次性收入项目,则为1.55亿至1.6亿美元 [95] - 2025年固定运营费用为2.23亿美元,资本支出为6000万美元,总现金固定成本基础为2.83亿美元 [25] - 重组后,预计固定成本基础将比原计划降低约6000万美元,比2025年降低约4000万美元 [26] - 2026年第一季度,预计收入增长率为-1%至-3%,但环比将实现700-900个基点的加速 [4][21] - 2026年全年,预计收入将实现低个位数增长(约1%-3%) [20][28] - 2026年第一季度,销售和营销费用占收入的百分比将环比第四季度增加约8个百分点 [23] - 预计第二季度调整后EBITDA将环比第一季度增加约2000多万美元,第二和第三季度调整后EBITDA将达到约4000多万美元的中段水平 [24] - 预计第四季度调整后EBITDA将回落至约4000多万美元的低段水平 [24] 各条业务线数据和关键指标变化 - 公司业务分为自营渠道和网络渠道 [44] - 2025年全年,自营渠道收入增长17% [17][44] - 预计2026年第一季度,自营渠道收入将实现高个位数至低双位数增长 [17] - 预计自营渠道长期将成为稳定的中个位数以上,理想情况下是双位数的增长者 [17] - 2025年第四季度,自营渠道收入增长23% [44] - 网络渠道在2025年持续下滑 [44] - 预计2026年第一季度,网络渠道将下降约60% [19] - 预计网络渠道将在2026年下半年趋于稳定并持平 [20] - 2025年第四季度,服务请求(SR)产生的线索数量(leads per SR)显著增加 [91] - 线索收入(revenue per lead)面临下行压力,部分原因是向订阅制专业服务商(pros)交付了超出其合同上限的线索 [66][67] - 房主净推荐值(NPS)提升了超过30个百分点 [4] - 客户流失率(churn)降低了超过30% [4] - 客户成功率提高了超过20% [4] 各个市场数据和关键指标变化 - 公司在美国和国际市场均有业务,第一季度将在欧洲重新投资电视广告 [22] - 谷歌搜索引擎优化(SEO)渠道在2024年中期同比下降35%-40%,年底改善至两位数(中段)下降,2025年春季再次恶化至35%-40%下降,年中改善至低至中段20%下降 [16] - 目前,来自SEO的服务请求、线索和收入占比约为7% [75] - 公司在谷歌搜索引擎营销(SEM)上的支出在去年增长了超过50% [79] 公司战略和发展方向和行业竞争 - 公司战略聚焦于自营业务增长,并视大型语言模型(LLMs)为重大机遇 [4][5] - 公司已开始与所有主要LLM合作,已宣布与亚马逊Alexa达成交易,并向另一家主要LLM提交了应用,并正在基于相同技术进行两项技术集成对话 [6][7] - 公司认为其深厚的客户网络、品牌和数据是其与LLMs竞争和合作的关键优势 [8][11] - 公司正在将LLM技术(AI助手)部署在服务请求路径中,目前35%的房主使用该功能,其选择专业服务商的转化率是未使用者的3.3倍 [8] - 公司目标是利用AI代理(agents)提升匹配效率,将当前每5个房主中只有1人雇佣其推荐服务商的比例,提升至2人甚至3人 [12][13] - 公司正在进行全球平台整合,旨在构建更灵活、组件化的“AI优先”技术栈,以改善客户体验并更好地与LLMs等集成 [50][51][61] - 公司计划重建房主体验平台,然后是专业服务商体验平台 [51][52] - 重组(裁员40%)使平台整合时间线延长了一个季度,但预计不会对业务造成干扰 [51] - 公司正在投资于品牌营销、在线专业服务商营销以及大型专业服务商销售,以推动增长 [26][27] - 公司认为其作为“代理”的商业模式在AI时代具有优势,能够连接房主和专业服务商,并利用专有数据优化匹配 [10][11] - 面对谷歌SEO流量下降的挑战,公司策略是专注于发展自营流量渠道,并有效购买付费广告 [75][76] - 谷歌在搜索结果中优先推广自身服务、增加付费广告位以及推出AI概览功能,减少了免费流量空间 [77][78] - 公司认为谷歌没有动力提供免费流量,因此业务规划相应调整 [76][80] 管理层对经营环境和未来前景的评论 - 管理层对公司在AI领域的前景感到非常兴奋 [4][13] - 2026年1月收入实现非常温和的增长,但不完全预期第一季度能实现同比增长 [4] - 由于谷歌SEO和网络渠道的压力持续,公司对2026年的增长预期变得更加保守 [14][15] - 随着客户体验的改善和客户行为的变化,公司认为是时候重新加强品牌广告投入,将支出水平恢复至2024年的水平 [18] - 2025年经历了4月份的波动,年底消费者信心调查显示下降了20%-30%,2026年1月趋势相同 [63] - 观察到交易量承压,工作价值和整体考虑度有所下降 [63] - 在衰退环境中,获取服务请求会变得更难,但保留专业服务商会更容易 [64] - 公司业务有相当大比例的压舱石,因为约三分之二的业务来自非自由裁量任务 [64] - 管理层对2026年实现收入增长和利润增长持乐观态度,并对长期前景感到兴奋 [4][96][98] 其他重要信息 - 公司进行了重组(精简了40%的人员),预计产生7000万至8000万美元的年度化节省,当年实际节省约6000多万美元,其中2500万美元为资本化劳动力 [25] - 重组的目标是优化成本结构、为关键投资创造空间,同时实现利润同比增长 [25] - 公司暂停了股票回购,因分拆后通常有两年窗口期限制,下次可回购时间为2026年4月1日左右 [66][69] - 公司有5亿美元债务将于2028年到期,预计通过今年产生的现金流、资产负债表和信贷额度完全覆盖 [69][71] - 不排除进行增值型补强收购的可能性,但目前没有具体目标 [69] - 长期来看,如果股价保持当前水平,公司会考虑回购股票,股息也并非不可能 [70] - 专业服务商(pros)数量:2025年第四季度获取的专业服务商同比下降23%,但较第一季度同比下降41%有所收窄 [55] - 专业服务商策略转向获取更大规模的专业服务商(大包销售但数量更少),以及通过在线注册获取规模较小但数量更多的专业服务商 [53][54] - 尽管月度活跃专业服务商平均数量同比下降,但由于每个专业服务商的产能和收入增加,网络总产能实际上同比增长 [54] - 预计2026年,通过在线注册,获取的专业服务商数量将转为同比增长 [55] - 预计2027年,月度活跃专业服务商总数将恢复增长 [55] - 在大型专业服务商市场(拥有10、20名以上员工),公司渗透率不足1%,而在小型专业服务商市场渗透率超过4%,存在巨大增长机会 [97] 总结问答环节所有的提问和回答 问题: 关于AI功能部署时间表以及供应侧数据在与LLMs合作中的优势 [30][31] - AI目前主要应用于服务请求路径中的AI助手,目标是提高使用该功能的房主比例,目前为35%,转化率是未使用者的3.3倍 [32] - 公司正在测试其他应用,如潜在客户成交后的沟通,并致力于与LLMs集成 [33] - 公司拥有的客户行为和数据记录系统构成了其竞争优势(护城河),使其能够更好地理解上下文并与专业服务商匹配,这有助于与LLMs建立有效合作关系 [34][35] 问题: 大幅增加品牌营销支出的理由、时机以及投资回报滞后时间,以及自营渠道的正常化增长率 [38] - 增加品牌支出是恢复到2024年的水平,而非达到历史新高,去年因消化“房主选择”计划的影响而减少了支出 [39] - 通过数据合作伙伴,公司能够相对较好地衡量电视广告的投资回报率,并对在此水平上实现盈利充满信心 [40][41] - 第一季度增量支出的回报率可能最低,但长期会有回报,预计年内回收约四分之三,剩余部分在年后实现 [42] - 随着客户体验改善,公司认为应该转守为攻,重新加大营销投入 [43] - 自营渠道2025年第四季度增长23%,全年增长17% [44] - 预计2026年自营渠道收入将实现高个位数甚至低双位数增长 [45] 问题: 网络渠道下滑情况下的专业服务商产能,以及全球平台整合的进展和潜在干扰 [49][50] - 平台整合因裁员40%而延长约一个季度,但采取分阶段交付方式,预计不会对业务造成干扰,反而会提升体验 [51] - 首先重建房主体验平台,使其更加组件化和灵活,以提升转化和匹配,并更好地与LLMs集成 [52] - 专业服务商获取策略改变,转向销售给更大规模的专业服务商,因此尽管月度活跃专业服务商数量下降,但每个专业服务商的产能和收入上升,网络总产能同比增长 [54] - 预计2026年通过在线注册获取的专业服务商数量将恢复同比增长,2027年月度活跃专业服务商总数恢复增长 [55] 问题: 为利用AI优势所需的技术栈变更,以及对宏观环境的看法 [60] - 技术栈方面,正在用现代化的“AI优先”单一平台替换遗留技术,并考虑使用代理编码(Agentic Coding)来构建或增强软件 [61] - 目标是实现组件化部署和AI优先,以驱动更好的匹配和业务增长 [62] - 宏观方面,2025年底消费者信心下降20%-30%,2026年1月趋势延续,观察到交易量压力和较低的工作价值 [63] - 在衰退环境中,获取服务请求变难,保留专业服务商变易,但公司约三分之二业务来自非自由裁量任务,具有稳定性 [64] 问题: 线索收入下降的原因,以及暂停股票回购后的资本分配计划 [66] - 线索收入下降主要是由于向已达到订阅上限的专业服务商交付了额外线索,这些线索目前无法货币化 [67] - 未来几个月将推出新功能以更好地货币化这些额外线索 [68] - 资本分配方面,股票回购因分拆限制需至2026年4月1日左右方可恢复 [69] - 公司有2028年到期的5亿美元债务,但已有覆盖计划 [69] - 对增值型补强收购持开放态度,长期可能考虑股票回购或股息,但目前无即时计划 [70] 问题: 当前对SEO风险的敞口,以及谷歌竞争影响的具体原因 [73] - 目前SEO渠道占服务请求、线索和收入约7% [75] - 公司计划继续将其作为房主来源,但主要专注于发展自营渠道 [75] - 谷歌竞争影响包括:减少免费搜索结果展示、推广自身本地服务广告产品、增加付费广告位、以及AI概览功能减少了跳出点击 [77][78] - 谷歌没有动力提供免费流量,公司策略是有效购买付费广告,并认为能够继续在谷歌平台保持效果 [79][80] 问题: 目前已集成或正在集成的LLM平台、早期洞察,以及不同渠道的利润概况 [83][84] - 公司已与所有主要LLM进行对话,已宣布与亚马逊Alexa合作,并向一家提交了应用,正与另一家积极进行技术集成 [85] - 目前尚无大量实时流量或数据可报告 [85] - 在引入“房主选择”之前,网络渠道利润更高;引入后,两者利润水平变得相当,网络渠道可能仍略高一些 [87] 问题: 第四季度线索每服务请求大幅增加的原因,以及第四季度消费者营销费用加速增长的原因 [91] - 线索每服务请求增加的原因与线索收入下降类似,即向订阅制专业服务商交付了超出合同上限的额外线索 [93][94] - 第四季度消费者营销费用占收入比例加速了200个基点,但与第二季度一致,并非重大加速,全年趋势是随着SEO流失并加强付费渠道,营销费用占比有所上升 [92]
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则
机器之心· 2026-02-08 18:37
文章核心观点 - 大语言模型正在推动数据准备从“规则驱动”向“语义驱动”的范式转变,有望成为下一代数据管道的“智能语义中枢”[2][6][8] 数据准备的传统困境与LLM带来的变革 - 传统数据准备高度依赖人工规则与专家知识,存在跨系统表结构不一致、数据缺少语义描述等问题,占用了数据团队近80%的时间与精力[2] - 传统方法存在三大根本局限:高度依赖人工与专家知识、对任务语义的感知能力有限、在不同任务与数据模态间泛化能力差[2] - LLM的引入推动流程从“规则驱动”向“语义驱动”转变,模型尝试理解数据背后的含义,并据此完成检测、修复、对齐和补充等操作[8] LLM增强的数据准备核心任务框架 - 研究构建了以任务为中心的分类框架,将LLM增强的数据准备过程拆分为三大核心环节:数据清洗、数据集成、数据增强[9][10] - **数据清洗**:涵盖错误检测、格式标准化、异常修复、缺失值填补等任务[10] - **数据集成**:涵盖实体匹配、模式匹配、跨源对齐与冲突消解等任务[10] - **数据增强**:涵盖列类型识别、语义标注、表级与库级画像构建等任务[10] LLM增强数据准备的主要技术路径 - 研究将现有技术路径归纳为三类,与传统单一方法形成鲜明对比[12] - **基于Prompt的方法**:通过结构化提示和上下文示例直接引导模型完成任务,强调灵活性与低开发成本[12] - **检索增强与混合方法**:结合检索增强生成、模型调优、小型模型或传统规则系统,在成本、规模与稳定性之间寻求平衡[12] - **智能体编排方法**:让LLM作为协调中枢,调用外部工具和子模型,逐步构建复杂的数据处理工作流,探索自动化与自主决策的边界[12] 代表性工作与系统实践 - 在**数据清洗**场景中,CleanAgent引入了能够自主规划的智能体架构,通过调用Python库等外部工具动态构建清洗工作流[15] - 在**数据集成**领域,Jellyfish探索了“大模型教小模型”的蒸馏范式,利用GPT-4的推理轨迹微调轻量级模型,显著降低了大规模匹配的成本[15] - 在**数据增强**方向,Pneuma结合了RAG技术,通过检索数据湖中的相关表格与文档,为原始数据补充缺失的语义上下文与元数据[15] 工程实践观察与选型指南 - **基于Prompt的方法**适合小规模、高复杂度任务,如高价值表格的语义修复、复杂实体歧义消解,但在大规模场景中成本和一致性难以控制[19] - **RAG与混合系统**成为主流工程选择,通过检索、规则系统或轻量模型分担高频、低难度任务,让LLM专注于“难例”和核心语义决策,实现更高的整体性价比[19] - **智能体路线**仍处于探索阶段,多步工具调用在复杂工作流中展现出潜力,但其稳定性、调试成本和结果可评估性仍是当前的主要瓶颈[19] - 工程可落地性优先,在真实系统中,吞吐量、延迟、成本控制和结果可回溯性往往比单次任务的绝对准确率更为关键[24] - 混合架构是主流方向,短期内LLM更可能作为“语义中枢”嵌入传统数据管道,与规则系统、检索引擎和轻量模型形成协同的混合架构[24] 评估体系与数据集现状 - 论文整理了用于评估LLM数据准备能力的代表性数据集与基准,为工程团队和研究者提供“可复现实验地图”[18] - **数据清洗**常用数据集包括Hospital(1,000行)和Flights(2,377行),用于评估模型在格式错误修复、值标准化等任务中的稳定性与准确性[20][24] - **数据集成**在实体匹配任务中,广泛使用WDC Products(40,500对)和Amazon-Google Products(1,300对)等电商类数据集[20][24] - **数据增强**在表语义标注任务中,常基于OpenWikiTable(6,602张表)和Public BI Benchmark(203张表)等表格语义数据集[20][24] - 当前多数基准仍以中小规模表格和结构化数据为主,对于企业级数据湖、日志流和多模态数据场景的覆盖仍然有限[21] - 评估体系是当前瓶颈,不同研究采用的数据集、指标和任务定义差异较大,缺乏统一、可复现的评估标准,严重制约了技术的横向比较与工程选型[24]
跳出「黑盒」,人大刘勇团队最新大语言模型理论与机理综述
机器之心· 2026-01-14 09:39
文章核心观点 - 大语言模型在工程上取得了巨大成功,但其理论研究仍处于起步阶段,被视为“黑盒”,存在理论与应用同步滞后的挑战[2][5] - 为了推动LLM研究从“工程启发式”向“严谨科学”转型,研究团队提出了一种基于生命周期的统一分类法,将LLM理论研究整合为六个阶段,并系统综述了驱动其性能的底层理论与机制[2][6] LLM理论与机制的六大阶段 - **数据准备阶段**:探讨数据混合的数学逻辑、去重与过滤的理论保障以及记忆机制的量化分析,是决定模型能力的基石[11][18] - **模型准备阶段**:从理论上评估架构能力,理解Transformer结构的表示能力极限、优化景观,并从展开优化视角设计新架构[11][21] - **训练阶段**:研究简单学习目标如何锻造复杂涌现能力,分析Scaling Laws的本质、预训练的获益机制以及参数高效微调(如LoRA)的机制[11][24] - **对齐阶段**:探讨鲁棒对齐在数学上是否可实现,分析RLHF的动力学,研究“超级对齐”与“弱到强泛化”[11][27] - **推理阶段**:解密冻结权重的模型如何在测试时模拟学习与算法执行,分析提示工程、上下文学习的机制以及推理时扩展带来的能力提升[12][31] - **评估阶段**:从理论上定义与衡量复杂的人类价值观,探讨基准测试的有效性、LLM-as-a-Judge的可靠性以及安全性与透明度的形式化保证[13][34] 各阶段代表性研究内容与前沿挑战 数据准备阶段 - 数据混合的数学逻辑:利用多源学习视角,证明当多任务结构共享时,泛化界限取决于总压缩编码长度而非原始参数量,并通过“数据混合定律”预先计算大规模混合策略性能[18] - 前沿开放问题:包括合成数据能否带来理论上的性能提升以实现自主进化,以及如何从理论上规避或缓解训练与测试数据泄漏带来的隐私挑战[18] 模型准备阶段 - 表示能力的边界:探讨Transformer作为通用逼近器的数学证明及其图灵完备性,并通过电路复杂度理论分析其在处理层级结构语言时的表达上限与下限[21] - 理论驱动的架构设计:从“展开优化”和“测试时训练”视角,将网络层等效为优化算法的迭代步骤,为理解前沿模型架构提供统一框架[21] - 前沿架构探索:关注线性注意力模型是否存在表示瓶颈(如关联回想能力缺失),以及循环架构是否能通过增加推断深度以更少参数实现更强泛化[21] 训练阶段 - 预训练的收益机制:论证预训练本质是学习数据的底层上下文结构,提出“压缩即智能”观点,并从信息论视角论证LLM作为无损压缩器,其压缩效率与下游任务性能存在强线性关系[24] - Scaling Laws的本质:通过对计算、数据和参数规模的幂律关系分析,探讨能力“涌现”背后的连续性过程,并分析流形假设下内在维度如何决定缩放指数[24] - 微调的数学保障:针对LoRA等技术,分析其在低秩子空间中的优化动力学,证明低秩适配器在对齐预训练特征梯度方面的有效性,并揭示权重初始化对收敛稳定性的关键影响[24] - 前沿优化问题:包括如何实现小规模模型上的最优超参数“零样本”迁移至万亿级模型,以及矩阵敏感型优化器如何利用Hessian结构加速收敛[24] 对齐阶段 - 对齐的理论基础:分析安全对齐的数学边界,探讨现有方法是否只是“浅层防御”,以及对齐后模型是否存在回复原始分布的“弹性”,认为只要有害行为概率未被完全消除,通过对抗性提示触发违规在数学上不可避免[27] - 弱到强泛化:从偏差-方差分解等视角,分析强模型纠正弱信号错误的机制,并界定泛化增益,以解决超智能时代弱监督者如何可靠控制强受训者的问题[27] - 强化学习的作用:探讨RL是激活了预训练中的潜在模式还是真正扩张了推理边界,同时量化对齐与预训练知识保持之间的权衡,并从变分信息瓶颈视角提出缓解“Reward Hacking”的方法[27] - 深层开放挑战:包括SFT和RL在塑造模型行为上的本质区别,以及如何在缺乏验证器的开放领域设计高效的奖励信号[27] 推理阶段 - 提示工程与机制分析:从任务重参数化角度理解Prompt,利用Token分布动力学和归纳头机制,剖析Prompt如何引导模型内部的信息路由[33] - 上下文学习的机制:对比“算法执行”与“任务定位”两种观点,探讨Transformer是否在推断时隐式运行优化算法[33] - 推理时扩展:分析思维链如何作为模型的“深度扩展器”,证明其能显著提升Transformer的计算复杂度上限,并探讨搜索算法如何通过外部计算换取推理质量[33] - 特殊理论现象:包括“过度思考”(投入更多计算资源是否总是正向)以及“隐式推理”(模型能否在隐空间中完成多路径思维并行)[33] 评估阶段 - 基准测试理论:利用不同理论框架分析传统基准测试的饱和问题与捷径学习现象,并剖析“LLM-as-a-Judge”模式中的系统性偏见[38] - 安全性与透明度:深入探讨可解释性技术对模型内部特征的解构,并利用计算不可解性证明在任何可计算的LLM中,幻觉都是不可消除的理论必然[38] - 抗误用机制:通过水印等技术,探讨识别AI生成内容与保持文本质量之间的理论权衡[38] - 内部表示讨论:包括语义概念(如真实性)在模型潜空间中是否以线性方向编码的“线性表示假设”,以及“逆转诅咒”和“位置偏差”等推理失效模式揭示的自回归模型本质缺陷[38]
桥水,中国市场新动作
中国证券报· 2026-01-14 07:23
桥水招聘岗位分析 - 桥水近期发布“中国政策AI研究助理”岗位招聘 工作地点在纽约 要求普通话流利 并能熟练运用人工智能与大语言模型 [1] - 该岗位年度底薪为16万美元至22.5万美元 另有浮动奖金 [1] - 岗位职责包括协助深化对中国政策环境的理解 分析其对资产与经济的影响 并运用AI工具处理中文政策文件与数据源 [2] - 该岗位隶属桥水亚洲策略团队 目标是打造业内领先的投研组合与投资理念 以应对演变的地缘政治与宏观经济格局 [2] 桥水AI战略与行业趋势 - 桥水将宏观基本面研究与系统化执行相结合 其AI战略被视为“主观投研拥抱AI的典型代表” [3] - 桥水内部组建了AIA实验室 致力于运用人工智能与机器学习创造超额收益 并于2024年推出一只以机器学习为主要决策依据的基金 [3] - 公司人才策略正在转型 计划增加更多数据科学家的比例 [3] - 行业趋势显示 将主观投研与AI结合正成为重要方向 例如贝莱德打造了融合AI的系统化主动权益投资策略 [3] - 贝莱德的SAE策略依托另类数据和AI AI用于生成量化信号及对数百个量化信号进行动态配重 [4] - 用AI做宏观语境分析与研判已成为主观投研“AI+”的重要方向 未来初级研究工作或将更多由AI承担 行业将更偏好复合型人才 [4] 桥水对亚洲及中国市场的观点 - 桥水在2025年底的分析中指出 投资者对美国资产的集中度高达约70% 这是一个关键风险点 [5] - 桥水建议减配美国市场 增配其他市场——尤其是亚洲 因为亚洲和新兴市场资产具备分散化价值 且与主要市场的相关性较低 [5] - 桥水认为 全球(除美国外)股票配置至少应与美股配置比例相当 且分散化投资正当时 [5] - 多家外资巨头在2026年度展望中看好中国资产的整体表现 尤其认为中国科技产业长期成长逻辑稳固 科技股行情有望延续 [6] - 2026年年初至1月12日 多只在美国上市的中国股票ETF均获资金净流入 [6]
壁仞科技(06082):IPO申购指南
国元国际· 2025-12-22 19:24
投资评级与核心观点 - 报告对壁仞科技(6082.HK)的IPO申购建议为“谨慎申购” [1] - 报告核心观点:壁仞科技所处的GPGPU(通用图形处理器)市场具备广阔的长期发展前景,且当前处于相对快速发展期[2] 但公司港股发行估值按中间价相当于2024年117倍市销率(PS),考虑到其盈利时间表尚不完全明朗,因此建议谨慎申购[2] 公司业务与市场地位 - 壁仞科技开发GPGPU芯片及基于GPGPU的智能计算解决方案,为人工智能提供基础算力[2] - 公司通过整合自主研发的硬件及专有的BIRENSUPA软件平台,其解决方案支持从云端到边缘的广泛应用中AI模型的训练及推理[2] - 公司的解决方案在大语言模型的预训练、后训练及推理方面拥有强大性能与高效能,具备高技术壁垒,使其在国内竞争中具有关键优势[2] - 根据灼识咨询资料,按在中国市场产生的收入计,预期中国智能计算芯片市场规模在2025年达到504亿美元,公司预期取得约0.2%的市场份额[2] 行业市场前景 - 以收入计,全球智能计算芯片市场从2020年的66亿美元快速增长至2024年的1,190亿美元,复合年增长率(CAGR)为106.0%[2] - 预计未来五年市场将保持快速增长,并于2029年达到5,857亿美元,2024年至2029年的CAGR为37.5%[2] - 市场增长将受到短期内对AI计算基础设施(如AI数据中心)投资激增的推动,以及长期内一系列基于大语言模型的AI应用蓬勃发展并持续消耗智能算力的驱动[2] 公司财务表现 - 2022年至2024年,公司收入分别为人民币0.5百万元、62.03百万元及336.8百万元[2] - 同期,公司净亏损分别为人民币-1,474.31百万元、-1,743.95百万元和-1,538.1百万元[2] 估值与可比公司 - 壁仞科技港股发行估值按招股中间价计算,相当于2024年117倍市销率(PS)[2] - 报告列举了行业相关上市公司估值作为参考,包括中芯国际(2024年PS为8.35倍)、华虹半导体(PS 7.56倍)、天岳先进(PS 14.70倍)、赛晶科技(PS 1.84倍)、C沐曦-U(PS 386.30倍)及摩尔线程-U(PS 716.03倍)[4] 招股详情 - 上市日期:2026年1月2日(星期五)[1] - 招股价格区间:17至19.6港元/股[1] - 集资额:按18.3港元/股中间价计算,约为43.5066亿港元[1] - 每手股数:200股,入场费为3,959.54港元[1] - 招股日期:2025年12月22日至2025年12月29日[1] - 招股总数:24,769.28万股(可予调整及视乎超额配售权行使情况而定)[1] - 其中,国际配售约占95%(23,530.28万股),公开发售约占5%(1,238.48万股)[1] - 保荐人:中金公司、平安证券(香港)、中银国际[1]
壁仞科技IPO,募资44亿
半导体芯闻· 2025-12-22 18:17
壁仞科技IPO计划与市场影响 - 中国AI芯片制造商壁仞科技寻求通过香港IPO筹资至多约6.23亿美元(约合44亿人民币),计划发行2.477亿股,每股发行价介于17.00港元至19.60港元之间,最高筹资48.5亿港元(折合6.233亿美元),预计股票将于明年1月2日在香港挂牌交易 [1] - 此次IPO为香港可能出现的又一个由AI公司主导的上市大年奠定了基础,香港IPO市场在经历数年低迷后正迎来复苏,此次成功上市可能会刺激更多中国AI相关公司赴港上市 [1] - 在壁仞科技公布IPO计划前,同属中国GPU领域“四小龙”的摩尔线程和沐曦股份已在上海成功上市,其中摩尔线程股价在首个交易日飙升425%,沐曦股份股价则飙升近七倍 [2] 行业背景与市场趋势 - 中国AI初创公司已加快上市步伐,以利用资本市场融资,中国政府已将科技自立自强作为下一个五年规划的重中之重,国内投资者对AI相关领域的投资热情依然高涨 [2] - 香港今年有望重夺全球IPO桂冠,2025年1-11月通过IPO筹集的资金总额达到2,594亿港元,是上年同期的三倍多,毕马威中国预计2026年香港将迎来又一个上市大年,AI相关的IPO料将加速 [2] - 近期,中国生成式AI初创公司MiniMax Group已通过香港交易所上市聆讯并提交文件,大语言模型开发商智谱AI也在加紧赴港IPO步伐 [1][2] 公司业务与技术 - 公司开发通用图形处理器(GPGPU)芯片及基于GPGPU的智能计算解决方案,为人工智能提供所需的基础算力,其解决方案支持从云端到边缘的广泛应用中AI模型的训练及推理 [3] - 公司的技术在大语言模型的预训练、后训练及推理方面拥有强大性能与高效能,具有高技术壁垒,是国内竞争中的关键优势,其技术是支撑AI发展、推动通用人工智能进步的重要基础设施 [3] - 为应对AI快速发展带来的计算需求,公司自主研发了智能计算整体解决方案,包含基于GPGPU架构与芯片的硬件系统以及BIRENSUPA计算软件平台,该产品可以大规模智能计算集群的形式交付 [4] 财务数据与募资用途 - 公司的智能计算解决方案于2023年开始产生收入,截至2024年12月31日止年度及截至2025年6月30日止六个月,该产品分别有14名及12名客户,分别贡献收入人民币3.368亿元及5890万元 [5] - 假设发售价为每股18.30港元,全球发售所得款项净额约43.506亿港元,其中约85.0%将用于日后研发公司的智能计算解决方案,约5.0%将用于该解决方案的商业化,约10.0%将用作营运资金及一般公司用途 [5] 基石投资者 - 公司已与基石投资者订立基石投资协议,基石投资者同意按发售价认购总金额3.725亿美元可购买的发售股份 [6] - 基石投资者包括启明创投、南方基金、平安人寿保险、泰康人寿保险有限责任公司、国泰君安证券投资(香港)有限公司、神州数码(香港)有限公司等多家知名投资机构 [6]
大模型正沦为“免费基建”,真正Alpha机会在应用层?
美股IPO· 2025-11-24 15:45
文章核心观点 - 大语言模型正迅速商品化并趋于免费 其本身并非最终的价值创造者 [1][4] - AI领域的投资重心已从基础设施层转移至应用层 真正的长期价值在于应用生态 [1][3] - 未来2-3年的最大投资机遇在于利用AI技术颠覆传统行业并创造巨大效率提升的创新应用 [1][6] AI基础设施层现状与前景 - 当前多家大型语言模型开发商陷入同质化功能竞争 被比喻为同时创造10个谷歌 [5] - 模型开发商扮演类似宽带运营商的角色 提供基础工具但非价值链中最丰厚的利润环节 [5] - 英伟达高达5万亿美元的估值被类比1999年的思科 被认为是反映已发生成就的向后看估值 [6] - 尽管未来几年美国将投入5000亿美元建设数据中心 但这轮建设被定性为小繁荣 资本和关注度已经越位 [7] AI应用层投资机遇 - 最丰厚的利润将流向最懂得使用AI工具创造实际商业价值的应用开发者 [5] - 投资策略倾向于成为利用搜索引擎赚钱的人 而非搜索引擎的开发者 [6] - 全部前瞻性精力用于寻找未来2-3年的机会 即能够将AI能力与特定行业深度结合的初创企业 [6] - 真正的赚钱机会在于宽带之上建立业务的公司 而非宽带运营商本身 [5]
顾客期待共情,企业该如何满足?
36氪· 2025-11-20 09:12
共情在商业环境中的价值与消费者需求 - 共情包含三个要素:分享他人经历、尝试理解他人眼中的世界以及关心他人的福祉 [1] - 富有共情力的领导者能够打造出员工敬业度更高、忠诚度更强的团队 员工在这样的团队中感觉更良好且工作表现更出色 [1] - 大多数顾客希望从与之打交道的公司感受到共情 但大多数公司却未能做到 [1] 消费者对共情的重视程度与市场现状 - 79%的受访者表示品牌在互动中展现共情的能力是他们做出选择时的考虑因素之一 其优先级高于在线评论(73%)和亲朋好友的推荐(64%) [2] - 61%的受访者表示愿意为展现出共情的品牌支付更高费用 [2] - 78%的受访者认为公司并未真正关心客户 超过40%的人曾因品牌缺乏共情而选择离开 [2] - 超过70%的受访者怀疑聊天机器人是否真的能够共情 超过60%的人担心人工智能正在破坏客户关系 [2] 将共情融入企业架构的方法 - 企业需要将共情从可有可无转变为当务之急 例如克利夫兰诊所通过设立患者体验办公室和首席体验官来推动变革 [4][5] - 采用“旅程地图”方法绘制顾客与品牌的每一个互动点 识别困扰并制定改进策略 [6] - 这些努力必须得到高层的支持 领导者必须认识到共情对于建立稳固客户关系至关重要 [6] 投资提升员工共情技能的成效 - 克利夫兰诊所对4.3万名员工进行“共情训练营”后 患者满意度从行业中游跃升至前10% 员工敬业度和满意度也大幅提升 [7] - 对管理者进行共情培训能够提高他们的净推荐值以及直接下属的敬业度 [7] - 苏黎世保险集团通过为期两天的沉浸式培训项目 让全球近四分之一员工(总计近4.6万小时培训)提升了共情技能 客户净推荐值提高了7个百分点 [8] 人工智能与人性化关怀的融合策略 - 聊天机器人可以让客户体验更高效 但在客户需要做出重大决策或表达强烈情绪时 技术就不够用了 [9] - 明智的公司可以设计客户旅程 让大语言模型识别关键时刻并邀请经过培训的员工接手对话 例如沃达丰的人工智能助手TOBi [9] - 未来十年客户关系的重点将是大规模恢复人性化联系的时代 通过将共情融入运营基因来推动可持续增长 [9]
GitHub 工程师揭底:代码审查常犯这 5 个错,难怪你改到崩溃!网友:差点全中了
程序员的那些事· 2025-11-04 17:09
文章核心观点 - 在AI生成代码日益普及的背景下,代码审查的重要性显著提升,但工程师在审查过程中常犯错误,需改进审查方法以提升效率[5] - 工程师应避免仅审查代码差异、留过多意见、以个人偏好为标准审查,并应明确使用审查状态,多数审查应为“通过”状态[6][8][9][12][13] - 审查原则同样适用于AI生成代码,但对其应更严格,代码审查方式因团队目标优先级不同而异[17] 工程师在代码审查中常犯的错误 - 最大错误是只审查代码差异,而忽略代码在整体系统中的适配性,应结合对代码库其他部分的熟悉度提出更有影响力的意见[6] - 审查意见过多会淹没重要问题,一次好的审查意见不应超过五六条,风格问题应汇总提出而非逐条标注[8] - 使用“我会怎么写”的个人偏好标准进行审查会导致意见堆积,只要代码能正常工作且方案合理就应通过,避免强加个人偏好[9][10][11] - 不想让变更合并时应明确标记“阻塞性审查”,避免使用模糊意见导致合并流程混乱[12] - 多数审查应为“通过”状态,高阻塞率可能反映团队结构性问题或过度“守门”,谷歌指南将“优先通过变更”作为首要原则[13][14] 代码审查的实用原则 - 审查时应思考PR中“没写的代码”是否合理,而不仅看已写部分[18] - 留少量经过深思熟虑的意见,而非堆砌上百条随手意见[18] - 以“代码能正常工作”为标准审查,而非追求与个人写法完全一致[18] - 除非有严重问题,否则应通过审查,对AI生成代码可更严格[17][18] - 代码审查是学习机会,需在进度推进和代码库质量维护间找到平衡[22]
AI赋能资产配置(十九):机构AI+投资的实战创新之路
国信证券· 2025-10-29 14:51
核心观点 - 大语言模型、深度强化学习和图神经网络三大技术正从信息基础、决策机制到系统架构三个层面深度重构资产配置的理论与实践 [1] - AI技术栈已具备现实基础,AI正从辅助工具转向决策中枢,推动资产配置从静态优化迈向动态智能演进 [1] - 头部机构的竞争已升维至构建专有、可信且能驾驭复杂系统的"AI原生"战略,其核心是全链条的专有技术布局 [2] - 对国内资管机构而言,破局之道在于战略重构与组织变革,走差异化、聚焦式的技术落地路径,构建务实高效的"人机协同"体系 [2][3] AI技术范式重塑 大语言模型(LLMs) - LLMs通过深度理解财报、政策等非结构化文本,将海量非结构化文本转化为可量化的Alpha因子,根本上拓展了传统投研的信息边界 [1][11] - 金融专用LLMs的开发遵循预训练加微调的两步范式,以克服通用模型在金融专业术语理解上的不足,业界已出现如BloombergGPT(500亿参数)、FinGPT等专用模型 [12][13] - LLMs的应用场景包括为算法交易系统提供实时情绪信号,以及7×24小时不间断监控全球信息流进行风险管理 [14] - LLMs应用面临数据偏见与模型幻觉、高昂计算成本及可解释性难题等核心挑战 [15][16] 深度强化学习(DRL) - DRL推动资产配置决策框架从静态优化转向动态自适应,其目标是学习在长期内实现最优回报的决策策略,而非一次性精准预测 [1][17] - DRL构建"智能代理"通过与模拟或真实的金融市场交互来学习,其核心是经历"观察-行动-奖励"循环以学会最优策略 [18] - 主流DRL算法包括演员-评论家方法、近端策略优化和深度确定性策略梯度,这些算法非常适合投资组合管理中的连续权重调整任务 [19][20] - DRL的发展瓶颈包括数据依赖与过拟合风险、市场周期适应性难题、高昂计算成本及现实世界约束整合的技术挑战 [21][22] 图神经网络(GNNs) - GNNs通过将金融系统抽象为网络(节点代表金融机构,边代表相互关联),揭示金融网络中的风险传导路径,深化对系统性风险的认知 [1][23] - GNNs通过"消息传递"机制学习节点的自身特征和图的拓扑结构,能够进行风险传播建模和压力测试,识别"大到不能倒"的核心机构 [24][25] - GNNs对监管者的启示在于能够进行动态系统性风险评估和压力测试,对投资者的价值在于帮助构建更有效的投资组合对冲策略 [26] 头部机构实践案例 贝莱德(BlackRock)AlphaAgents - AlphaAgents项目采用多智能体系统模拟人类投资委员会的"协作与辩论"机制,设立基本面分析、情绪分析和估值分析三个专业分工的AI智能体 [30][31] - 系统核心技术由GPT-4o驱动,通过对抗性辩论与共识辩论环节,强制智能体就"买入"或"卖出"展开多轮讨论直至达成一致,以提升结论稳健性 [31][33] - 回测实验显示,在风险中性策略下,多代理投资组合的累计回报和夏普比率显著优于所有单代理组合及市场基准,而在风险规避策略下成功实现了规避下行风险的策略目标 [34][35] - 该系统的战略定位是代表贝莱德人机协作模式的根本性升级,其未来价值在于解决AI信任问题、具备全流程AI赋能潜力及寻找判断性Alpha [39][40] 摩根大通(JPMorgan)"AI原生"战略 - 摩根大通每年在AI上投入20亿美元,其AI研究部门在2024至2025年间共发表140篇出版物,其中8篇发表于AAAI顶级会议,研究布局具有鲜明的学术导向 [42][43][44] - 战略支柱一聚焦构建专有、可信的AI核心技术,通过研究如模型公平性、差分隐私和输出控制等技术,将合规成本中心转化为竞争护城河 [45][46][47][49] - 战略支柱二通过多智能体模拟和强化学习创建金融"风洞实验室",旨在模拟复杂经济系统并训练AI代理做出最优决策,以掌控复杂系统 [53][54][55][56] - 战略支柱三从物理与另类数据中创造信息优势,应用计算机视觉和地理空间分析技术将现实世界数据转化为结构化金融信息,扩展"可知"和"可定价"的边界 [58][59][60][61] 对国内资管机构的启示 - 国内机构需进行战略重构,成立跨部门AI战略委员会,制定符合公司特色的转型路线图,并采取"聚焦突破"策略而非盲目追求"大而全" [63] - 技术落地应采取"三步走"策略,夯实数据基础,基于开源框架务实选择模型,并确立"人机协同"原则,将AI定位为投研团队的"智能副手" [64] - 组织变革需打破部门壁垒,构建融合投资、数据科学和工程的跨职能团队,并采取"外部引进与内部培养"双轨制进行人才建设 [65][66] - 风险管控需建立覆盖模型全生命周期的治理框架,前瞻性布局"可信AI"能力,将合规能力转化为竞争优势 [67]