Workflow
硬AI
icon
搜索文档
OpenAI的“广告模式”已初具雏形
硬AI· 2025-12-25 16:47
OpenAI探索ChatGPT广告商业化 - 公司正积极规划ChatGPT的广告商业化路径,旨在将其近9亿庞大用户群变现 [1] - 内部已在讨论调整AI模型以优先展示赞助内容,并制作了侧边栏广告等多种形式的内部模型 [1][2] - 此举若实施,将对谷歌和Meta主导的万亿美元数字广告市场构成潜在挑战 [1][2] 新型广告模式与实现方式 - 目标是创造一种新型数字广告,而非简单复制现有模式 [5] - 计划利用从用户详细聊天中收集的大量兴趣信息,展示与用户意图高度相关的广告 [5] - 评估的方案倾向于“非侵入式”广告,例如广告只在用户对话进行到特定阶段后出现 [5] - 内部模型示例:当用户请求制定行程时,聊天机器人推荐景点,若用户点击链接获取更多信息,系统可能弹出包含付费服务商赞助链接的窗口 [5] 商业化动力与市场潜力 - 探索广告业务的背后是巨大的变现压力与商业雄心 [7] - ChatGPT周活跃用户已激增至近9亿,但截至今年10月,其中只有约5%是付费用户 [7] - 公司预测,从明年开始,“免费用户变现”带来的每用户平均年收入将为2美元,到2030年将增至15美元 [7] - 预计到2030年,来自非付费用户的总收入将达到约1100亿美元,其毛利率可与Meta Platforms旗下的Facebook相媲美,达到80%至85% [7] - 此举将使公司直接进入由谷歌、Meta和亚马逊主导的全球数字广告市场,这三家公司占据了全球(不含中国)约60%的市场份额,预计今年总广告收入将接近5600亿美元 [8] - 分析师认为,ChatGPT的对话形式能有效吸引用户注意力,使其成为一个潜力惊人的广告平台 [8] 内部态度转变与平衡挑战 - 广告一直是公司内部敏感话题,担忧会损害用户对其回复的信任,部分员工认为商业广告与实现通用人工智能(AGI)的宏大目标相悖 [10] - 公司首席执行官Sam Altman去年五月曾表示,广告将是“最后的手段” [10] - 其态度已有所软化,在今年10月表示“我发现广告有点令人讨厌,但并非完全不可行”,这反映了公司在维持高昂运营成本和寻求可持续商业模式之间的权衡 [10] 商业化基础铺设与当前阶段 - 公司已陆续在ChatGPT中增加购物功能,包括与支付处理公司Stripe合作构建结账功能,以及与Shopify、Zillow和DoorDash等公司合作,整合电商、房地产和外卖订购服务 [12] - 这些电商功能能培养用户AI购物习惯,并为公司提供最新的商家数据,这些数据对于未来广告的精准投放和效果追踪至关重要 [13] - 广告业务仍处于非常早期阶段,一项内部的“红色警报”事件为了优先改进ChatGPT核心功能,而推迟了广告相关工作 [13] - 广告商和品牌方虽有兴趣,但据五位高管透露,他们至今未从公司获得任何关于付费广告的具体信息 [13]
七大预测揭开AI供电革命拐点!英飞凌白皮书前瞻下一代技术
硬AI· 2025-12-24 16:10
文章核心观点 - 人工智能技术的指数级增长正驱动一场电力革命,对从芯片到电网的整个供电体系提出前所未有的挑战并推动其变革 [3][4] - 英飞凌发布白皮书,对未来十年AI供电体系的发展做出七大关键预测,描绘了从处理器架构到数据中心能源供给的全面演进图景 [3][4] 预测一:垂直供电将主导未来处理器架构 - 垂直供电将成为现代处理器的关键技术,以应对芯片尺寸增大、供电电压降至约0.4V带来的高电流挑战 [5][6] - 未来十年,单颗处理器负载电流预计将攀升至10,000安培,是当前水平的10倍 [2][3][6] - 传统横向供电方式在高电流下空间占用大且损耗显著,未来电能将通过主板垂直传递至处理器背面 [6] - 公司提供完整产品组合,其第三代垂直功率模块电流密度已达2A/mm²,并通过结合多项技术实现前所未有的功率密度 [9] 预测二:高压直流供电架构将取代48V生态 - 当单机架功率突破1兆瓦时,系统架构必须从48V转向800V或±400V高压直流供电 [11][12] - 这一转变预计在单机架功率达到200-250千瓦时出现,此时48V总线母排需承载4100-5200A电流 [12] - 未来服务器主板将直接运行于高压直流下,需要引入电子保险丝、热插拔等新模块 [12] - 公司开发的6千瓦800V→12V演示板功率密度超过2300W/in³,峰值效率达97.4% [14] 预测三:AI机架功耗步入兆瓦时代 - 训练万亿级参数AI模型需要数千颗GPU集成同步运行,行业趋势是在单个IT机架内集成更多GPU [15][16] - 当单个机架集成多达72台刀片服务器时,IT机架总功率将在十年内突破1兆瓦 [16] - 在高功率水平下,机架内部空间成为主要限制,电源模块、电池备用单元等附加功能将迁移至侧柜或辅助机架 [16] 预测四:电源架功率等级将突破100千瓦 - 当IT机架功率接近100千瓦时,基于单相交流输入的12千瓦PSU可升级并保持1U紧凑尺寸 [18][19] - 每个电源架可容纳6个电源模块(72千瓦),每个机架最多配置8个电源架,为迈向1兆瓦IT机架奠定基础 [19] - 当单个IT机架功率提升至1兆瓦时,数据中心将从单相PSU转向三相PSU,直接接入400V AC或480V AC三相交流电网 [19] 预测五:新一代数据中心功率需求迈向吉瓦级 - 现代GPU功耗攀升和AI计算节点密集部署,使新建数据中心用电需求已达数百兆瓦级别 [21][22] - 未来将出现专门的“AI工厂”,在同一数据中心园区内用电量将达到吉瓦级,甚至超过数吉瓦 [22] - 公司提供覆盖400V至3.3kV的宽禁带半导体产品组合,以确保吉瓦级数据中心的稳定运行 [22] 预测六:配电系统将转向直流微电网 - 当功率需求逼近吉瓦级时,必须建立全新配电基础设施,直流微电网被认为是最有潜力的未来架构 [23][24] - 该架构下,电能由中压交流电网(10-35kV)直接集中生成,以高压直流形式分配,消除传统AC-DC电源模块 [24] - 固态变压器技术将发挥关键作用,每台输出功率预计可达2-10兆瓦 [24] 预测七:可再生能源成为AI发展关键约束 - AI是未来十年全球电力需求增长的三大驱动因素之一,全球数据中心所用电力中可再生能源比例正逼近50% [26][27] - AI数据中心必须采用可再生能源,支持1吉瓦级数据中心运行约需8平方公里太阳能电场 [28] - 核电和小型核反应堆未来将稳定供应零碳能源,全球趋势聚焦于推动数据中心低碳化 [29]
大模型“缩放定律”悖论:RL(强化学习)越强,AGI(通用智能)越远?
硬AI· 2025-12-24 16:10
文章核心观点 - 知名科技博主Dwarkesh Patel提出,当前AI行业过度依赖基于可验证奖励的强化学习路径,通过耗费巨资为模型“预制”特定技能,这恰恰证明当前大模型缺乏人类般的通用学习能力,距离真正的通用人工智能仍很遥远 [2][3][4] - 通往AGI的真正关键驱动力在于“持续学习”能力,即模型能够像人类一样从经验和反馈中自主学习,而非依赖预先排练好的脚本,这一能力的完善可能需要5到10年甚至更长时间 [4][9][29] 对当前AI发展路径的批判 - **技能预制的悖论**:顶尖AI实验室正耗费数十亿美元,通过强化学习在模型中“预烘焙”或“预制”如操作Excel、浏览网页等特定技能,这种做法本身与AGI应具备的通用学习能力相矛盾,暴露了当前模型的根本缺陷 [3][5][11] - **机器人学问题的本质**:机器人技术普及的障碍本质上是算法问题而非硬件问题,如果拥有类人的学习能力,机器人早应普及,而无需在特定环境下进行百万次重复训练 [6][13] - **经济扩散迟缓的根源**:以“技术扩散需要时间”来解释AI未广泛部署是托词,根本原因在于模型缺乏产生广泛经济价值所必需的能力,如果模型真具备类人智能,其整合速度将远超人类员工 [7][19][20] AGI实现的关键瓶颈与未来展望 - **持续学习是关键瓶颈**:AGI的真正瓶颈在于“持续学习”能力,而非单纯的强化学习算力堆叠,真正的类人智能可能需要未来10到20年才能实现 [9][18] - **能力与市场收入的落差**:全球知识工作者每年创造数十万亿美元价值,而当前AI模型的收入与之相差数个数量级,这证明模型能力尚未达到替代人类知识工作者的临界点 [8][22] - **持续学习将渐进式发展**:解决持续学习问题不会是一蹴而就的单一成就,而会是一个渐进过程,类似于“上下文学习”能力的逐步演进,预计人类水平的“在岗学习”能力可能需要5到10年才能解决 [4][27][29] 对行业竞争与研发趋势的观察 - **强化学习扩展的悲观前景**:有分析指出,基于可验证奖励的强化学习可能需要在大约100万倍的总计算规模上进行扩展,才能获得类似于单一GPT级别的性能提升,这表明该路径的扩展效率可能很低 [25][26] - **行业竞争保持激烈**:模型公司之间的竞争预计将保持相当激烈,此前所谓的飞轮效应在拉开竞争差距方面收效甚微,单个实验室难以获得失控的领先优势 [30]
报道:字节计划2026年资本支出1600亿元,半数将投入AI芯片
硬AI· 2025-12-23 17:24
字节跳动资本支出计划 - 公司初步计划2026年资本支出达1600亿元人民币(约合230亿美元),较2024年的1500亿元有所增长 [2] - 投资重点将集中在AI基础设施建设上,其中约一半资金(约850亿元人民币)将用于采购先进半导体芯片以开发AI模型和应用 [2] - 若获准采购更多先进芯片,公司可能会大幅增加资本开支 [3] AI领域竞争态势 - 公司作为中国最大的AI基础设施建设者之一,正努力在全球AI竞争中占据领先地位 [4] - 这一投资规模反映出中国科技公司在AI竞争中的积极姿态,但仍远低于美国科技巨头的投入水平 [3] - 微软、谷歌母公司Alphabet、亚马逊和Meta在2024年合计在AI数据中心建设上投入超过3000亿美元 [3] 公司AI业务现状与优势 - 公司的豆包模型在面向消费者的AI应用领域占据主导地位,已成为中国月活跃用户数和下载量最高的AI应用 [4] - 公司的AI服务已成为中国使用量最大的平台,2024年10月日均token使用量大幅增长至超过30万亿次,谷歌同期为43万亿次 [4] - 与阿里和腾讯等其他中国大型科技公司相比,公司作为非上市公司的优势在于能够更灵活地进行激进投资,在AI领域进行长期布局 [4] - 公司还通过推广火山引擎云服务与阿里展开激烈竞争 [4]
不再正面挑战亚马逊,英伟达据称重组云团队
硬AI· 2025-12-23 17:24
英伟达云业务战略重大调整 - 英伟达已放弃与亚马逊云服务等巨头正面竞争的愿景,并对云团队进行重组 [2][3] - 公司将规模达数百人的DGX Cloud团队并入工程与运营组织,由高级副总裁Dwight Diercks领导 [3] - 云业务部门负责人Alexis Black Bjorlin等多名高管被重新分工或离开公司 [3] DGX Cloud业务定位转变 - DGX Cloud团队未来重心将转向服务英伟达内部工程师对芯片的需求,用于开发开源AI模型 [3] - 该团队将不再重点向外部企业客户销售云服务 [3] - 较新的云服务DGX Cloud Lepton也将并入工程团队 [4] 初始战略与潜在风险对冲 - 英伟达于2023年3月首次发布DGX Cloud,旨在开辟新收入来源并与AI开发者建立直接联系 [4] - 此举被视为对冲风险的手段,因担心谷歌、微软和亚马逊开发自有AI芯片会降低对英伟达芯片的依赖 [5] - 公司曾宣传其早期客户包括ServiceNow、SAP和Amdocs [5] 业务发展面临的挑战 - DGX团队始终难以吸引足够的客户 [7] - 由于服务运行在AWS等不同云服务商的数据中心,英伟达在提供故障排查支持方面面临困难 [7] - 公司不愿大幅扩展此业务,以免惹恼作为其最大芯片客户的云服务商 [7] 财务预期与当前地位 - 英伟达曾向投资者表示,该云业务未来有望创造1500亿美元收入,超过AWS目前的年收入规模 [8] - 尽管面临竞争,英伟达在AI芯片销售领域的绝对主导地位依然稳固 [9] - 公司未来几年计划投入260亿美元用于租用由云服务商采购的英伟达服务器 [10] 公司官方表态 - 英伟达发言人表示将继续投资DGX Cloud,为前沿研发提供基础设施,并为云合作伙伴提供软件能力 [11] - 公司目标一直是将DGX Cloud作为试点项目进行培育,学习如何为生态系统合作伙伴更好地构建系统 [11]
a16z“2026年AI Agent三大猜测”:输入框的消失,代理使用优先,语音代理的崛起
硬AI· 2025-12-23 17:24
文章核心观点 - AI正从被动响应的聊天工具进化为能够主动观察、诊断并执行任务的“代理”,这一根本性转变将深度重塑软件和劳动力市场 [2][3] 用户界面交互的演变 - 到2026年,作为AI应用主要用户界面的输入框将会消亡,下一代应用将通过观察用户行为主动介入并提供待审核的行动方案 [3][4] - 交互模式将从“提示”转向“执行”,AI将从“被动响应”转向“主动观察与干预” [3][13] - 理想的AI代理应像最具主动性的“S级员工”:识别问题、诊断根源、实施解决方案,最后仅需人类批准 [4][13][15][16] 市场规模的跃迁 - AI的目标市场正从全球每年3000亿至4000亿美元的软件支出,转向仅美国就存在的13万亿美元劳动力支出,市场机会扩大了约30倍 [4][13][14][15] 产品设计逻辑的重构 - 软件设计将从“以人为本”转向“代理优先”,新的优化方向不是视觉层级,而是“机器可读性” [3][8][13][18] - 为吸引人类注意力而优化的原则(如5W1H)和精美UI将面临重构,设计将转为服务智能体的消费 [8][18][19] - 品牌竞争可能从吸引人类注意力转向“生成引擎优化”,甚至出现大量针对AI抓取而生成的超个性化、高频内容 [8][13][20] 语音代理的规模化部署 - AI语音代理已从技术演示走向真实企业的大规模采购和部署,发展为一个完整的产业 [3][11][21][26] - 在医疗保健领域,语音代理被用于日程安排、术后随访甚至精神科初诊,主要驱动因素是行业高流动率和招聘困难 [11][16][22] - 在银行和金融服务领域,语音AI因能100%遵守合规规定且表现可追踪,其可靠性优于人类 [11][16][22] - 在招聘领域,语音AI可为候选人提供随时可进行的面试,优化招聘流程 [11][22][23] - 未来有望在政府公共服务(如911非紧急电话、车管所业务)及消费级健康保健领域得到更广泛应用 [16][25][26] AI代理的能力与影响 - AI代理能够处理完整业务闭环,例如未来的AI原生CRM可持续分析销售机会、挖掘沉寂线索并自动执行起草邮件、整理日历等任务 [17] - 在安全运营或事故解决等复杂、高责任场景,人类仍将长期保持在回路的最终决策角色,但在其他场景(如自主回答问题)人类已开始退出循环 [20] - AI技术不会直接取代工作,但使用AI的个人或服务商将获得竞争优势,这可能深刻变革传统呼叫中心和业务流程外包行业 [11][23]
摩尔,沐曦,壁仞和天数!“国产GPU四小龙”齐聚IPO
硬AI· 2025-12-23 17:24
行业概览:国产GPU四小龙集体登陆资本市场 - 中国GPU产业正迎来历史性的集体突围时刻,四家主要企业(天数智芯、壁仞科技、摩尔线程、沐曦股份)齐聚资本市场,通过不同的差异化路径抢占芯片市场份额 [3] - 四家企业差异化路径清晰:从追求全功能生态的平台型策略,到聚焦单一季度盈利的工程化能力,再到绑定国家级算力枢纽的集群路线 [2][3] 天数智芯:首发优势与全产品线 - 公司是国内最早启动通用GPU设计的企业之一,凭借“最早量产、最稳供给”的先发优势确立地位,是国内首家实现“训练+推理”通用GPU双量产且首家采用7nm工艺达成该里程碑的中国设计公司 [7] - 拥有天垓(训练)和智铠(推理)两条成熟产品线,构建了完整的通用GPU产品组合,累计出货量已超过53,000片 [7] - 营收快速增长,2025年上半年收入达3.24亿元人民币,已超过2023年全年水平 [7] - 客户结构显著优化,对单一客户依赖度大幅降低,前五大客户收入占比从2022年的94.2%下降至2025年上半年的38.6%,客户总数从22名增长至106名 [7] - 2024年收入量级为5.40亿元人民币,毛利率约为50% [6] 摩尔线程:生态为王与平台价值 - 公司以超过3000亿元人民币的市值登陆科创板,市场高估值源于对其庞大生态想象力的期待 [3][11] - 强调全功能GPU策略,基于自主MUSA架构推出四代GPU,实现单芯片同时支持AI计算、图形渲染及科学计算,其MTT S80显卡部分性能指标接近英伟达RTX3060 [11] - 2025年上半年已售出5个AI集群,展现出在智算中心等领域的替代潜力 [11] - 预计2025年营收最高可达14.98亿元人民币,同比增速超240%,综合毛利率已提升至70%左右,并规划最早于2027年实现盈利 [11] - 2025年1-9月营业收入为7.85亿元人民币,同比增长181.99% [13] 壁仞科技:国家队背书与算力集群 - 公司已通过港交所聆讯,即将成为港股“国产GPU第一股” [3][16] - 背靠豪华的“国家队”资本阵容,包括上海国投先导基金、广州产投及平安集团等,在承接国家级算力枢纽和超算中心项目时具备天然优势 [16] - 技术路线主打千卡级集群、Chiplet及光互连技术,专注于解决大规模算力部署中的系统级难题 [16] - 2024年收入攀升至3.37亿元人民币,两年间年复合增长率高达2500% [16][18] - 2024年与三大电信运营商建立深度合作,并成功交付了金额达1.8亿元人民币的1024-GPU智能计算集群项目 [16] - 2024年毛利率为31.90% [6] 沐曦股份:商业化速度与率先盈利 - 公司开盘报700.00元,较发行价大涨568.83%,目前总市值达2814亿元人民币,成为继摩尔线程后第二家上市的国产GPU企业 [20] - 展现出极强的工程化能力与商业化速度,率先打破行业持续亏损常态,在2025年第二季度实现归母净利润4661.89万元人民币,成为四小龙中最早实现单季度盈利的企业 [20] - 2025年1-9月营业收入为12.36亿元人民币,同比增长453.52%,亏损幅度显著收窄 [21] - 预计2025年全年营收将突破15亿元人民币 [21] - 依托AMD系团队强大的产品落地能力,迅速推出覆盖AI计算、通用计算及图形渲染的三大产品线,目前GPU累计销量已超2.5万颗 [21][22]
AI大模型独角兽招股书深度拆解:MiniMax to C,智谱 to B
硬AI· 2025-12-22 16:57
核心观点 - 中国大模型领域两家领先公司MiniMax与智谱AI相继赴港上市,其招股书揭示了ToC与ToB两条截然不同的商业化路径、技术路线与财务表现,标志着行业进入商业化落地深水区 [2][3] 商业模式与收入结构 MiniMax:C端驱动的超级应用 - 公司定位为AI原生产品公司,核心产品为全模态交互平台Talkie(海外版)/星野(国内版)[6] - AI原生产品收入增长迅猛,从2023年的75.8万美元飙升至2025年前9个月的3802万美元,占总收入比例达71.1% [6][7] - 用户规模井喷,平均月活用户从2023年的310万增长至2025年9月的2760万,累计服务用户超2亿 [7][9] - 付费用户数在2025年前9个月达到177.16万,每位付费用户平均支出从2023年的6美元提升至15美元,跑通用户增长-留存-付费闭环 [7] - 变现模式主要通过订阅、虚拟物品内购及在线营销服务 [9] - 在B端音频市场是隐形巨头,其Speech-02语音模型服务阅文集团等数字阅读巨头,2023年第一大客户贡献37.2%营收 [10] 智谱AI:B端为王的本地部署 - 公司走企业级服务路径,围绕MaaS平台构建商业版图,是中国首个发布千亿参数大模型GLM-130B的公司 [11] - 收入高度依赖本地化部署,截至2025年6月30日,该业务收入达1.62亿元人民币,占总收入比例高达84.8% [11][12] - 主要服务对数据安全和私有化部署有刚性需求的央国企及大型机构,截至2025年6月30日已为超过8000家机构客户提供服务 [12] - GLM系列模型在开源社区累计下载量超4500万次 [13] - 市场以中国内地为主,2025年上半年本地化部署收入中88.4%来自中国内地,11.1%来自东南亚 [12] 技术路线 MiniMax:全模态能力 - 模型矩阵涵盖文本、语音、视频及音乐,强调全模态能力 [15] - 视频生成模型Hailuo-02在独立测评中位居全球前列 [15] - 采用专有的MoE架构及线性注意力机制,旨在降低推理成本,对C端大规模应用至关重要 [15] 智谱AI:学术底蕴与GLM框架 - 技术源自清华大学知识工程实验室,2020年启动GLM预训练框架开发 [17] - 技术亮点在于GLM-4.5基座模型及AutoGLM智能体,后者能模拟人类操作设备,实现从对话到执行的跨越 [17] - 多次强调“安全”与“可控”,与服务大型企业和公共部门的定位高度契合 [17] 财务表现与盈利能力 MiniMax:毛利率由负转正,C端变现提速 - 整体毛利率从2023年的-24.7%改善至2025年前9个月的23.3% [21] - 开放平台及其他企业服务业务毛利率在2025年前9个月高达69.4%,远超行业平均水平,显示其在推理成本控制或API定价权上的优势 [21] - 营收增长迅猛,2023年营收3460万美元,2025年前三季度营收达5344万美元 [22] 智谱AI:高毛利但云端业务承压 - 收入从2022年的5741万元人民币增长至2024年的3.12亿元人民币,复合年增长率超130% [24] - 截至2025年6月30日止六个月,营收为1.91亿元人民币 [24] - 整体毛利率保持在50%的较高水平,主要得益于本地化部署业务高达59.1%的毛利率 [24] - 云端部署业务毛利率从2022年的76.1%大幅下滑至2025年上半年的-0.4%,出现毛利亏损,反映国内大模型API市场价格战惨烈 [24] 研发投入 智谱AI:超饱和投入 - 2025年上半年研发开支高达15.95亿元人民币,是同期营收1.91亿元的8倍以上,研发费用率高达835.4% [29][30] - 超饱和投入主要用于算力服务费及研发人员薪酬,显示其追赶顶尖模型能力的决心 [29] MiniMax:效率提升,费用率收敛 - 研发投入强度高,但费用率随营收增长快速收敛,从2023年超过2000%降至2025年前9个月的337.4% [31] - 2025年前9个月研发支出1.8亿美元,同期营收0.53亿美元,经营杠杆效应开始显现 [31] 市场与地域分布 - MiniMax高度全球化,2025年前9个月来自中国内地的收入仅占26.9%,美国市场收入占比达20.4%,其爆款产品Talkie主打海外市场 [35] - 智谱AI主要聚焦国内市场,核心服务中国内地的政企客户,2025年上半年有部分东南亚收入(占本地化部署收入的11.1%)[12][35] 资本背景 - 两家公司股东名单云集中国顶级科技资本 [38] - MiniMax股东包括阿里(持股约13.66%)、腾讯(持股约2.58%)以及游戏公司米哈游(持股超5%)[43] - 智谱AI股东结构多元,包括蚂蚁集团、腾讯、美团、小米等互联网巨头,以及社保基金中关村创新基金、北京市人工智能产业投资基金等国资平台,还有高瓴、君联资本等老牌VC [43] 资金状况与未来叙事 - MiniMax账上现金及金融资产合计约10亿美元,智谱AI现金及现金等价物达25.5亿元人民币,短期内均有充足资金支持技术长跑 [41] - MiniMax的叙事是“AI原生超级应用”,关键在于C端产品能否持续高留存,以及模型推理效率能否领先,最终跑通流量变现覆盖算力成本的互联网逻辑 [42] - 智谱AI的叙事是“AI新基建”,关键在于B端市场护城河的深度,以及本地化部署的高毛利能否抵消巨额的基础模型研发投入 [44]
“港股GPU第一股”壁仞科技确定IPO发售价格区间,预计明年1月2日上市交易
硬AI· 2025-12-22 16:57
IPO核心信息 - 公司确定香港IPO发行价区间为每股17.00至19.60港元,计划于2026年1月2日挂牌交易,股票代码“6082” [2][3] - 全球发售247,692,800股H股,其中95%为国际发售,5%为香港公开发售,若以发行价上限19.60港元计算且不行使超额配股权,此次IPO最多可募集约48.55亿港元 [3][5][7] - 对于普通投资者,每手买卖单位为200股,以发行价上限计算,加上相关费用后每手入场费约为3,959.54港元 [7][9][10] 公司业务与财务表现 - 公司业务核心是开发通用图形处理器(GPGPU)芯片及基于GPGPU的智能计算解决方案,为人工智能提供基础算力 [12] - 公司商业化进程加速,2022年、2023年、2024年营收分别为49.9万元、6203万元和3.37亿元人民币,2025年上半年实现营收5890.3万元,同比增长49.9% [18][19] - 公司持续亏损,主要原因是高昂的研发投入,2022年至2024年及2025年上半年研发开支分别高达10.18亿元、8.86亿元、8.27亿元和5.72亿元,占各期总经营开支比例均超过70% [22] - 公司毛利率波动较大,2022年至2025年上半年分别为100%、76.4%、53.2%及31.9%,变动主要由于销售产品组合改变所致 [23] 订单与增长潜力 - 截至最后实际可行日期,公司拥有24份未完成的具有约束力订单,总价值约为8.22亿元人民币 [12][16] - 公司已订立5份框架销售协议及24份销售合同,总价值约为12.41亿元人民币,上述两项合计超20亿元人民币的潜在收入储备主要集中在智能计算解决方案领域,客户涵盖电信、AI数据中心及互联网行业头部企业 [12][15][16] 行业竞争与市场环境 - 公司被称为“国产GPU四小龙”之一,其上市是“港股GPU第一股”的关键一步,为观察中国本土AI算力产业提供重要窗口 [3][5] - 市场增长潜力巨大,预计中国企业智能计算芯片市场份额将从2024年的约20%增长至2029年的约60% [24] - 市场竞争格局高度集中,2024年按在中国市场产生的收入计,前两大参与者合计占据94.4%的市场份额 [24] - 公司面临地缘政治风险,自2023年10月17日起,公司若干实体被列入实体清单,限制其获取若干商品、软件及技术的能力 [24] 募资用途与公司背景 - 此次IPO募资将主要用于增强核心竞争力,重点是推进BR20X、BR30X等下一代芯片的开发 [3][12] - 公司自成立以来已完成数轮融资,总额超过90亿元人民币,股东包括众多知名投资机构及产业资本 [27] - 公司最初计划登陆A股科创板,曾于2024年9月签订辅导协议,后考虑到香港联交所平台优势,于2025年决定赴港IPO [27]
MiniMax稀宇科技薛子钊:AI大模型不是"砸钱游戏",国内大模型被严重低估|Alpha峰会
硬AI· 2025-12-22 16:57
文章核心观点 - 全球大模型行业正经历高速但独特的增长 其市场空间完全由模型智能水平的跳跃式提升驱动 每次跃升都会解锁全新应用场景并瞬间扩大市场规模[10][12][19] - 尽管行业市场规模以惊人的月度双位数速度膨胀 但能持续发布全球领先模型的核心玩家数量却在不断减少 资源(算力、资金、人才)并非成功的唯一保证 高效的研发组织和持续创新的系统工程能力才是真正的壁垒[21][22][25] - MiniMax作为一家独立的创业公司 是全球仅有的四家在语言、视频、声音三个模态均达到全球领先水平的公司之一 其研发效率远高于美国同行 能以更少资源做出更领先的模型 但估值却被严重低估[3][42][43] AI行业的独特特点 - **市场驱动因素独特**:行业市场空间唯一的驱动因素是模型的智能水平 其提升是非连续性的跳跃 每次跃升(如从GPT-3.5到GPT-4)都会解锁此前不可行的新应用场景 瞬间划归新的市场份额[10][12][20] - **增长与玩家数量悖论**:行业年化收入已接近三百亿美金 且保持月度双位数的惊人增速 但全球范围内能持续发布领先模型的玩家数量却从三年前持续减少至约十家 国内从“百模大战”演变为个位数公司竞争[21][22] - **成功壁垒在于系统工程能力**:大模型研发是类似造芯片、造火箭的系统工程 需要端到端的深入理解和高效协同 单纯堆砌资源、高薪挖人并不能保证成功 Meta等大厂的失败案例证明了组织损耗的致命性[24][25][26] MiniMax的公司战略与历程 - **前瞻性布局**:公司在ChatGPT发布前一年(2021年)成立 创始之初就判断通用模型将到达工业化拐点 并从第一天就坚持研发语言、视觉、声音三个模态的通用模型 以构建能通过图灵测试的全模态智能体[28][29][31] - **以模型为核心**:公司将超过80%的资源投入模型层和基础设施 视底层模型为核心产品 而面向C端、B端和开发者的应用产品只是展示模型的“窗口”或渠道[3][33] - **全球化运营与高效研发**:公司从创立第一天就是全球化公司 产品服务全球用户 大部分商业化收入来自海外 作为创业公司 其资源消耗比OpenAI少两个数量级 比字节跳动少一个数量级 但凭借更高的研发效率持续实现突破[5][42][43] MiniMax的技术成果与市场地位 - **三模态全面领先**:公司是全球仅有的四家在语言、视频、声音三模态均达全球领先水平的公司之一 另外三家是OpenAI、谷歌和字节跳动[3][44] - **视频模型突破**:公司的海螺视频生成模型自2024年8月发布后 迅速成为全球用量最大的视频生成平台之一 目前每天生成接近两百万条视频 超过谷歌Veo模型上个季度的日生成量[35][37] - **语言模型切入核心市场**:2024年10月发布的M2语言模型是全球开源模型中真实token用量最大的AI编程模型 成功切入此前由美国公司(如Anthropic)垄断的AI编程场景 其用量相当于其他所有国产模型的总和 在该领域用量份额位列第三[3][37][38] - **语音模型广泛应用**:公司的语音模型已实现从文字生成语音的突破 技术表现曾达全球第一 广泛应用于智能硬件、虚拟主播、有声书等领域 国内大部分有声书内容由其模型生成[34] 行业趋势与未来展望 - **全模态融合是未来**:未来竞争将是语言、视频、声音的全模态融合 单模态公司将失去竞争力[3][44] - **Agent智能体成为生产力工具**:公司推出的Agent智能体在调研、写报告等任务上已超越普通实习生水平 内部HR、财务等部门已高度依赖 未来可自主完成简历筛选、联系候选人甚至面试工作[5][44] - **追求“每块钱智能水平”**:行业未来将从“昂贵的玩具”变成普惠工具 竞争关键在于谁能用更高的研发效率做出拓展行业边界的创新 提供更高的“per dollar intelligence”(每一美元能买到的智能水平)[5][6][45] - **估值与技术的巨大反差**:以MiniMax为代表的国内大模型公司在技术上已接近甚至在某些领域超越美国同行 且差距持续缩小 但估值仍相差两个数量级(可能达100倍) 而美国公司的技术领先可能仅5% 投入却在50至100倍之间 国内公司研发效率更高但被严重低估[2][5][43]