Workflow
Mochi
icon
搜索文档
Ai+潮玩,能跑出下一个Labubu吗?
经济观察报· 2025-06-29 11:51
AI玩具与传统潮玩的分化 - AI玩具与传统潮玩走向两条并行赛道:一条是泡泡玛特主导的IP孵化运营赛道,另一条是创业公司主导的AI技术融合赛道[1][8] - 泡泡玛特坚持"无用之用"理论,认为功能性产品生命周期短暂,因此对AI浪潮保持克制[7][41][42] - 创业公司通过AI技术实现IP动态化,依托华强北等供应链快速迭代产品[2][6][36] AI玩具行业现状 - 2024年国内AI玩具赛道已有27家创业公司获得融资,其中6家融资超1亿元[4] - 代表性产品包括跃然创新的BubblePal(销量25万台)和珞博智能的Fuzozo(预售5000个)[5] - 行业存在明显歧视链:可动人偶(高价小众)>自主IP玩具>仿生宠物>AI学习机[13] AI玩具产品形态 - 主流形态为传统玩具外观+AI机芯(集成麦克风/扬声器/联网模块)[10] - 交互方式分为"会说话的"(语言交互)和"不会说话的"(动作/光效反馈)[14][15] - 创新形态包括可动人偶(乐森变形金刚)和AI外挂模块(BubblePal)[11][12] 产品设计理念 - 麻薯Mochi放弃语音功能,专注"类生命体"交互体验和情感陪伴[18][19] - 毛绒材质成为主流选择,泡泡玛特毛绒品类收入同比增长13倍[21] - 优秀AI玩具需具备养成性(记忆/情绪感知)和极致交互体验(眼睛情绪效果)[23][28] 商业模式探索 - 部分品牌采用硬件+订阅付费模式(fuzozo年费520元),引发用户争议[30][31] - 行业颠覆传统玩具"一锤子买卖"逻辑,转向持续服务收费[32] - 初创公司面临华强北快速复制的竞争压力,需加快产品迭代[36][38] 产业链动态 - 供应链已形成完整生态:乐鑫科技提供芯片、涂鸦智能提供云端解决方案[35] - 下游厂商订单量成倍增长,但品牌方盈利面临挑战[37] - AI玩具企业API调用数据显示用户留存周期普遍不超过3个月[40] IP与技术的平衡 - 行业共识认为潮玩核心仍是IP,技术仅为辅助手段[27] - 初创公司通过社交媒体测试IP热度,建立多元化变现渠道[25][26] - 泡泡玛特认为加入AI功能会削弱品牌溢价,坚持艺术情绪价值定位[43]
Ai+潮玩,能跑出下一个Labubu吗?
经济观察报· 2025-06-28 15:35
AI玩具行业概况 - 2024年国内AI玩具赛道已有27家创业公司获得融资,其中6家融资超1亿元,IDG资本、红杉中国、高瓴创投等知名机构参投 [2] - 行业主要参与者包括大厂背景创业者(如天猫精灵合伙人李勇创办跃然创新)、传统玩具制造商及潮玩初创公司 [2] - 泡泡玛特作为潮玩巨头选择不涉足AI玩具领域,坚持"无用之用"理论,专注于IP孵化和运营 [3] 产品形态与技术实现 - 主流AI玩具形态为传统玩具外观+AI机芯(集成麦克风、扬声器、联网模块和主控芯片),代表产品包括萌uu、Fuzozo、Ropet [4] - 可动人偶类产品(如乐森变形金刚、灵童机器人)集成传感器、精密电机和算法,售价可达超万元 [5] - 模块化方案如BubblePal可作为外挂硬件让旧玩具具备AI功能 [5] - 交互方式分为"会说话的"(语言交互)和"不会说话的"(动作/姿态反馈)两大阵营 [5] 市场表现与典型案例 - 跃然创新玩具挂件BubblePal累计销量达25万台 [2] - 珞博智能AI毛绒挂件Fuzozo预售销量约5000个 [2] - 泡泡玛特LABUBU毛绒挂件推动THE MONSTERS系列收入突破30亿元 [8] - 日本电子宠物Moflin售价3000元且长期断货,二手市场炒至过万元 [9] 产品开发理念与用户洞察 - 麻薯Mochi放弃语音功能,专注"类生命体"交互体验和情感陪伴,目标客群为20-45岁女性 [7][9] - 用户使用语音盒子类AI玩具周期通常不超过2周,需强化养成性和情感链接 [9] - 潮玩IP设计是关键,需注重眼睛情绪效果和触觉反馈等细节 [11] - 毛绒材质受市场青睐,泡泡玛特毛绒品类收入同比增长13倍 [7] 商业模式创新与挑战 - 订阅制服务兴起(如fuzozo精力卡年费520元、LOVOT月费880元),改变传统玩具一次性销售模式 [12] - 百元级定价策略面临学生用户付费意愿低的挑战 [14] - 华强北供应链已实现"公版公模"快速复制能力,对初创公司形成竞争压力 [3][13] - 解决方案供应商(乐鑫科技、涂鸦智能等)提供芯片、连接技术和云端支持 [13] 行业发展趋势 - 2024年底起AI玩具供应链快速成熟,4月进入批量生产阶段 [13] - 火山引擎数据显示AI玩具企业API调用量增长但用户留存周期普遍不足3个月 [14] - 社交媒体成为IP测试和行业动态传播的重要渠道 [10] - 行业分化明显:泡泡玛特专注IP马拉松,创业公司比拼技术实现与成本控制 [3]
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练
机器之心· 2025-06-18 17:34
核心观点 - 清华大学陈键飞团队提出的SageAttention3实现了5倍于FlashAttention的推理加速,并在多种视频和图像生成大模型中保持端到端精度表现 [2][5] - SageAttention3是首个针对BlackWell架构的全FP4量化即插即用注意力算子,在RTX 5090上达到1040 TOPS速度,比H100上的FlashAttention3快1.65倍 [2] - 该团队还首次提出可训练的8比特注意力(SageBwd)用于大模型训练加速,在微调任务中保持与全精度注意力相同结果 [2] 技术突破 推理加速 - SageAttention系列迭代加速效果:V1(2.1倍)、V2(3倍)、V2++(3.9倍)、V3(5倍) [2] - 在RTX5090上实现HunyuanVideo端到端3倍加速(164s vs 489s),视频质量几乎无损 [5][33] - 算子速度相比FlashAttention2和xformers分别提升5倍和10倍 [22] FP4量化创新 - 采用BlackWell硬件支持的Microscaling FP4量化,选择NVFP4格式(准确率99.52% vs MXFP4的98.37%) [15] - 提出两阶段量化解决P矩阵缩放因子范围狭窄问题,显著提升精度 [15][16] - 算法流程优化实现高效Attention算子,两行代码即可加速任意模型推理 [5] 8比特训练 - 对Q/K/V采用Per-block INT8量化,对P采用无量化Overhead的Per-token量化 [17] - 反向传播中保留dOVT为FP16精度,量化其他四个矩阵乘法 [18] - 在Base Model微调任务中与BF16注意力表现完全一致 [33] 应用效果 - 已应用于多个知名大模型:Vidu、CogvideoX、Mochi、Wan、HunyuanVideo、Flux、Llama3、Qwen等 [1] - 在CogvideoX(2B)上端到端速度从64s提升至27s [33] - 训练加速方面,8比特注意力在微调任务中完全无损,但预训练任务与全精度仍有差距 [34] 硬件适配 - 充分利用BlackWell架构的FP4 Tensor Core,RTX5090速度达FP16 Tensor Core的8倍 [9] - 实现GPU底层CUDA Kernel优化,在算子速度和模型精度上均有显著提升 [21]