Chameleon
搜索文档
我国科研机构主导的大模型成果首次登上Nature
观察者网· 2026-02-07 09:15
核心观点 - 北京智源人工智能研究院在《Nature》上发表的Emu3模型,证明了仅使用“下一词预测”这一统一范式,即可让机器同时掌握看、听、说、写乃至行动等多模态能力,挑战了当前AI领域依赖专用模型拼接的主流技术路线 [1][21] 技术架构与突破 - **统一范式**:Emu3采用极简设计,仅通过“下一词预测”任务训练一个decoder-only Transformer模型,统一处理文本、图像、视频和机器人动作指令,无需复杂的编码器拼接或模态融合机制 [1][10] - **视觉分词器**:模型核心是一个高效的视觉分词器,能将512×512图像压缩为4096个离散符号(压缩比64:1),并将4帧视频片段同样压缩至4096个符号,使用包含32768个“词汇”的码本,通过三维卷积核原生捕捉视频时空信息 [8][9] - **性能表现**:在多项基准测试中,Emu3性能与专用模型持平或超越:图像生成人类偏好评估得分70.0,超越Stable Diffusion XL的66.9;视觉语言理解12项测试平均分62.1,与LLaVA-1.6的61.8持平;视频生成VBench评估得分81.0,超过Open-Sora-1.2的79.8 [11] - **规模定律**:研究证实多模态学习遵循可预测的规模定律,当训练数据翻倍时,文字到图像、图像到文字、文字到视频等任务的验证损失均以0.55的指数下降,基于小模型数据可高精度预测大模型性能(拟合优度>0.99,误差<3%) [12] 行业比较与定位 - **与Meta Chameleon比较**:两者均尝试统一多模态学习,但Emu3通过优化视觉分词器和训练策略,弥合了统一模型与专用模型之间的性能差距 [17] - **与OpenAI Sora比较**:Sora基于扩散模型,擅长视频生成但本质是生成器,需额外嫁接模型以实现理解;Emu3的自回归范式则天然统一生成与理解于单一模型内 [17][18] - **与Google Gemini比较**:Gemini整合多模态但仍依赖预训练视觉编码器和复杂融合机制;Emu3采用从零训练策略,虽计算成本更高,但获得了更纯粹、一致的多模态表征 [18] - **开放性优势**:团队承诺开源视觉分词器、训练代码和预训练权重,与OpenAI的封闭策略形成对比,为全球AI社区提供了可复现、可改进的新技术路线 [18] 应用潜力与商业化 - **部署效率**:模型基于标准Transformer架构,可复用大语言模型成熟的推理基础设施(如vLLM、PagedAttention),团队已开发支持无分类器引导的推理后端,实现低延迟高吞吐 [19] - **应用统一性**:单一模型架构可支撑图像生成、视觉问答、视频理解等多种能力,降低多模型部署带来的运维复杂度和资源浪费 [19] - **交互变革**:模型同时具备生成与理解能力,能处理图文视频任意组合,支持如根据产品视频生成图文说明书、描述场景生成视频并实时问答等新型交互 [20] - **垂直领域**:在教育、电商、医疗等领域有应用潜力,例如作为统一助手生成教学内容、处理电商产品图片与问答、辅助医疗影像分析与报告 [20] 行业意义与影响 - **范式挑战**:Emu3的成功是对当前主流多模态技术路线的根本性挑战,证明了一条更简洁、统一的道路可行,可能引发AI领域的范式转移 [21] - **中国AI研究标杆**:此项原创性工作为中国AI研究树立了新标杆,展示了在顶级学术期刊提出并验证不同于海外巨头的技术路线的能力 [21] - **具身智能路径**:在CALVIN机器人操控基准测试中,Emu3在“连续完成五个任务”上达到87%成功率,展示了其作为通往具身智能捷径的潜力 [14][15] - **世界模型前景**:模型能够根据烹饪视频前两秒预测后续画面,展现了“世界模型”的潜力,为整合感知、语言和行动的通用人工智能提供了有希望的道路 [15][22]
ICCV 2025|训练太复杂?对图片语义、布局要求太高?图像morphing终于一步到位
机器之心· 2025-07-18 08:38
核心观点 - FreeMorph是一种无需训练、一步到位的图像变形方法,能够在不同语义与布局的图像之间生成流畅自然的过渡效果 [5] - 该方法通过改进扩散模型的自注意力机制,解决了传统方法中训练成本高、适应性差的问题 [5][11] - FreeMorph在30秒内即可为两张输入图像生成高质量平滑过渡,显著优于现有技术 [32] 技术背景 - 传统图像变形技术依赖复杂的图像对齐算法和颜色插值,难以处理复杂纹理和多样语义的图像 [4] - 现有深度学习方法如GAN、VAE存在训练成本高、数据依赖强、反演不稳定等问题 [4] - 基于Stable Diffusion和CLIP等大模型的方法仍面临训练时间长(约30分钟/案例)和语义处理能力不足的挑战 [9] 技术方案 - 引导感知的球面插值:通过修改预训练扩散模型的自注意力模块,融入输入图像的显式引导来增强模型 [11] - 球面特征聚合融合自注意力模块的Key和Value特征,确保过渡一致性 [16] - 先验引导的自注意力机制保留输入图像的独特身份特征 [18] - 步骤导向的变化趋势:融合两个输入图像的自注意力模块,实现受控且一致的过渡 [21] - 改进的反向去噪和正向扩散过程:将创新组件集成到原始DDIM框架中 [22][25] 技术优势 - 无需训练或调参,仅需两张输入图像即可完成变形 [5] - 处理时间仅需30秒,显著快于现有方法(如IMPUS需要30分钟) [32] - 能够处理语义多样、布局复杂的图像对,保持身份特征和平滑过渡 [27][30] - 在四组不同类别的评估数据集上表现优异 [12] 应用前景 - 可应用于动画、电影特效或照片编辑等领域 [3] - 能够捕捉细微变化,如不同颜色的蛋糕或人物表情的微妙差异 [27] - 为training-free图像变形打开了新的可能性 [5] 技术局限 - 处理语义或布局差异较大的图像时,过渡可能不够平滑 [34] - 继承了Stable Diffusion的固有偏差,在人体四肢等结构处理上准确性受影响 [34]
Mary Meeker:AI采纳现状如何?
搜狐财经· 2025-06-11 10:17
核心观点 - ChatGPT的搜索量增长速度超过传统Google搜索,成为AI领域最具变革性的技术之一 [2] - AI训练模型数据和计算资源的年增长率分别达到260%和360% [2] - AI采纳速度远超历次科技革命,仅用约三年时间达到普及 [5][6] AI增长与普及 - ChatGPT在用户、订阅数和收入方面展示出前所未有的普及度,呈现曲棍球棒式增长曲线 [3] - AI在消费者、开发者、企业和政府中的使用激增,全球化扩散速度远超互联网1.0时代 [4] - 多模态AI模型快速发展,2024-2025年已实现文本、图片、声音和视频的统一处理 [6] 开发者与企业应用 - Google生态系统的AI开发者数量从140万增长至700万,增幅达五倍 [5] - 全球75%的首席营销官正在试验AI,企业显著增加AI项目投入 [6] - AI推理成本通缩现象存在,每年美元购买力提升达10倍 [7] 全球市场与竞争 - 印度ChatGPT使用率为13.5%,美国9%,印尼和巴西均为5% [9] - 中国在大语言模型性能方面领先,AI能力支撑国家战略领域 [10] - 中国预计到2025年将聚焦AI在军事和非战斗支援中的应用 [10] 未来趋势 - 下一代用户将在原生AI环境中成长,机器将以母语和语音直接互动 [8] - AI将深度融入生活,未来难以想象没有AI的世界 [8] - 语音界面与实体结合将推动机器人管家等实用型设备发展 [10]