MirageLSD

搜索文档
26岁,创业两年,他的公司估值超200亿
创业邦· 2025-08-23 11:25
融资与估值 - 公司完成1亿美元B轮融资,投后估值达31亿美元,约合人民币222.5亿元 [4] - 累计募资金额达1.53亿美元,约合人民币11亿元 [4] - 估值在8个月内从5亿美元增长至31亿美元,涨幅超过6倍 [4] - 投资方包括红杉资本、Benchmark、Zeev Ventures等老股东,以及新投资方Aleph VC [4] 创始团队背景 - 联合创始人兼CEO Dean Leitersdorf 23岁获得博士学位,具有学术天赋和军队背景 [5][9] - 联合创始人Moshe Shalev来自极端正统派家庭,未上大学,在以色列精英情报部队8200服役14年 [5][9] - 团队在8200部队结识,2023年共同创立公司,初始团队15人,两年扩展至60人 [9][10] - 旧金山研发中心由前Snap、谷歌专家Kfir Aberman领导 [10] 技术与产品 - 推出全球首个无限长视频生成模型MirageLSD,实现小于40毫秒超低延迟实时转换 [6][15] - 模型采用扩散强制技术,解决长视频生成误差累积问题,保持画面稳定 [16][17] - 支持实时响应新指令,如中途修改场景要求 [21] - 首款产品GPU优化工具将AI模型推理成本从100美元/小时降至25美分/小时 [11] - 面向消费者的AI游戏Oasis发布几天内吸引上百万用户,社交媒体观看量达数亿次 [11] 商业与战略 - GPU优化工具已实现盈利,带来数百万美元收入 [11] - 公司目标成为市值万亿美元企业,聚焦娱乐和创意领域 [25][26][28] - 计划开发十亿用户级APP,改变科技互动方式 [25][26] - 实际运营成本低,过去11个月仅花费不到1000万美元融资资金 [26] 行业影响与评价 - 技术有望重塑游戏、直播、视频通话、影视制作、AR/VR等领域生态 [7][21] - 红杉资本合伙人评价团队为超精英AI工程师,技术天赋顶尖 [13][22] - 前特斯拉AI总监Andrej Karpathy称其为实时魔法,认为技术具有通用性和强大潜力 [21]
腾讯研究院AI速递 20250721
腾讯研究院· 2025-07-21 00:02
开源模型竞争 - Kimi K2超越DeepSeek成为全球开源模型第一,总榜排名第五,紧追顶尖闭源模型 [1] - K2继承DeepSeek V3架构并进行参数调整,包括增加专家数量、减半注意力头数、保留第一层Dense及专家无分组 [1] - 全球TOP 10开源模型中唯二入选的均来自中国,"开源=性能弱"的印象正被打破 [1] 视频生成技术突破 - Decart发布MirageLSD,首个实时(40毫秒延迟)、无时长限制的扩散视频模型,可处理任意视频流 [2] - Karpathy成为天使投资人,预见其在实时电影制作、游戏开发和AR领域的广泛应用 [2] - 技术突破在于实时流扩散(LSD)架构,通过逐帧生成和历史增强方法解决误差累积问题 [2] AI音乐创作升级 - Suno V4.5+版本提供人声与器乐分层生成与融合功能,用户可上传个人人声或伴奏进行AI辅助创作 [3] - 新增"Inspire"模式允许用户上传3秒至8分钟的个人干声,AI学习演唱特点后创作符合个人声音气质的音乐 [3] - 谱乐AI平台已同步上线Suno V4.5+核心生成能力,优化创作门槛并提升AI协作效率 [3] 音乐AI助手整合 - 腾讯元宝App 2.30版本正式接入QQ音乐服务,实现"一句话搜歌、划线即播"功能 [4] - 混元大模型与DeepSeek-R1双引擎驱动,能识别模糊音乐描述并结合情境推荐 [4] - 用户体验包括无缝账号体系连接、多模态交互和创作辅助功能 [4] AI Agent竞争 - OpenAI推出ChatGPT agent,面向Pro用户,但遭到Manus、Genspark等竞品公司的直接对比和批评 [5] - ChatGPT agent整合了Deep Research、Operator和ChatGPT功能,能自动完成退休计划、购物清单等任务 [5] - 实测各有特色,Manus输出更美观,Minimax提供多种格式报告,Kimi内容详细且询问用户具体需求 [5] 角色动画技术 - PhysRig是UIUC与Stability AI提出的角色动画可微物理绑定框架,将刚性骨架嵌入弹性软体 [6] - 通过MPM可微分物理模拟替代传统LBS,解决了体积丢失与变形伪影问题 [6] - 在17类角色和120组动画测试中全面优于传统方法,支持跨物种动作迁移 [6] 通用推理模型突破 - OpenAI的神秘通用推理模型在IMO 2025中解出5道题目,获得35分,达到金牌水平 [7] - 该模型具备持续数小时的深度创造性思维能力,远超以往AI的秒级或分钟级推理 [7] - 这是通用强化学习突破而非特定任务训练的成果 [7] AI工具设计理念 - 最佳AI编程工具应是简单、通用的"乐高积木",而非功能堆砌的复杂系统 [8] - Claude Code创造者主张将控制权还给用户,工具不应替你决定工作流,而是提供底层能力 [8] - 有效工作流包括:先探索规划再由用户确认后编码、使用测试驱动开发、对照目标迭代改进 [8] AI产品战略 - 聚焦Agent:预训练模型已含工具知识,只需激发能力,智能上限由模型决定 [9] - 开源:提升知名度、获取社区贡献,防止用技术捷径粉饰效果,倒逼模型真正进步 [9] - 选择DSV3架构:实验证明自研结构无法胜过DSV3,资源有限下避免引入无效变量 [9] AI未来发展方向 - 许多人构建的辅助工具与路由系统最终会被扩展模型取代,真正遵循扩展法则的方向是直接提高模型能力 [10] - 当前AI模型学习数据效率远低于人类,算法改进比简单扩大数据规模更重要 [10] - 多智能体研究新方向:研究如何让模型从15分钟推理扩展到数小时甚至数天,建立AI"文明" [10]
大神Karpathy都投的AI实时视频生成模型:直播都能立即转,无限时长几乎零延迟
量子位· 2025-07-19 13:15
核心技术突破 - 推出全球首个零延迟无限实时视频生成模型MirageLSD,采用自定义实时流扩散模型Live-Stream Diffusion(LSD),攻克传统自回归视频模型中误差累积的核心难题[4][9][11] - 通过因果自回归结构和Diffusion Forcing技术实现逐帧生成时保持时间连贯性,支持无限时长视频生成[14][15] - 历史增强策略主动添加模拟伪影训练模型预判纠正能力,推理阶段明确告知历史帧可能不准确以持续纠错[16][17] - 改进Transformer架构搭配视觉编码器和位置编码优化,处理速度比前代模型快16倍,达每秒24帧[6][18] - 应用KV缓存技术和蒸馏策略减少延迟,动态输入系统支持超低延迟响应玩家指令[20][21][22] 产品性能优势 - 实现40毫秒以下延迟,支持直播/游戏/视频通话等多形式输入,无时长限制实时生成[5][6] - 前代产品Oasis已实现每秒20帧零延迟生成,MirageLSD性能提升至24帧/秒[26][28] - 集成帧级提示词处理机制,可即时解析键盘指令和自然语言,实现"抖衣换装"等实时交互效果[21][23] 公司发展动态 - Decart为2023年成立的加州AI初创公司,获AI专家Karpathy天使投资[7][25] - 2024年推出首款实时生成式AI开放世界模型Oasis,MirageLSD为最新迭代产品[26][28] - 计划定期升级模型功能,包括面部一致性/语音控制等模块[28] 应用场景展示 - 支持用扫帚/盒子等日常物品替代专业设备进行沉浸式直播[1] - 实时修改游戏画面风格满足个性化需求[2] - 全双工通信通道实现输入输出并行处理,消除数据传输延迟[22]
世界首个「实时、无限」扩散视频生成模型,Karpathy投资站台
机器之心· 2025-07-19 11:13
技术突破 - Decart发布全球首个实时无时长限制的扩散视频模型MirageLSD,支持任意视频流输入并实现40毫秒超低延迟转换[3] - 该技术突破视频生成两大瓶颈:实现无限长视频生成(突破传统模型20-30秒质量衰减限制)和零延迟交互(响应速度较前代提升16倍至24帧/秒)[19][20][28] - 核心技术采用实时流扩散(LSD)架构,通过逐帧去噪、历史增强方法及因果自回归结构保持时间连贯性[18][25][32] 应用场景 - 实时视频风格转换:可将摄像头画面/游戏画面实时转化为任意风格世界,支持文本提示控制[4][7][12] - 影视创作革新:实现自导自演实时电影,AI同步完成布景/风格化/剪辑[8] - 游戏开发提效:用基础几何体编码机制后由AI自动生成精美贴图,30分钟完成游戏原型开发[9][15] - AR/VR增强:支持视频会议虚拟背景、实时虚拟试衣及AR眼镜现实卡通化功能[11][12][13] 技术原理 - 采用Diffusion Forcing技术逐帧去噪,通过历史帧扰动训练增强模型对误差累积的鲁棒性[25] - 定制CUDA mega kernels和模型剪枝技术优化计算效率,使单帧生成时间压缩至40毫秒内[31] - 因果反馈机制实时融合历史帧/输入帧/用户提示,实现动态内容适应与零延迟响应[33][34][35] 发展潜力 - 前特斯拉AI总监Andrej Karpathy已作为天使投资人参与,认为技术具备通用性[14] - 公司计划升级面部一致性、语音控制、物体精准操控功能,并集成流媒体/游戏/视频通话场景[16] - 当前局限包括长期记忆窗口不足、极端风格下几何失真等问题,未来拟通过结构化控制信号提升编辑精度[36][37][38]