Workflow
算力成本
icon
搜索文档
“AI教母”,公布最新世界模型
财联社· 2025-10-17 20:28
世界模型RTFM的技术突破 - 李飞飞团队发布全新世界模型RTFM,能够实时生成交互式三维世界[2] - 模型设计围绕效率、可扩展性和持久性三大原则,仅需单块H100 GPU即可渲染持久一致的3D世界[2] - 实现4K+60FPS交互式视频流,传统架构需每秒生成超过十万个token,相当于一本《弗兰肯斯坦》的文本量,当前算力下经济上不可行[2] AI算力成本与需求趋势 - 降低算力成本成为硬件厂商重要议程,OpenAI与博通战略合作部署10吉瓦AI加速器,形成英伟达、AMD、博通多元算力体系以倒逼成本下降[3] - 尽管模型效率提升,但算力总需求预期未减,存在“杰文斯悖论”,即效率提升反而增加总消耗量,例如DeepSeek R1性能增强但算力需求持续增长[4] - 预计针对更大推理预算的更大型模型将继续改进,未来算力需求增长预期稳固[3] 世界模型的行业进展与意义 - World Labs在9月发布世界生成模型Marble,可通过单张图片或文字生成3D世界,相比前代实现更优几何结构和更多样化风格[4] - 世界模型的意义在于不仅能理解推理文字信息,还能理解推理物理世界的运作规律[4] - 行业公司积极布局,xAI从英伟达挖来专家,Meta、谷歌加注世界模型,国内宇树、智元等机器人厂商也已开源其世界模型[4] 算力基础设施的估值逻辑 - 算力更便宜易得时,开发者会将更复杂模型系统作为新基准,提升参数量、上下文与并行度[5] - 模型架构迭代可能减小单次推理训练算力,但如Genie3等生成视频的世界模型需跨数量级算力提升才能满足[5] - AI算力更高的天花板和更好的竞争格局将支撑其相对4G/5G的更高估值框架和更强Beta[5]
26天倒计时:OpenAI即将关停GPT-4.5Preview API
36氪· 2025-06-18 15:34
公司动态 - OpenAI宣布将于7月14日正式移除GPT-4.5 Preview API [2] - GPT-4.5预览版将继续作为选项提供给个人ChatGPT用户使用 [5] - OpenAI早在4月发布GPT-4.1时就已公布移除计划,GPT-4.5始终是实验性产品 [5] 开发者影响 - 开发者需在27天内从近40个模型中寻找替代品 [3] - 迁移涉及提示词重标定、延迟与费用模型重算及向客户解释语气变化 [8] 商业策略 - GPT-4.5 API定价高昂,输入tokens为75美元/百万,输出tokens为150美元/百万 [6] - OpenAI降低o3 API价格80%,集中资源推广成本可控的主力模型 [8] - 公司战略聚焦规模效应和成本优化,舍弃定位模糊的边缘产品 [8] 财务与估值 - OpenAI在2025年3月完成400亿美元融资,由软银主导,估值达3000亿美元 [11] - 高估值依赖领先模型溢价和渠道议价能力,但模型迭代速度和算力成本构成天花板 [11] 技术背景 - GPT-4.5使命是为未来模型迭代提供创意和写作细微之处的经验 [5] - NVIDIA H100 GPU市价约2.5万美元,满载功耗700W [6] - ChatGPT Plus仍按20美元/月收费,公司需优化算力分配 [6]
对话红帽全球副总裁曹衡康:AI成本下降了 芯片的量一定会起来
每日经济新闻· 2025-06-14 17:02
AI推理技术发展现状 - 行业共识认为算力成本终将降低,但降低路径尚未统一,主要选项包括数据中心、一体机和推理服务器[1] - 红帽全球副总裁曹衡康提出2025年是AI推理元年,标志着AI应用将正式上线运行并为企业创造实际价值[1] - 当前推理技术栈存在两个主流方向,红帽选择vLLM框架作为其技术路线,该框架已成为开源领域事实标准[1] 中国在AI推理领域的参与 - 在vLLM社区中,中国贡献者占比达到35%,显示中国在推理技术领域的活跃参与[1] - 红帽高管认为中国可能成为最先实现企业价值的AI推理市场[1] 技术挑战与解决方案 - 当前面临两大技术难点:如何以最小硬件成本实现高性能推理,以及如何实现分布式推理引擎[1] - 红帽2025年推出推理服务器解决方案,主要优势在于降低企业算力成本[2] - 公司明确战略定位为纯软件提供商,不涉足硬件领域[2] 行业需求展望 - 随着AI应用成本降低,预计使用AI的企业数量将从1000家增长至1万-100万家规模[2] - 行业高管预判GPU需求量将随AI普及而显著增长[2] - 当前重点在于降低AI使用门槛以促进更广泛采用[2]