Trillium TPU
搜索文档
腾讯研究院AI速递 20251106
腾讯研究院· 2025-11-06 00:01
生成式AI与太空计算 - 谷歌宣布Project Suncatcher计划,将于2027年初发射两颗搭载Trillium代TPU的原型卫星,利用太阳能驱动AI计算 [1] - 该计划构想由太阳能卫星星座通过光通信链路相连,太空太阳能效率比地球高8倍且几乎可持续发电 [1] - Trillium TPU已通过辐射测试可承受5年任务周期,预计到2030年代中期卫星发射成本可降至每千克200美元 [1] AI Agent效率优化 - Anthropic发布基于MCP的"代码执行"新范式,让模型编写代码调用工具,将Token消耗从15万降至2000,效率提升98.7% [2] - 新范式采用按需加载工具定义和数据本地流转设计,解决工具定义过载和中间结果消耗两大效率瓶颈 [2] - 该方案带来渐进式披露、上下文高效、强大控制流、隐私保护和状态持久化五大核心优势 [2] 多模态模型与图像编辑 - 兔展智能&北大推出UniWorld-V2图像编辑模型,在GEdit-Bench和ImgEdit基准测试中取得SOTA,综合表现超越OpenAI的GPT-Image-1 [3] - 模型基于首创的UniWorld-R1强化学习框架,采用多模态大语言模型作为免训练奖励模型,实现精准中文字体渲染和精细化空间可控 [3] - UniWorld-R1框架具有极强通用性,应用于其他基础模型时同样带来显著性能提升 [3] 产品集成与用户体验 - QQ浏览器电脑端推出"AI+"小窗功能,以无感悬浮小窗形式集成14种AI工具,从网页总结到订阅下载均可在小窗内完成 [4] - 新版本升级极简框架合并菜单与个人中心,地址栏右侧搜索框支持常驻或隐藏,提供更多自定义操作选项 [4] - 基于精准意图识别,"AI+"小窗能主动推荐可使用的AI功能,包括智能标签整理、AI翻译、订阅助理等多种生产力工具 [4] 地理空间AI应用 - 谷歌升级Earth AI,发布遥感、人口动力学和环境三大基础模型,并推出Gemini驱动的地理空间推理智能体 [5] - 遥感基础模型在文本图像检索任务提升超16%,零样本检测精度达基准线两倍,人口动力学模型覆盖17个国家提供按月更新的人类活动嵌入 [5] - 地理空间推理智能体在问答基准测试中准确率达0.82,显著优于Gemini基线,已为20亿人提供洪水预警服务 [6] 具身智能与机器人 - 小鹏发布第二代VLA大模型和全新IRON人形机器人,VLA模型实现视觉到车辆控制指令的端到端映射,接管里程提升13倍 [7] - IRON机器人拥有82个自由度和22个手部自由度,搭载3颗图灵AI芯片总算力达2250TOPS,为当前人形机器人最高水平 [7] - 小鹏计划2026年推出三款Robotaxi车型启动试运营,总算力3000TOPS,同时推出面向消费者的L4智驾版本 [7] 通用具身基础模型 - Generalist推出具身基础模型GEN-0,参数量达10B+,在27万小时真实世界操作数据上训练,数据量超现有最大机器人数据集数个数量级 [8] - GEN-0首创"和谐推理"训练方法,在异步连续时间的感知和行动token流之间建立和谐相互作用,实现跨机体部署能力 [8] - 研究发现7B参数出现"相变"现象,模型展现强大Scaling Law,证明具身智能可预测扩展 [8] 智能导航技术 - 银河通用联合多高校推出全球首个跨本体全域环视导航基座大模型NavFoM,统一不同导航任务 [9] - 模型训练数据包含800万条跨任务跨本体导航数据和400万条开放问答数据,通过TVI Tokens和BATS策略实现时空理解和实时响应 [9] - 基于NavFoM发布TrackVLA++、UrbanVLA和MM-Nav三个应用模型,构建从室内到城市的完整具身智能导航体系 [9] 创业与组织管理 - ElevenLabs现有350人分为20个产品小队,每个5-10人完全自治,6个月内必须完成PMF,成功继续否则解散 [10] - 公司砍掉Slack访问权强制注意力集中,让团队专注自己的6个月任务,避免信息过载导致的注意力分散 [10] - 提成规则明确落后于公司战略,禁止向竞品出售技术写入政策,销售行为符合长期利益可取消交易但业绩照算 [10]
谷歌芯片公司,估值9000亿美金
半导体芯闻· 2025-09-04 18:36
TPU业务估值 - Google母公司Alphabet的TPU业务若独立拆分 整体价值可能高达9,000亿美元 较今年稍早估计的7,170亿美元大幅提升[2] TPU技术进展 - 第六代Trillium TPU自2024年12月大规模推出后需求相当强劲[2] - 第七代Ironwood TPU专为推论设计 在Google Cloud Next 25大会发表 预期获得客户大量采用[2] - Ironwood TPU每颗芯片高峰运算能力达4,614 TFLOPS 用于驱动思考型和推论型模型[3] - Ironwood TPU每颗芯片提供192GB HBM容量 是Trillium TPU的6倍 可处理更大型模型和资料集运算[3] - Ironwood TPU每颗芯片频宽达7.2Tbps 是Trillium TPU的4.5倍[3] - Ironwood TPU效能功耗比是Trillium TPU的2倍 为AI工作负载提供每瓦更多运算能力[3] 合作伙伴与客户采用 - Alphabet目前仅与博通合作生产TPU[3] - 与联发科探索合作机会 由联发科为即将推出的Ironwood TPU代工[3] - Anthropic开始招聘TPU核心工程师 可能平衡对AWS Trainium芯片的依赖[3] - 马斯克旗下xAI因JAX-TPU工具改进对TPU展现兴趣[3] 业务战略定位 - Alphabet在AI硬件领域的价值未被充分估价[4] - TPU业务拆分在现今环境不太可能发生[4] - TPU将继续结合Google DeepMind研究实力融入更多Google产品组合[4]
OpenAI 刚刚输给了谷歌
美股研究社· 2025-08-12 19:20
谷歌AI战略进展 - 谷歌在过去18个月致力于将AI战略转化为产品吸引力,其AI模型Gemini在基准测试中几乎赶上ChatGPT,并在成本/性能方面超越其他模型 [1] - 谷歌稳步推出功能日益强大的模型,而OpenAI的GPT-5发布后遭遇负面评价,改进微乎其微,舆论风向转向谷歌Gemini [1][4] - DeepMind推出实时世界模型Genie 3,表现令人印象深刻,成为谷歌的常态 [4] OpenAI的挑战 - OpenAI的GPT-5发布被描述为"重大飞跃",但实际表现远不及预期,公众认为其营销夸大 [3] - OpenAI可能在模型进步上遇到严重瓶颈,GPT-5表现平平,暗示其无法实现重大突破 [7] - OpenAI员工透露,GPT-4.5原本按GPT-5标准制作,但表现不佳被迫降级发布 [7] 谷歌的产品优势 - 谷歌AI概览功能每月触达20多亿用户,远超ChatGPT覆盖量 [8] - 独立Gemini应用每月活跃用户达4-4.5亿,且快速增长 [8] - AI概览提升搜索互动量,显示该功能的搜索查询量增长两位数 [9] 商业化与财务表现 - 谷歌二季度搜索收入达542亿美元,总营收同比增长14%,得益于AI带动的互动量增长 [10] - 谷歌二季度营收同比增长14%至964亿美元,营业利润率保持在30%出头 [13] - 谷歌云收入同比增长32%至136亿美元,AI创新可能进一步提升该数字 [12] 技术优势与生态系统 - 谷歌第六代Trillium TPU在计算密度、内存带宽和能效方面超越英伟达GPU [13] - YouTube作为高质量数据集,助力谷歌在多模态AI和视频生成领域领先 [11] - Android设备通过"Circle to Search"功能在环境AI领域领先 [12] 行业竞争格局 - DeepMind产品持续突破,Gemini 2.5系列性价比高,视频生成模型超越OpenAI的SORA [8] - 谷歌拥有全面芯片设计部门,专注于AI产品 [13] - 行业竞争加剧,OpenAI、Anthropic、Grok和Meta快速迭代并增加AI投资 [14]
英伟达,遥遥领先
半导体芯闻· 2025-06-05 18:04
MLPerf基准测试结果分析 - Nvidia GPU在最新MLPerf基准测试中保持主导地位 包括对Llama 3 1 403B大型语言模型预训练的顶级性能表现 [1] - AMD首次提交训练基准测试 其Instinct MI325X GPU在LLM微调任务中性能与Nvidia H200相当 但整体落后Nvidia一代 [1][3] - AMD Instinct MI325X相比前代MI300X性能提升30% 主要由于高带宽内存增加30% [3] 基准测试任务特点 - 本次测试包含6个行业相关机器学习任务 包括内容推荐 LLM预训练/微调 目标检测 图像生成和图节点分类 [1] - LLM预训练是最资源密集的任务 本次使用Meta Llama 3 1 403B模型 规模是GPT3的两倍多 上下文窗口扩大4倍 [2] - 预训练后通常进行微调而非"训练" 微调是针对特定任务改进模型的关键阶段 [2] 硬件性能表现 - Nvidia Blackwell GPU在所有六项基准测试中取得最快训练时间 这是Blackwell首次大规模部署 [2] - 最大规模提交使用8192块GPU 性能扩展接近线性 达到理想性能的90% [7][9] - NVL72套件通过NVLink连接36个Grace CPU和72个Blackwell GPU 形成"单个大型GPU"系统 [9] - 相比历史记录 本轮最大提交GPU数量(8192)少于前几轮(超10000) 反映硬件效率提升 [12] 行业技术趋势 - 更大模型成为行业趋势 Llama 3 1 403B基准测试反映了这一发展方向 [2] - 网络连接效率对大规模训练至关重要 NVL72和InfiniBand技术显著提升多GPU协同效率 [7][9] - 能效问题受关注 两块Blackwell微调LLM耗电6 11千兆焦耳(1698千瓦时) 相当于小型房屋冬季供暖能耗 [13] 其他参与者表现 - 谷歌使用Trillium TPU提交了图像生成任务的单一基准测试 [3] - Cerebras采用晶圆级集成技术 声称推理性能比Blackwell好两倍以上 但测试方法不同于MLPerf [12] - 仅联想提交了功耗测量结果 行业呼吁更多公司参与能效测试 [13]