Workflow
扩展现实
icon
搜索文档
春晚“人机共武”展现中国科创丰硕成果
新浪财经· 2026-02-18 13:26
公司技术展示与产品性能 - 宇树科技的G1与H2型号人形机器人在2026年春晚表演《武BOT》,G1承担高难度群舞,H2以“剑宗大师”形象压轴登场[1] - H2机器人身高比G1高出约40%,重量几乎翻倍,在更大更重的机体上实现同样动作是对算法与硬件性能的高阶考验[1] - 机器人实现了高速集群变队形,在快速奔跑中完成穿插变阵,最快任意跑位速度达到每秒4米[2] - 表演背后的核心技术是全自主集群控制技术,数十台机器人无需外部定位辅助,依靠机载传感器实时感知环境、自主规划路径并能在跑偏后全自动恢复[2] 技术能力与行业应用前景 - 节目中攻克的技术难题(如多机协同系统、柔顺操作与外力干扰应对、相对定位与环境交互)与机器人在真实场景中面临的挑战高度相通,为未来在更复杂场景中的应用奠定基础[2] - 2026年春晚成为具身机器人的“集体汇报演出”,多个节目展示了机器人的后空翻、侧手翻、托马斯回旋、踢月腿等高难度动作与特技[4] - 国产机器人在春晚上展现的扎实进步,让行业对其在工厂生产、企业管理、居民生活等不同场景下的应用更加憧憬[4] 行业影响与宏观意义 - 春晚机器人表演展现了中国功夫与中国科技的并肩,通过人形机器人顶尖的人工智能技术,有助于中国功夫在全球更好地传播[2] - 春晚展示了中国科技创新与产业升级的丰硕成果,勾勒出中国经济高质量发展的崭新图景[5] - 人工智能、增强现实、扩展现实等科技手段在晚会舞美设计中起关键作用,营造出沉浸立体式视觉效果[4]
“机器人全面入侵春晚”!这些名场面刷屏了
新浪财经· 2026-02-17 00:09
核心观点 - 马年春晚通过大规模应用具身智能机器人、生成式人工智能、扩展现实、超高清制播及三维声场等前沿技术,全面展示了中国在人工智能和媒体科技领域的创新实力与蓬勃气象 [1][3][5][7][9][11] 具身智能机器人应用 - 宇树科技的机器人携手塔沟武校在《武BOT》节目中,以集群化编队精准完成高难度队形变换和动作表演 [1][3] - 机器人深度融合了高精度激光即时定位与地图构建、集群协同控制、实时语音交互等前沿人工智能技术 [3] - 通过机器人与演员的实时交互,展现了人类创意与人工智能协作的无限可能 [3] - 继去年蛇年春晚后,机器人技术经过一年迭代,在今年春晚节目中表现更为成熟 [3] 生成式人工智能与扩展现实技术 - 总台“央视听媒体大模型2.0”首次在春晚大规模应用,用于《贺花神》、《丝路古韵》等节目,生成实时水墨国风与未来光影交织的场景 [3][5] - 该大模型充分发挥生成式人工智能的实景特效创作能力,模拟真实运镜进行场景构建和融合渲染,使演播大厅突破物理限制 [5] - 在特别设立的扩展现实舞台上,通过10米高的立屏和实时渲染技术,实现了虚拟影像与实景舞台的无缝衔接 [5] 超高清制播与互动系统 - 首次应用全媒体超高清制播技术,为“央视频”客户端的竖屏春晚直播提供超低延时传输、精准时间同步等技术支撑,带来“丝滑”体验 [7] - 该技术基于中国自主视音频编解码技术,并兼容国际标准 [7] - 人工智能驱动的实时互动系统实现了大屏影像、虚拟特效、舞美道具、舞台灯光等多个系统的高效联动 [7] 三维沉浸式声场技术 - 在春晚演播大厅部署了120只沉浸式效果音箱,构建起360°矩阵式多声道声场 [9] - 首次实现三维菁彩声从声场采集、制作传输到终端渲染的全链路呈现 [11] - 通过超指向话筒和三维声制式话筒全方位拾音,并结合声场建模与空间三维仿真技术,实现声音效果的精准定位和均匀覆盖 [9][11]
第四届“闪亮·上海”静安国际光影展点亮仪式举行
新浪财经· 2026-02-15 19:38
活动概述 - 第四届“闪亮·上海”静安国际光影展(2026)于2月14日在上海静安区张园举行点亮仪式 [1] - 活动同期举行了春节首发活动“闪亮·静安光影SHOW新春”,并展演了《光影头马》新春光影秀演 [4] 战略定位与发展目标 - 活动旨在将光影艺术持久深入地融入城区发展,塑造光影艺术与城市空间共生共荣的新业态 [3] - 活动核心目标是让光影成为串联高端产业、海派文化、品质消费与精致城区的流动纽带 [3] - 活动致力于助力“闪亮·上海”成为更具艺术高度、技术深度与城市温度的国际级文化品牌 [3] 活动内容与特色 - 活动将紧密聚焦南京西路等核心商圈,深入融合产业发展、文化艺术、民生消费与城市更新四大要素 [3] - 活动计划打造贯穿全年的常态化光影体验与消费新场景 [3] - 新春光影秀演《光影头马》以徐悲鸿笔下的骏马为灵感,通过光影展现其成长蜕变与奔跑跃起的姿态,寓意策马扬鞭、奋勇前行 [4] 技术与媒体支持 - 合作方发挥“媒体+技术+艺术”的融合优势,以全媒体矩阵扩大品牌声量 [3] - 合作方将超高清技术与AI、扩展现实等创新手段深度融合,为光影展提供全方位赋能 [3]
元梦共生·AI+XR虚实交互中试平台启动 以真实场景推动新技术工程化落地
环球网· 2026-01-09 20:50
公司动态与战略 - 四川物通科技集团有限公司打造的“元梦共生·AI+XR虚实交互中试平台”在成都市成华区正式启动并投入常态化运行 [1] - 该平台是公司“元梦三馆”战略布局的关键一环 与已建成的技术研发核心“元梦工场”和面向大众消费的内容运营空间“元梦幻界”共同构成从创新研发到真实应用的完整闭环路径 [5] - 公司总经理表示 中试是连接技术与产业的桥梁 旨在通过真实运行暴露问题、修正方案、积累数据 以构建可复制、可推广的新技术应用体系 [5] 平台定位与目标 - 平台聚焦人工智能、扩展现实与空间计算等前沿技术的融合应用 [1] - 平台致力于在真实运营环境中验证技术的稳定性、协同性与可运维性 为新技术从实验室走向规模化产业应用提供关键支撑 [1] - 平台不以成果展示或短期示范为目标 而是构建一个持续运行、可迭代、可复盘的中试载体 通过真实用户、空间与业务流程系统性识别工程化过程中的技术、管理与成本问题 [3] 技术应用与产业背景 - 随着AI与XR技术日趋成熟 相关应用正加速从概念验证迈向公共空间与产业场景 [3] - 当前行业核心瓶颈在于如何在复杂、动态的真实环境中实现长期稳定运行 [3] - 在产业关注点从“单点突破”转向“系统集成”的当下 该平台的实践为AI+XR技术的工程化落地提供了方法论参考 并为未来虚实融合基础设施的建设与运营积累经验 [5] 运营现状与场景 - 平台目前常态化运营多个大空间沉浸式体验项目 包括VR剧目《熊猫一八六九》与MR互动剧目《熊猫·赤炎》 [3] - 上述内容均面向公众及机构用户开放 并采用商业化收费模式 [3] - 这些高复杂度的运行场景为AI智能调度、多模态XR交互、跨系统协同以及空间级运维管理提供了宝贵的实证环境 [3]
谷歌押注中国AR企业,与XREAL深化战略合作
新浪财经· 2026-01-07 18:12
合作公告与战略定位 - 谷歌与XREAL于2026年1月6日宣布达成深度长期战略合作,旨在加速Android XR在消费级与企业级市场的落地与普及 [1][4] - 此次合作升级正式确立XREAL作为谷歌的长期核心硬件合作伙伴,双方将XREAL的长期产品规划与Android XR的平台能力进行深度对齐 [1][4] - 双方共享共同愿景,致力于让扩展现实(XR)变得“有用、可及”,解锁更自然的人机交互方式,为日常生活带来实质价值提升 [1][4] 合作背景与竞争格局 - 合作在Google I/O 2025上发布Project Aura后持续升温,此次是合作的进一步升级 [1][4] - 据36Kr报道,有知情人士透露谷歌计划在年内完成对XREAL的投资,以完善Android XR端到端生态圈,应对来自Meta和苹果的竞争挑战 [1][4] Project Aura的核心意义 - Project Aura被定位为迄今最完整、最接近Android XR理想形态的系统级参考硬件 [3][5] - Aura不仅是硬件样本,更是Gemini AI首次真正“看见世界”的承载平台,为下一代AR应用提供可量化、可验证的体验标尺 [3][5] - Aura成为双方长期战略合作的核心落点,为整个Android XR生态奠定了硬件与体验的统一基准,为开发者和用户提供明确的体验参照和标准 [3][5] 技术协同与生态建设 - 合作将推动XREAL专用空间计算硬件(包括全新X1S空间计算芯片)与Android XR进行系统级协同,共同树立光学透视(Optical See-Through)设备性能的新标准 [3][5] - 双方将联合扩展开发者工具、技术文档和最佳实践,确保开发者能更便捷地为XREAL Android XR设备开发原生应用 [3][5] - 关于Project Aura及Android XR扩展路线图的更多更新,将在2026年陆续公布 [3][6]
谷歌与XREAL达成深度长期战略合作,并有望于年内完成对XREAL的投资
IPO早知道· 2026-01-07 11:28
合作升级与战略定位 - 谷歌与XREAL在2026 CES期间宣布达成深度长期战略合作 本次合作升级正式确立XREAL成为谷歌的长期核心硬件合作伙伴 [1][2] - 双方共享共同愿景 让扩展现实真正"有用、可及" 解锁更自然的人机交互方式 为日常生活带来实质性价值提升 [2] - 谷歌计划年内完成对XREAL的投资 以此完善Android XR端到端生态圈 应对Meta、苹果的竞争挑战 [2] 核心产品:Project Aura - 谷歌与XREAL于2025年5月Google I/O大会联合发布新一代AR眼镜Project Aura 这是全球首款专为Android XR平台打造的旗舰级AR眼镜 [2] - Project Aura基于OST(光学透视)技术路线 标志着AR产业正式跨入「安卓时刻」 [2] - Project Aura被定位为迄今最完整、最接近Android XR理想形态的系统级参考硬件 是Gemini AI首次真正"看见世界"的承载平台 为下一代AR应用提供可量化、可验证的体验标尺 [3] - Project Aura为整个Android XR生态奠定了硬件与体验的统一基准 为开发者和用户提供明确的体验参照和标准 [3] 技术协同与产业链优势 - 合作将推动XREAL专用空间计算硬件(包括全新X1S空间计算芯片)与Android XR进行系统级协同 共同树立光学透视设备性能的新标准 [3] - Project Aura的硬件研发和制造几乎全部依托中国团队完成 从光学系统到空间计算芯片 再到整机架构与生产体系 形成完整、可控、可规模化的产业链优势 [4] - X1S空间计算芯片由XREAL端到端自研设计 在分体式架构趋势下 能解决眼镜与计算单元之间的算力分配、延迟控制及带宽优化等核心问题 实现3毫秒超低延迟 [4] 生态构建与行业影响 - 谷歌与XREAL将联合扩展开发者工具、技术文档和最佳实践 确保开发者能更便捷地为XREAL Android XR设备开发原生应用 [4] - 联合谷歌等世界级巨头打造下一代智能终端时代生态 XREAL正代表也帮助着更多中国企业有机会进入全球价值链中 [4] - 在《人工智能+》行动的政策背景下 XREAL正成为推动新一代智能终端普及的重要力量 连续四年稳居消费级AR眼镜销量冠军 [5] - 公司在光学与芯片上的自主突破 证明中国企业不仅能够提出下一代计算平台的解决方案 更有能力在全球科技格局中发挥引领作用 [5]
明年上市 谷歌重返智能眼镜赛道
北京商报· 2025-12-10 23:25
谷歌AI与XR产品战略 - 公司将于2026年发布由AI驱动的智能眼镜,硬件厂商三星、Gentle Monster和Warby Parker将参与设计 [1] - 计划发布两款自带谷歌Gemini大模型的AI眼镜:一种无屏幕辅助,内置扬声器、麦克风和摄像头,将于2025年面世;另一种增加镜片内显示,可提供导航和语音翻译等功能 [1] - 公司正式重返智能眼镜赛道,联合创始人表示已从过去谷歌眼镜的失败中吸取教训,包括当时AI不够先进以及缺乏供应链知识导致产品价格昂贵 [1] XR生态最新进展 - 与中国企业XREAL合作的有线XR眼镜Project Aura确定将于2026年发布 [1] - 今年10月推出的首款安卓XR头显三星Galaxy XR已上线直连电脑等新功能 [1] - 面向安卓XR系统的开发工具迎来全面升级 [1] 安卓XR平台与Aura项目 - 安卓XR的核心目标是构建一个开放、统一的扩展现实平台,让AI进入真实世界的光线、空间与行为之中 [2] - Aura项目被描述为“目前最完整、也是最接近Android XR理想形态的硬件样本” [2] - Aura将XREAL的光学、芯片、空间算法与谷歌的Android XR和Gemini AI原生融合,具有70°光学透视视场角,采用专为AR设计的自研X1S芯片 [2] - 该产品将多模态模型Gemini与眼镜的摄像头、麦克风及环境传感器融合,实现实时语义理解、场景任务与自然交互 [2] - Aura硬件形态类似一个AR投屏眼镜,以有线形式连接一个Android XR计算终端(兼作触控板),支持手势交互并带有透视效果 [2] 行业竞争格局 - Meta是该领域最活跃的参与者,凭借Ray-Ban和Oakley品牌获得积极评价 [2] - 2024年9月,Meta推出首款带显示屏的消费级智能眼镜Meta Ray-Ban Display,配有神经腕带,起售价799美元 [3] - 与Meta Ray-Bans类似,多数眼镜通过无线连接智能手机并依赖手机处理请求,以实现纤薄轻便的外形 [3] - Snap旗下首款面向消费者的AR眼镜计划于2025年亮相,苹果公司也有进军该领域的计划 [4] - 2024年11月,阿里巴巴集团发布了搭载千问大模型的首款硬件夸克AI眼镜 [4] 市场数据与行业观点 - 根据Wellsenn数据,2024年全球AI眼镜出货约152万部,同比增长533% [4] - 预计2028年全球AI眼镜出货有望达到3500万部,2024年至2028年的复合年增长率为119% [4] - XREAL创始人兼CEO表示,Agent应是“硬件化的Agent”以最大范围释放AI能力,眼镜是承载下一代智能终端的天然载体,其带来的增量数据是AI通向AGI的必经之路 [4] 产品原型与技术特点 - 在发布前的演示中,谷歌展示了两款内置显示屏的智能眼镜原型:单目眼镜(右镜片内置单屏)和双目眼镜(每只眼睛前各有一个显示屏) [3] - 两种类型都支持为谷歌地图和Google Meet等应用提供增强现实叠加界面,但双目设计能提供更大的虚拟显示屏 [3]
一文读懂Android XR发布会:谷歌“亲儿子”明年开卖
36氪· 2025-12-09 18:27
谷歌XR战略与平台发布 - 谷歌于12月9日凌晨举办XR Edition特别发布活动,首次系统性展示其在扩展现实领域的最新进展 [1] - 谷歌将Android XR定位为“业界首个为扩展现实设备打造的统一平台”,其核心在于统一的Android基础,旨在将智能手机时代的体验优势延伸至XR领域 [1] Android XR平台定位与合作伙伴 - Android XR的设计哲学是将扩展现实视为一个连续的设备谱系,支持多元化的产品形态 [3] - 谷歌联合三星和高通共同打造该平台,其中三星负责技术架构和产品,高通负责芯片 [3] - 平台硬件覆盖范围广泛,包括功能强大的沉浸式头戴设备、轻便可全天佩戴的AI智能眼镜,以及介于两者之间的混合形态设备 [3] “亲儿子”系列AI智能眼镜产品 - 为保证体验,谷歌与三星主导技术架构,并计划于2026年推出两款“亲儿子”系列AI智能眼镜 [4] - 产品设计邀请了眼镜行业领导者Warby Parker和先锋设计品牌Gentle Monster参与,走时尚路线,理念是“首先是眼镜”,旨在将复杂传感器和计算模块隐于无形 [4][6] - 第一款为注重基础交互的音频版智能眼镜,配备微型扬声器阵列、高清摄像头和环境麦克风,支持通过自然语音与Gemini对话,实现音乐播放、通话、拍摄等功能 [4] - 第二款在音频版基础上集成了微型低功耗透明显示屏,可在用户视野中高隐私性地显示导航箭头、消息通知、实时翻译字幕等信息 [4] - 产品体验完全围绕Gemini AI构建,提供情境感知式无感协助,功能包括视觉搜索识别商品、实时翻译面对面对话、结合地理位置与视觉识别的情境提醒等 [6] - 产品融入了谷歌最新的多模态AI能力,支持通过语音指令拍摄并利用轻量级图像模型进行实时创意编辑 [6] 新增有线XR眼镜品类 - 谷歌联合XREAL推出了介于头显与AI眼镜之间的新设备品类——有线XR眼镜 [7] - 首款产品Project Aura采用分体式架构(眼镜+计算设备),预计2026年推出 [7] - 用户佩戴轻便的眼镜显示终端,通过线缆连接至名为“Puck”的便携式计算核心,该核心承载主要运算单元和电池,表面可作为触控板使用 [9] - Project Aura体验为真实世界画面与虚拟窗口内容高精度叠加,支持用手在空间中直接操控 [9] - 该设备可作为独立XR设备使用并拥有谷歌应用生态支持,也可作为移动设备的外接屏幕,同时整合了Gemini的AI能力 [10] 三星头显产品与功能升级 - 三星与谷歌合作推出了头显形态产品Galaxy XR [11] - 基于PC Connect功能,用户可将Windows PC的整个桌面或任意应用窗口以无线、低延迟方式无缝“拉入”头显的虚拟屏幕中,用于专业创作或串流PC游戏 [11] - 推出Likeness功能,可创建高度逼真的个人数字人化身,并能通过头显传感器实时镜像用户的面部表情、口型动作和头部转动,用于视频会议增强临场感 [11] - 推出Travel Mode,利用算法智能补偿外部运动干扰,稳定用户视野中的虚拟画面,减少眩晕感,以拓展头显在移动环境的使用场景 [12] - 预告明年将推出系统级自动空间化技术,可在系统底层实时自动将普通2D应用界面转化为具有立体深度和空间感的3D沉浸式体验,无需开发者单独适配 [12] 开发者工具与生态建设 - 谷歌同步发布了Android XR SDK开发者预览版3,首次正式开放了对AI智能眼镜的完整开发支持 [13] - 推出专为透明显示屏设计的现代化UI工具包Jetpack Glimmer,基于Compose构建,提供符合眼镜交互逻辑的优化界面组件 [16] - 推出基础API库Jetpack Projected,允许开发者将现有Android手机应用的核心功能与业务逻辑快速“投射”至眼镜平台,简化从移动端到眼镜端的开发流程 [16] - SDK集成了ARCore for Jetpack XR并新增地理空间API,使开发者能利用全球规模的视觉定位服务构建基于精确地理位置与现实场景识别的应用 [16] - Android XR遵循行业开放标准OpenXR [17] - Unreal Engine可利用其原生OpenXR支持为Android XR进行开发,谷歌官方提供的专属插件预计于2026年初发布 [17] - 开源的Godot引擎已在其v4.2.2稳定版中通过官方插件提供对Android XR的完整支持 [17] - Uber演示了利用新工具为带显示屏的AI智能眼镜重塑出行体验的案例,包括在透明显示屏上显示行程信息、通过AR路径引导用户至上车点,以及直接在视野中显示车辆信息并呼叫司机 [17][19]
让Gemini AI拥有“空间之眼”,谷歌与XREAL联合发布Project Aura
新浪财经· 2025-12-09 10:18
产品发布与定位 - 谷歌在The Android Show上首次公布了Project Aura产品和Android XR系统的关键细节 [1][3][5] - Project Aura被定位为迄今为止最完整、最接近Android XR理想形态的硬件样本 [1][3] - 该产品是谷歌官方认可的系统级参考硬件 [1][3] - Project Aura标志着谷歌的Gemini AI第一次真正拥有“看见世界”的能力 [1][3] 战略目标与技术融合 - Android XR的核心目标是构建一个开放、统一的扩展现实平台 [3][5] - 该平台旨在让AI不再局限于平面屏幕,而是进入真实世界的光线、空间与行为之中 [3][5] - Project Aura将XREAL的光学、芯片、空间算法与谷歌的Android XR和Gemini AI进行原生融合 [3][5] - 这一融合让AI能够完成“看见 → 理解 → 交互”的完整闭环 [3][5] - Aura被称为“Gemini AI的第一双原生空间之眼”,是谷歌最认可的“AI+XR硬件落地路径” [3][5] 核心硬件能力与规格 - Project Aura的三项核心能力构成了新一代AI终端的基础设施 [3][5] - 其中包括**70°光学透视视场角** [3][5] - 包含**X1S空间计算芯片** [3][5] - 实现了与**Gemini AI的深度融合** [3][5] 软件平台与行业影响 - Android XR在继承移动生态的基础上,为空间计算提供底层原生支持 [3][5] - 该平台打破了XR行业长期存在的碎片化问题 [3][5] - 此举让开发者与内容生态进入统一轨道 [3][5] - 也为Gemini AI引入了标准化的空间入口 [3][5] 商业化时间表 - 根据官方信息披露,Project Aura将在**2026年**正式面向市场 [3][5]
蔡司扩展现实事业部与理想汽车推出新一代智能眼镜
21世纪经济报道· 2025-12-04 21:12
合作公告 - 蔡司扩展现实事业部与理想汽车达成战略合作,标志着理想汽车正式进军智能眼镜领域,是其核心电动汽车业务之外的重要拓展 [1] - 合作将蔡司卓越的光学技术与理想汽车在人工智能领域的尖端技术专长相结合 [1] 产品细节 - 合作旨在共同打造前沿的智能眼镜产品,提供由先进AI能力驱动的智能交互体验 [3] - 每一副理想AI眼镜 Livis都将配备带有ZEISS激光标记的高品质蔡司镜片 [3] - 产品系列包括蔡司AI眼镜平光防蓝光镜片、定制镜片以及Superb定制镜片,以满足不同消费者的个性化需求 [3] - 理想AI眼镜 Livis全系标配蔡司镜片,并提供近/远视处方定制镜片、感光变色镜片、太阳镜片等多种版本 [5] 销售与渠道 - 产品将于2025年12月3日起,在理想汽车App商城、京东理想智能眼镜官方旗舰店开售,理想全国零售中心店将陆续开放 [5] - 12月中下旬起,蔡司电商官方旗舰店、指定蔡司官方授权合作门店也将陆续开售 [5] - 双方携手打造卓越线上配镜服务,用户上传验光单后,配镜最快当天完成并发货 [5] 战略与背景 - 蔡司扩展现实事业部于2025年10月正式成立,整合了自2018年起在视力保健及旗下企业tooz的多个研发团队,旨在为合作伙伴提供高质量的XR视力矫正镜片、光学系统解决方案及端到端的整合分销能力 [4] - 此次合作证明了蔡司在扩展现实领域进行长期战略布局的决心,以及对为智能眼镜打造卓越光学解决方案的承诺 [4] - 理想与蔡司的合作不仅限于国内市场,也将面向全球市场,共同研发下一代智能眼镜光学技术 [5] - 蔡司光学正努力走向业务多元化:从提供高质量镜片,到提供终身视力健康解决方案,打造行业眼健康平台生态系统 [5]