物理AI
搜索文档
AI眼镜的全新卡位赛:长期博弈拼谁耗得起,创业公司没有退路
钛媒体APP· 2026-01-28 11:32
"2025年前三季度,智能眼镜市场出货量超过178万副,其中近八成是AI眼镜。"日前,工信部对外公布 的这组数据,无疑是"提振"了国内AI眼镜产业。如果按照规模来看,百万自然不是一个很大的量级,但 对比2024年20万左右的出货量,六倍的增长还是很可观的。 不仅如此,在2026年一开年,AI眼镜再一次刷屏,成为CES 2026上体验出圈的AI物种。资本层面,也 是好消息不断,包括雷鸟创新、影目科技以及XREAL等均有新的融资进账。随着字节、华为在今年也 都要下场,AI眼镜也将加速走进大众视野。刚刚上市的龙旗科技认为,智能眼镜板块预计将延续强劲 增长,2024年至2029年的复合年增长率达45.4%。微光科技副总裁、软工首席谢鑫更是直言,"今年市 场可能会达到千万级的销量。" 不过,仍需要指出的一点是,基于当前的硬件限制和软件生态的匮乏,AI眼镜远谈不上取代手机,最 终形态也存在争议,甚至长时间佩戴的问题也都没有解决。热潮之下,"百镜大战"会继续上演,不同的 是,今年更多巨头的入局会加速市场泡沫的破裂。而对于创业公司来说,则是一场没有退路的战役。 大厂押注、超10亿资金入账,新的卡位赛打响 当AI大模型在两年多 ...
中国团队引领太空算力:首次太空在轨部署通用大模型,发2800颗卫星服务数亿硅基智能体
量子位· 2026-01-28 10:48
文章核心观点 - 全球AI竞争的最新焦点已转向太空算力,中美两国在该领域正展开你追我赶的竞赛[1][3][4] - 中国公司国星宇航在太空算力领域展现出先发优势,其技术方案(如通用大模型在轨部署与更新)比美国公司Starcloud的当前验证更为前沿[3][8][9] - 太空算力因其在降低土地与能源成本、提供低延迟实时服务、推动AI普惠等方面的巨大潜力,成为中美押注的战略方向[13][14][17] - 太空算力面临硬件迭代、软件适配、太空环境(散热、辐射)等系统性技术挑战,中国玩家已率先突破并占据优势[19][21][22] 太空算力竞赛的中美格局 - **美国动态**:英伟达投资的Starcloud公司近期利用已发射至太空的英伟达H100芯片,成功运行开源模型,完成了太空算力技术验证[1][4] - **中国动态**:国星宇航发布了全球首个服务硅基智能体的太空算力网,计划发射2800颗卫星服务数亿硅基智能体[2] - **技术对比**:Starcloud是将地面部署好的模型随算力送上太空运行,而国星宇航已实现“隔空”在轨部署通用大模型,并能根据需求在线更新,技术更为先进[8][9][10] 国星宇航的太空算力计划 - **卫星部署规模**:计划发射2800颗卫星,其中2400颗提供推理算力(总算力达十万P级),400颗用于训练(算力达百万P级)[4] - **时间规划**:全部卫星部署完毕预计需近10年,已于2024年5月成功发射01组太空计算中心,02组和03组已投产,计划今年实现轨道部署,2030年前实现千星规模组网和商用,2035年前完成全部组网[4] - **技术里程碑**:在2024年9月25日至10月5日完成了全球首次卫星在轨运行AI模型技术验证[11],并于2025年11月协助完成千问大模型Qwen3的实时在轨部署与多项在轨推理任务[4][5][6] 发展太空算力的核心动因 - **降低成本与能耗**:节省宝贵的土地资源,并利用太空太阳能持续供能,更为节能;对比数据显示,到2026年全球数据中心总用电量预计达1万亿度,相当于1.2亿人全年用电量[13] - **提供实时低延迟服务**:服务于Robotaxi、无人机等硅基智能体,满足时效性要求极高的任务;例如可为渔业提供实时鱼群动向信息[14][16] - **推动AI普惠**:覆盖全球的太空算力网络可为偏远地区提供AI基础设施,与开源大模型共同推动AI技术普及[17] 太空算力面临的技术挑战 - **硬件迭代矛盾**:AI芯片性能迭代快(摩尔定律),与太空基建建设周期长存在矛盾,需建立硬件在轨更替机制或通过软件延长硬件生命周期[19][20] - **软件与操作系统适配**:需开发适配太空环境、同时又能兼容地面主流开发架构的操作系统[21] - **太空环境特殊性**:面临散热挑战(太空无空气,热量只能通过辐射传递)和高能粒子轰击导致硬件损坏与计算精度干扰等问题,需创新热管理与安全冗余技术[21][22]
五一视界(6651.HK)物理AI的“左右互搏”:世界模型与VLA的闭环进化论
中金在线· 2026-01-28 10:39
物理AI的发展趋势与核心突破 - AI技术正取得三大突破:从聊天到干活的智能体、开源模型降低门槛、物理智能理解客观自然世界 物理智能展现出AI开始理解蛋白质结构、化学分子、流体力学等自然科学规律 这被认为是AI的下一波浪潮[1] 物理AI的核心技术范式:VLA与世界模型协同 - 为加速AI理解、重建和生成物理世界,需依赖世界模型这一利用AI训练AI的新工具[2] - 行业共识认为,单纯依赖真实机器人数据采集不够 正在见证VLA模型或VA模型与世界模型双模型协同的新范式崛起[2] - VLA或VA模型担当负责感知、推理和行动的大脑 世界模型充当负责推演和想象的场景模拟器[2] VLA与世界模型协同的价值与路径 - VLA+世界模型是解决物理AI中具身智能数据饥渴和物理安全性矛盾的最优解 真实机器人数据采集较贵、较慢、有危险[3] - 世界模型能生成无穷无尽的仿真数据 可低成本生成各种情景甚至反事实场景 为VLA提供细节丰富的训练场[3] - 斯坦福大学李飞飞教授提出空间智能是连接数字与物理世界的桥梁 世界模型应生成具备3D几何一致性、物理互动性的可操作世界 VLA在此训练才能真正理解物理规律[3] - 协同进化工程化落地分为四个阶段:冷启动、接口对齐、在仿真场景中训练、虚实迁移与校准[4][5] 解决生成式模型物理常识缺失的关键技术 - 需警惕生成式模型在长时间序列预测中的一致性幻觉 如物体突然变大或穿透[6] - 解决对策:引入3D几何、材质等约束 结合3DGS等技术 确保生成的物体在三维空间中守恒[6] - 公司日常训练中将3DGS技术与3D几何图形引擎融合 形成3DGS混合仿真引擎 使虚拟环境物理特性与真实环境保持一致[6] - 为判断任务成功 需训练配套的奖励模型作为裁判 查看生成场景并给出分数反馈[6] - 为解决世界模型推演速度瓶颈 可采用潜一致性模型等加速技术 将预测从像素级转移到特征级 速度可大幅提升[6] 数据共享与互补的最佳实践 - 世界模型训练需要输入真实数据与合成数据[7] - 共享视觉底座:VLA和世界模型的视觉编码器可共享权重或联合训练 以节省显存并保证对世界特征的同频理解[7] - 反事实数据生成:利用世界模型生成假设性失败案例数据 让VLA学习从未经历过的失败 提升鲁棒性[7] - 数据配比:建议发展初期按照真实数据与合成数据1:9的比例混合使用 真实数据用于校准物理规律 合成数据用于拓展多样性[7] 物理AI的演进方向与未来应用 - 世界模型未来需直接生成4D的交互式环境 VLA将在完全三维的动态可交互环境中训练[8] - 在公司的"数字孪生工厂"中 利用物理AI可在虚拟产线调试机械臂、应对异常 再同步到实体工厂执行[8] - 构建动态"虚拟训练场" 使人形机器人在部署前学会应对数千种突发状况[8] - 实现快慢系统默契配合:VLA处理毫秒级实时反应 世界模型处理长程规划 当VLA遇难题可呼叫世界模型推演方案[8] - 最终VLA和世界模型可能合并为一个大一统模型 输入观测时既能预测下一个动作也能预测下一帧状态[9] - 未来应用包括:机器人管家、模拟火星环境中自主作业的工程车、在药物研发中推演蛋白质折叠与分子互作的"虚拟实验室"[10]
物理AI的"世界模拟器"来了!文远知行发布通用仿真模型WeRide GENESIS
格隆汇· 2026-01-28 09:57
1月28日,全球领先的自动驾驶科技公司文远知行WeRide(NASDAQ: WRD,HKEX: 0800)正式发布自研 通用仿真模型——WeRide GENESIS,构建起物理AI(Physical AI)与生成AI(Generative AI)之间的融合 桥梁,贯通「现实物理世界」与「虚拟仿真世界」,将加速自动驾驶汽车的规模化研发、训练与商业落 地。 (注释:GENESIS为"Generative Engineered Neural Environment for Simulated Intelligence in Self-driving"的 缩写。) 依托生成式AI技术,WeRide GENESIS能够在虚拟世界中快速"生成世界"——只需几分钟即可构建高度 真实的仿真城市环境,并精准复刻现实道路中难以高频获取的极端长尾场景,使自动驾驶系统得以在虚 拟环境中完成高强度训练与验证。同时,通过不断将仿真生成的经验反哺真实道路运行,WeRide GENESIS显著提升了自动驾驶算法应对真实物理世界复杂场景的能力与迭代效率,并大幅降低传统道 路测试所需的时间与成本。 WeRide GENESIS的诞生,源于自动驾 ...
超越英伟达,天数智芯公布路线图
半导体行业观察· 2026-01-28 09:14
文章核心观点 - 人工智能算力需求正从追求“有没有”的粗放式增长,转向关注“好不好用、值不值这个价”的高质量发展阶段,这要求GPGPU必须经得起真实场景和长期运行的检验[1] - 天数智芯作为本土GPGPU厂商,通过公布四代芯片架构路线图、发布边端产品及强化全栈生态,旨在应对行业转变,目标是成为高质量算力解决方案提供商,助力中国AI迈向新阶段,并走出差异化发展道路[1][25] 行业趋势与挑战 - 大模型参数规模从百亿迈向万亿级,数据中心需求从单纯增加GPU数量升级为系统工程问题,需解决算力密度、供电散热、高速互连、低延迟网络及长期运行下的PUE、TCO和稳定性等挑战[3] - 过去十年算力野蛮增长导致效率困局,推理场景平均利用率不足20%,训练场景平均利用率仅40%出头,造成能效比失衡和算力资源严重浪费[3] - AI形态正从单次推理演进为以Agent为核心的持续运行体系,并进入物理世界,算力需求从集中式训练的峰值算力转向高频、多步、长时推理的持续负载,边端芯片需求重心从“算得动”转向“算得久、算得稳、算得省”[9] 天数智芯的战略定位与高质量算力理念 - 公司定位为解决方案提供商而非纯芯片公司,致力于帮客户解决实际问题[25] - 提出高质量算力需具备三大特征:高效率(为客户创造最优TCO,节省成本)、可预期(通过精准仿真模拟实现性能所见即所得)、可持续(支持现有及未来全新算法,聚焦通用算力确保长期价值)[4] - 坚持通用计算方向,坚信硬件不应限制算法进化,而应成为孵化新算法的坚实底座[16] - 不追求成为“第二个英伟达”,旨在走出自己的道路[25] 芯片架构路线图与技术突破 - 公布四代芯片架构路线图:2025年天数天枢架构在DeepSeek R3场景中性能超越英伟达Hopper 20%;2026年天数天璇架构对标Blackwell;2026年天数天玑架构超越Blackwell;2027年天数天权架构超越Rubin;2027年后转向突破性计算芯片架构设计[6] - 天数天枢架构引入多项核心技术创新:TPC BroadCast减少重复访存;Instruction Co-Exec实现多指令并行处理;Dynamic Warp Scheduling提升计算资源利用率[8] - 天数天枢架构能让AI芯片执行注意力机制计算时,算力实际有效利用效率达到90%及以上;天数天璇架构将新增ixFP4精度支持;后续架构将实现全场景AI与加速计算覆盖[8] - 通过kv cache量化+无损反量化技术,能使模型推理中的实际内存使用量降低50%以上,减少对高成本存储的依赖[23] 产品布局:云端、边端与全栈覆盖 - 计划未来3年推出“天垓”和“智铠”系列等多款芯片,目标实现每代产品每块钱token处理能力翻倍[9] - 发布“彤央”系列边端产品,作为AI与物理世界融合的媒介,包括四款产品:TY1000算力模组(便携部署)、TY1100算力模组(集成ARM CPU与自研GPU)、TY1100_NX算力终端(大显存高性价比)、TY1200算力终端(300TOPs极致性能,支持AIPC、具身智能)[10] - 彤央全系列标称算力为实测稠密算力,覆盖100T到300T范围,在计算机视觉、自然语言处理、DeepSeek 32B大模型等多场景实测中,TY1000性能全面优于英伟达AGX Orin[12] - 公司已形成覆盖云端训练(天垓系列)、推理(智铠系列)、边端场景(彤央系列)的全栈式算力布局,是国内头部GPU厂商中唯一实现云边端生态统一且全面兼容主流体系的企业[14] 软件生态与性能优势 - 提供自主开发的全栈软件开发工具包,包括驱动编译器、性能优化函数库、AI训练框架及推理引擎[14] - 通过SIMT架构在算子上实现极高硬件利用率;借助通算融合与流水线并行等策略,在DeepSeek R1等大模型场景下的吞吐量与首词延迟表现优于英伟达A800,展现深度软硬件协同优化能力[15] - 自研IX-SIMU全栈软件系统可实时适配存储市场价格变化,为客户提供最具性价比的硬件适配测算与组合选型[23] 商业化落地与市场表现 - 截至2025年底,已在互联网大模型研究、金融、医疗、交通等超过20个行业落地应用,与超1000家用户合作,陪伴300多家客户进入量产阶段[16] - 在科学探索领域适配320种通用计算模型,单集群可并行数千卡科研任务,稳定运行1000多天,已落地国内多家顶级学府[16] - 具体行业效益:互联网AI领域实现单机性能翻倍、Token成本减半、人力节省1/3;大模型适配达成95%算子复用;金融领域研报生成效率提升70%,量化分析响应速度提升30%;医疗领域结构化病历生成时间缩至30秒/份,肠胃镜病灶定位精度提升30%[18] - 公司营收在2022到2024年间实现68.8%复合增长率,截至2025年6月30日累计交付逾5.2万片通用GPU产品[18] - 彤央系列已落地具身智能(如格蓝若机器人)、工业智能(园区与产线自动化)、商业智能(瑞幸咖啡数千家门店)、交通智能(与“车路云一体化”20大头部试点城市合作)等领域[20]
2025年中国企业级AI应用行业研究报告
艾瑞咨询· 2026-01-28 08:07
前言: 支撑层: 以场景为中心进行模型选型,构建Data+AI的数据底座与面向AI的数据安全体系。 基础设施层: AI算力基建向多元异构演进,国产替代背景下软硬件深度协同优化重要性凸显。 应用现状: 随着"百模大战"逐渐落幕,行业竞争重心转变,企业级AI从技术探索期全面转向规模化应用期。得益于大语言模型能力的快速跃升,新一代AI应用已在智能客 服、知识库问答、内容生成等知识密集且交互相对开放的场景中率先取得规模化突破。 关键问题: 在新一代AI应用的规模化落地过程中,企业也面临着更加复杂的挑战。其应用成果不仅依赖于单一的技术突破,更在于构建系统性、端到端的落地能力。 应 用层 : Agent成为当前企业级AI应用落地的核心载体,拆解最小任务单元,利用Function Call、MCP、Skills等方式,促进Agent与企业业务流程的深度整合。 组织层: 高 层推动的顶 层设计、员工维度的角色升级共同推动企业的AI转型。 企业级AI应用行业 丨研究报告 研究范畴界定 重点关注企业作为采购和使用主体,以GenAI技术驱动的新一代AI应用 在大模型、AI Agent等技术快速发展的当下,越来越多的企业将数智化转型 ...
对话Arm邹挺:2026年物理AI加速 芯片将有这些新进展
21世纪经济报道· 2026-01-28 06:54
AI行业发展趋势与展望 - 业界普遍将2026年定义为AI应用大年,AI产业链从基础设施到上层应用均在加速演进,其中“物理AI”被多家头部厂商重点看好[1] - 2026年将迈入智能计算新纪元,计算将具备更高的模块化特性和能效,实现云端、物理终端及边缘AI环境的无缝互联[1] - 下一个价值数万亿美元的AI平台将属于物理智能领域,智能能力将被植入新一代自主设备与机器人[1] - 原生AI应用与AI芯片的协同进化,正指向一个更深层次融合的智能世界,AI将嵌入设备、融入场景、贯穿系统[14] 物理智能 (Physical AI) **核心场景与趋势** - 业界公认的“物理AI”场景主要包括具身智能和自动驾驶,技术路线和商业化进展尚存分野,距离大规模落地仍需时间[2] - 在多模态模型、更高效训练与推理管线技术突破的推动下,2026年物理AI系统将实现规模化部署,催生全新品类的自主设备,帮助医疗健康、制造、交通运输、采矿等多个行业重塑[2] - 面向汽车与机器人自动化场景的通用计算平台将逐步涌现,车载芯片有望通过技术复用与适配,应用于人形机器人或工业机器人领域,以提升规模经济效益,加速研发与落地[2] **技术路线与挑战** - 物理AI面临世界模型和VLA(视觉-语言-动作)模型两条持续演进的技术路线,二者优势互补,业界正探索融合路径[2][3] - VLA模型聚焦解决“理解与执行”的核心需求,世界模型则专注攻克“预测与因果”的关键难题,均对算力提出高要求[2] - 真正的挑战在于如何实现数万甚至数百万台同类设备的可靠部署,而非打造单台高性能设备,软硬件技术栈的碎片化是过去行业发展停滞的原因之一[1][4] - 物理AI需要在严苛的功耗与热管理限制下持续运转,且常部署于安全关键型应用场景,规模化的关键在于将统一架构理念贯穿云端训练、边缘推理及物理系统实时执行的全流程[3] **行业布局与解决方案** - 为应对物理AI发展需求,Arm在2025年11月整合汽车、机器人及各类自主运行设备相关业务,成立“物理AI”事业部[3] - Arm推出分层式解决方案:硬件层面有汽车增强AE IP及Zena CSS;软件层面提供KleidiAI库和优化工具;系统层面推动云-边-端协同,形成“架构+硬件+软件+生态”的整体能效优化路径[4] - 目标是打造一套在算力、安全性与可靠性毫不妥协的前提下,实现“感知-决策-执行”实时闭环的AI方案,并通过“一次开发、多类物理系统部署”的模式破解碎片化痛点[3][4] 端侧AI:智能手机 **发展现状与趋势** - 2025年,高端手机在仅端侧、不联网条件下已具备运行30亿参数规模大模型的能力[4] - 得益于模型压缩、蒸馏及架构设计的技术突破,复杂的推理模型正实现数量级的规模缩减,转化为小语言模型 (SLM),同时不会牺牲计算能力,更易于在边缘侧部署且微调成本更低[5] - 模型蒸馏、量化等超高能效的AI模型训练技术的规模化应用正逐步成为行业标准,训练能效有望成为衡量AI模型的核心指标[5] - 搭载Arm Mali GPU中专用神经加速器的智能手机将在2026年推出,标志着移动端侧图形和AI能力的重大飞跃,支持更高帧率4K游戏、实时视觉计算及更智能的端侧AI助手,且无需依赖云端连接[5] **技术要求与应对** - 小语言模型(SLM)对手机的性能、能效、安全性及软件适配能力提出了更高要求[5] - 需要CPU、GPU、NPU等异构算力芯片无缝配合实现动态负载均衡;突破“性能-功耗-面积”三角以适配低功耗约束;更加强调数据安全性;软件生态需兼容多框架与模型压缩技术以降低部署门槛[6] - Arm通过构建“Lumex CSS计算平台+ KleidiAI软件库+开放生态”来帮助手机承接大算力、多模态能力[6] - Armv9.3 CPU集群使Arm Lumex实现了两位数的性能提升和硬件级安全性;其搭载的第二代可伸缩矩阵扩展 (SME2) 技术,提供更强的AI性能、更低的内存占用,尤其适合对实时性要求严苛的应用[6] - KleidiAI已集成到Llama.cpp、ExecuTorch、MNN和LiteRT等多个主流AI框架,Arm架构CPU在中国市场的主要大模型开源首日便完成适配并深度集成KleidiAI[7] 端侧AI:XR(AR/VR)设备 **发展前景与挑战** - 头显和智能眼镜等AR/VR可穿戴设备,将在物流、运维、医疗和零售等更广泛的工作场景中落地应用,得益于轻量化设计和电池续航能力的进步[8][9] - 随着外形尺寸缩小、AI能力增强、连接体验流畅,AR/VR设备将成为推动职场向更智能、更具辅助价值未来演进的关键一步[9] - 挑战一:需平衡算力与能效,在提供高性能计算支撑复杂功能的同时保障长续航,这是企业级场景落地的关键前提[9] - 挑战二:多种实时交互(如视频、语音、手势识别)对系统时延提出极高要求,尤其在医疗、工业等关键场景[9] - 挑战三:设备需支持从轻量级到高性能的多样化应用,要求具备多功能异构场景适配能力[10] **应对策略** - 高算力、低延时任务优先采用终端侧与边缘侧处理,同时按需调用云端资源拓展算力上限,以减轻设备负荷并保障实时性能[10] - 推动生态系统合作,优化操作系统、中间件和应用算法,以提升整体系统效率,降低时延[10] - Arm C1-Nano CPU非常适合XR、入门级或中端设备等场景,同时公司不断优化CPU、GPU、NPU等异构计算单元以适配不同设备和应用场景[10] AI芯片与计算基础设施 **芯片类型与趋势** - 除了通用计算的GPU和CPU,ASIC、NPU等不同类型AI加速器也备受关注[11] - NPU作为神经网络推理专用处理器,核心优势为AI架构适配、高能效比、轻量化部署、本地闭环处理及多处理器协同,适用于可穿戴设备、智能扬声器、软件定义智能摄像头以及智能家居设备等场景[11] - 行业正朝着系统级协同设计的定制化芯片方向演进,这类芯片将从系统层面与软件栈协同设计,并针对特定AI框架、数据类型及工作负载完成深度优化[13] - 亚马逊云科技 (Graviton)、Google Cloud (Axion) 和Microsoft Azure (Cobalt) 等头部云服务提供商正在引领这一转变,展示了从底层开始将专用CPU、加速器、内存和互连共同设计的紧密集成平台[14] - 这一趋势将推动“融合型AI数据中心”加速落地,这类数据中心可最大化单位面积内的AI算力,从而降低AI运行所需的能耗总量及相关成本[14] **Arm的技术聚焦** - 在推动NPU能力提升方面,Arm核心聚焦两大方向:异构架构协同与全栈软件生态支撑[12] - 异构架构协同方面,Arm NPU与包括CPU、GPU在内的多元化处理器高效协同,针对不同场景提供更优算力支撑,例如通过Arm Ethos-U85这类专用NPU承载边缘场景的神经网络处理任务以释放CPU资源[12] - 生态支撑层面,Arm为全系列AI硬件方案提供全面的开源运行时支持,并通过KleidiAI为PyTorch、ExecuTorch、Llama.cpp、TensorFlow、LiteRT等主流ML框架提供硬件加速适配[12]
索辰科技:公司物理AI聚焦于多物理场仿真、物理规律驱动的智能体训练及行业级应用
证券日报网· 2026-01-27 21:48
证券日报网讯1月27日,索辰科技在互动平台回答投资者提问时表示,公司物理AI聚焦于多物理场仿 真、物理规律驱动的智能体训练及行业级应用,面向新能源电池、具身智能、低空经济等领域的虚拟训 练,具备自主可控、安全可定制等优势。 ...
天数智芯公布芯片四代架构路线图 首次公布标杆客户与规模化落地成果
证券日报网· 2026-01-27 18:43
本报讯(记者张文湘)1月26日,上海天数智芯半导体股份有限公司(以下简称"天数智芯"),在"智启芯 程"合作伙伴大会现场发布四代架构路线图,提出以"高效率、可预期、可持续"为核心的"高质量算 力"设计目标,打造"AI++"算力系统新范式,同时发布边端算力产品"彤央"系列,并全面展示多行业深 度应用案例及开放生态建设成果,以布局云边端的全场景产品与解决方案,与产业链上下游的客户和生 态伙伴共绘算力赋能千行百业的发展蓝图。 本次发布中,天数智芯首次公开了公司产品和解决方案在互联网、金融、医疗、科研等领域规模化落地 成果,以及在具身、工业、商业、交通智能等领域的标杆案例,全面印证国产算力的成熟与可靠。 天数智芯针对行业面临的能效比偏低、创造力不足、实际使用困难等问题,提出了"高质量算力"的解决 方案。公司打造的"AI++"算力系统新范式,统一芯片内与芯片外构建算力系统,建立软件驱动算力系 统的全新模式,以底层库为基石,以模型与计算中间层为支柱,用软件的智慧,释放硬件的潜能,支撑 上层不断繁荣的应用生态。 "彤央"系列产品,完成"云+边+端"全场景算力布局。"彤央"系列承载着"赋能边端智慧,连接物理空 间"的核心愿景 ...
从一杯咖啡里的算力说起
华尔街见闻· 2026-01-27 17:56
在北京朝阳区一家繁忙的连锁咖啡店里,早高峰的节奏正如精密齿轮般运转。 一位店员熟练地接过订单,与此同时,吧台角落那颗不起眼的摄像头正捕捉着客流数据;后台的库存系统在实时监测咖啡、牛奶等物料的消耗量。 支撑这一系列井然有序场景的正是天数智芯的 国产 边端 AI算力 产品 。 事实上,这不仅是一家咖啡店的日常,更是 国产 AI算力设备在现实商业中扎根生长的典型横切面。 将视线从这间咖啡店拉升,我们看到的是一片更为壮阔的商业前景。弗若斯特沙利文预计到 2029年中国通用GPU市场规模有望攀升至7153亿元,未来5 年复合增长率将高达29.5%。 正是在国内市场规模爆发的前夕, 天数智芯、壁仞、摩尔线程等国产 GPU 厂商相继完成上市,只为拿到那张通往七千亿市场的入场券,以应对接下来更 为残酷的规模化战役。 当 "上市蓄力"完成,资本市场的聚光灯也让行业的隐痛无处遁形:落地困难、生态割裂依然是摆在现实的难题。 对此,天数智芯给出的答案是 一份横跨三年的 四代架构 路线 图和一系列边端新品 : 1月26日, 天数智芯 一口气 亮出了 " 天数 天枢、 天数 天璇、 天数 天玑、 天数 天权 " 四 代架构 ,明确了在 ...