Workflow
大型语言模型
icon
搜索文档
一个近300篇工作的综述!从“高层规划和低层控制”来看Manipulation任务的发展
具身智能之心· 2026-01-06 08:32
文章核心观点 - 机器人操纵作为具身智能的核心难题,正因大型基础模型的出现而迎来变革,其技术框架可统一为“高层规划”与“低层学习型控制”两大模块的协同体系 [1] - 当前技术突破在于基础模型提升了机器人的感知与语义泛化能力,使其能基于自然语言指令在非结构化环境中工作,但规模化落地仍面临通用架构缺失、数据瓶颈、物理交互不足及安全协作等核心挑战 [1][23][26] - 未来研究方向聚焦于构建通用机器人架构、破解数据困境、强化多模态物理交互以及保障安全协作,以推动机器人操纵从实验室走向真实复杂场景 [30][31] 高层规划:任务解构与决策引导 - 高层规划负责明确动作意图、时序组织及环境注意力分配,其核心是融合多模态信息解决“做什么”和“按什么顺序做”的问题,包含六大核心组件 [4] - **基于LLM的任务规划**:以大型语言模型为核心实现自然语言到任务步骤的映射,早期方法如SayCan选择可执行技能,进阶方案如Inner Monologue引入闭环反馈实现动态调整,LLM+P和REFLECT强化了长时程推理与失败处理 [5] - **基于MLLM的任务规划**:联合视觉与语言进行推理,PaLM-E通过机器人具身数据与视觉语言模型共训练实现端到端任务推理,VILA直接复用GPT-4V能力无需微调,机器人专用MLLM如RoboBrain、Gemini Robotics在具身基准测试中表现优于通用模型 [8] - **代码生成**:将规划转化为可执行程序以弥补语言计划的精度缺陷,Code as Policies通过暴露API让LLM生成控制代码,Demo2Code、SHOWTELL支持从演示中提炼程序,Statler、HyCodePolicy通过维护世界状态提升闭环控制鲁棒性 [9] - **运动规划**:利用LLM或视觉语言模型生成连续运动目标以衔接高层推理与低层轨迹优化,VoxPoser构建语言-视觉条件的3D价值图提供优化目标,CoPa、ManipLLM融入物理先验确保可行性,ReKep通过关系关键点实现自主轨迹生成 [10] - **可用性学习**:聚焦“物体能做什么”,从几何、视觉、语义及多模态四个维度学习物体的交互可能性,为操纵决策提供先验知识 [11] - **3D场景表征**:将环境感知转化为结构化动作提案,通过高斯splatting实现可编辑的3D场景表示支持抓取候选生成,借助神经描述场等隐式表征编码几何与语义信息,实现少样本姿态迁移等任务 [12] 低层学习型控制:动作生成与执行落地 - 低层控制负责将高层规划转化为精准物理动作,解决“怎么做”的问题,从学习视角可拆解为学习策略、输入建模、潜态学习、策略学习四大核心组件 [14] - **学习策略**:定义技能获取的核心范式,主要分为三类:强化学习(包括无模型方法如QT-Opt、PTR和有模型方法如Dreamer、TD-MPC)、模仿学习(包括基于动作的模仿如行为克隆和基于观察的模仿)以及辅助任务学习(如世界建模和目标提取) [16][18] - **输入建模**:定义多模态感知的融合方式,主要包括:视觉-动作模型(基于2D视觉如Diffusion Policy或3D视觉如RVT)、视觉-语言-动作模型(整合语义时空信息,如RT-2、OpenVLA、SpatialVLA)以及触觉/力/音频等额外模态(如T-DEX融合触觉信号提升接触-rich操纵的鲁棒性) [19][20] - **潜态学习**:负责从输入数据中获取鲁棒通用的表征并优化其向动作的解码,包括在通用数据上预训练视觉编码器,以及将动作抽象为离散token(如VQVLA)或连续向量(如MimicPlay、LAD)以平衡泛化性与执行精度 [21][24] - **策略学习**:定义将表征解码为可执行动作的模型架构,主流范式包括:结构简单的MLP-based策略、利用注意力建模时序依赖的Transformer-based策略(如ACT)、通过迭代去噪生成多模态轨迹的扩散策略以及提升推理速度与平滑度的流匹配策略 [25] 核心挑战与未来方向 - **通用架构缺失**:现有方法多针对特定任务或机器人形态,缺乏能适配多样模态、载体及任务的通用基础模型,且长时程执行中易出现误差累积,难以维持稳定表现 [26] - **数据与仿真瓶颈**:真实世界机器人数据采集成本高、规模有限,而仿真环境与真实场景存在差异,导致模型迁移性能不佳,缺乏高效的数据循环机制 [27] - **多模态物理交互不足**:当前方法以视觉为中心,对触觉、力等物理交互信号的融合不够充分,难以应对可变形物体、复杂材料等接触动力学主导的场景 [28] - **安全与协作问题**:在人机共存环境中,现有方法在满足内在安全约束、意图推理与故障恢复能力上仍有欠缺 [29] - **未来研究方向**:针对挑战明确了四大重点:构建支持灵活模态接口与载体适配的通用“机器人真脑”架构;建立自主数据采集与提炼的“数据飞轮”并提升仿真保真度;融合触觉、听觉等多模态信号以强化物理交互;设计内在安全的控制策略并建立故障恢复机制,采用“学习+经典控制”的混合范式保障可靠性 [30]
如何应对不同类型的生成式人工智能用户
36氪· 2025-12-19 11:54
核心观点 - 为终端用户设计基于大型语言模型(LLM)的工具时,必须进行严格的用户研究,不能假设用户对AI的认知和态度与开发者一致,否则产品可能失败 [1][7] - 生成式人工智能(如LLM)因其非确定性、不可理解性和日益增强的自主性,从根本上改变了用户与技术互动的方式,对产品设计提出了独特挑战 [8][9][10][11] - 成功的AI产品设计应基于对多样化用户画像的理解,并据此规划产品功能、沟通策略和推广方式,同时尊重用户选择,避免强制使用 [13][14] 用户类别与画像 - **无意识使用者**:不思考AI,认为其与自身生活无关,对底层技术了解有限且缺乏好奇心 [2] - **回避型用户**:对AI整体持负面看法,高度怀疑和不信任,AI产品可能对其品牌关系产生不利影响 [3] - **人工智能爱好者**:对AI抱有很高且可能不切实际的期望,例如希望AI接管所有繁琐工作或完美回答问题 [4] - **知情的人工智能用户**:具有现实视角和较高信息素养,采用“信任但核实”策略,只在AI对特定任务有用时调用它 [5] 用户对LLM的潜在认知偏差 - 用户可能对LLM的工作原理一无所知 [6] - 用户可能没有意识到正在使用的工具已由LLM支撑 [6] - 用户可能因有过强大功能代理的体验而对LLM能力抱有不切实际的期望 [6] - 用户可能对LLM技术抱有不信任或敌意 [6] - 用户对LLM输出内容的信任度可能因过去的特定经验而不同 [6] - 用户可能期待确定性的结果,尽管LLM本质上是非确定性的 [6] 生成式AI的独特挑战 - **非确定性**:相同的输入可能产生不同且意外的输出,打破了传统计算的可重复性契约,可能破坏用户的信任 [9] - **不可理解性(黑匣子)**:神经网络过于复杂,无法完全解释模型为何产生特定输出,必须接受一定程度的不可知性 [10] - **自治权**:推动AI作为半自主智能体运行,在减少监督的同时,因其非确定性和不可理解性可能引发安全焦虑;同时,AI可能在幕后运行而用户毫无察觉 [11] 对产品设计与开发的启示 - **进行严格的用户调研**:了解目标用户群中不同画像的分布,并据此规划产品如何容纳这些用户 [13] - **针对不同用户制定策略**:若有相当一部分回避型用户,需规划信息策略促进采用并考虑缓慢推广;若有很多爱好者用户,需明确工具的能力范围以管理期望 [13] - **以用户研究驱动产品构建**:用户调研应深刻影响AI产品的外观、体验、实际构建和功能,工程任务应基于证据了解产品所需能力及用户可能的行为方式 [13] - **优先考虑用户培训**:必须主动培训用户了解所提供的解决方案,现实地设定期望,并提前回答怀疑受众可能的问题 [13] - **不要强求用户使用**:应尊重可能因批评情绪、安全法规或缺乏兴趣而拒绝使用AI工具的用户群体,强制使用无济于事,维护用户关系和品牌声誉更为重要 [14]
医疗AI迎来大考,南洋理工发布首个LLM电子病历处理评测
36氪· 2025-12-16 11:05
研究概述 - 南洋理工大学研究人员构建了首个全面评测大型语言模型处理结构化电子病历能力的综合基准EHRStruct [1] - 该基准由计算机科学家与医学专家共同构建,包含11项核心任务,共计2,200个标准化样本 [1] - 基于该基准,研究团队对20个主流大型语言模型与11种先进的增强方法进行了全面评测,并提出了代码增强框架EHRMaster [2] - 研究成果已被AAAI 2026 Main Technical Track录取为Oral论文,并同步发布了EHRStruct 2026挑战赛 [2] 基准设计与构建 - EHRStruct基准的任务体系沿三条轴线组织:临床场景(数据驱动 vs 知识驱动)、认知层级(理解 vs 推理)以及六类功能类别 [4][9] - 基准构建过程包括四个主要阶段:任务合成、任务体系构建、任务样本抽取与评测流程搭建 [5] - 任务样本基于两个互补数据源构建:Synthea提供合成结构化病历,eICU Collaborative Research Database提供真实ICU环境下的结构化表格 [10] - 对于11项任务共生成2,200条带标注样本,每个样本的问答对由GPT-4o生成 [10] 任务体系与评测方法 - 基准涵盖的11项任务分为数据驱动和知识驱动两大类 [3] - 数据驱动任务包括:基于条件的数据过滤、数值聚合、数值趋势算术推理 [3] - 知识驱动任务包括:临床代码识别、死亡率预测、疾病预测、药物推荐 [3] - 评测涵盖20个大型语言模型,每个任务采用200份问答样本进行评测 [11] - 所有样本均用四种典型的格式转换方法进行输入转换:平铺文本、特殊字符分隔表示、图结构表示和自然语言描述 [11] - 基准还复现并比较了11种结构化数据推理方法,包括8种非医疗领域方法与3种临床方法 [11] 核心研究发现 - 在结构化电子病历任务上,通用大型语言模型整体表现明显优于医学领域模型,其中闭源商业模型(特别是Gemini系列)取得了最佳结果 [8][14] - 大型语言模型在数据驱动类任务上的表现更为稳定和优秀,而知识驱动类任务,特别是诊断评估与治疗规划,仍对现有模型构成显著挑战 [8][15] - 输入格式显著影响模型性能:自然语言描述更有利于数据驱动的推理任务,而图结构表示更适用于数据驱动的理解任务 [8] - 少样本示例能够总体提升大型语言模型表现,其中1-shot和3-shot设置通常优于5-shot [8] - 多任务微调带来的性能增益显著优于单任务微调 [8] - 增强方法具有情境依赖性:非医疗领域的增强方法在知识驱动任务上表现不佳,而医疗专用方法在数据驱动任务中同样存在局限 [8][17] 性能表现与对比 - 通用大模型在绝大多数任务中明显优于医学专用模型,尤其是在知识驱动类任务上,医学模型往往无法生成有效输出 [14] - 以Gemini系列为代表的闭源商业模型整体排名领先,展现出对结构化电子病历任务更强的泛化能力 [14] - 在零样本测试中,通用模型如Gemini 2.5在部分数据驱动任务上表现优异,而许多医学模型在多项任务上无法生成有效输出 [13] - 复现的11种代表性先进方法显示出性能割裂:通用方法擅长数据驱动的逻辑与数值推理,但在临床知识任务上表现平平;医疗方法精通知识驱动任务,却难以泛化至通用数据场景 [17][18] 提出的解决方案 - 研究团队提出了一种全新的代码增强框架EHRMaster,用于帮助大型语言模型处理结构化医疗任务 [12] - EHRMaster与Gemini系列模型联合后,在基准测试中表现强劲,能有效改善数据驱动任务,并对具有挑战性的知识驱动任务也有一定幅度的性能提升 [19][20] - 具体而言,EHRMaster搭配Gemini 1.5在多项数据驱动任务上达到100%准确率,在知识驱动任务上也有提升,例如K-U1任务的AUC从57%提升至89% [19] - EHRMaster搭配Gemini 2.5在数据驱动任务上表现卓越,并在知识驱动任务K-R3上取得69.2%的AUC,超越先前61.2%的最佳水平 [19]
Llama已死?Meta(META.US)将在明年初推出新AI大模型Avocado
智通财经· 2025-12-09 21:46
公司战略与产品规划 - Meta计划在2026年第一季度发布新一代大型语言模型,代号为“Avocado”,旨在与谷歌、OpenAI等公司竞争 [1] - 新模型“Avocado”被视为Llama的继任者,且发布时很可能将成为专有模型,这与当前开源的Llama系列形成战略转变 [1] - 公司曾于今年6月讨论过对Llama系列“削减投资”,并考虑采用竞争对手如OpenAI和Anthropic开发的模型 [1] 组织架构与资源投入 - 为应对竞争并加速AI产品开发,Meta在数月前重组了人工智能部门以优化组织架构 [1] - 公司于今年夏季斥资近150亿美元收购了Scale AI的股权,并任命其CEO Alexandr Wong为Meta的首席人工智能官 [1]
迎战谷歌新利器!OpenAI正研发新AI模型“Garlic”
智通财经· 2025-12-03 16:41
OpenAI新产品开发动态 - OpenAI正在开发代号为“Garlic”的大型语言模型 旨在应对谷歌在AI领域的进展[1] - 公司首席研究官马克·陈表示 Garlic在内部评估中表现良好 在编程和推理等任务上表现优于谷歌的Gemini 3和Anthropic的Opus 4.5[1] - OpenAI计划尽快发布Garlic的一个版本 可能最早于2025年初以GPT-5.2或GPT-5.5的名义发布[2] 行业竞争与公司战略 - 谷歌的新AI模型Gemini 3近期大获成功[2] - OpenAI首席执行官萨姆·阿尔特曼已宣布启动“红色代码”行动 以提升ChatGPT的质量[2] - 阿尔特曼向同事表示 OpenAI正准备推出一款新的推理模型 在内部评估中“领先于”Gemini 3[3] 技术细节与开发进展 - Garlic与另一个正在开发的新模型“Shallotpeat”不同[3] - Garlic包含了公司在预训练阶段开发Shallotpeat时的错误修复[3] - 在开发Garlic过程中 OpenAI解决了在预训练方面一直存在的一些关键问题 包括改进了其之前“最佳”且“规模大得多”的预训练模型GPT-4.5[4] - 这些改进意味着OpenAI现在可以将以往只有通过开发更大型模型才能获得的知识量 注入到一个更小的模型中[4] - 凭借从Garlic项目中汲取的经验 OpenAI已经着手开发一个更大、更好的模型[5] - Garlic在发布前仍需完成多个步骤 包括后期训练、其他测试以及安全评估[5] 相关ETF产品数据 - 食品饮料ETF(515170) 近五日涨跌-0.34% 市盈率20.61倍 最新份额108.8亿份 增加150.0万份 净申赎86.2万元 估值分位20.74%[7] - 游戏ETF(159869) 近五日涨跌3.10% 市盈率36.59倍 最新份额80.1亿份 增加1.8亿份 净申赎2.5亿元 估值分位53.96%[7] - 科创50ETF(588000) 近五日涨跌1.31% 市盈率148.60倍 最新份额515.3亿份 增加4950.0万份 净申赎6893.1万元 估值分位94.85%[7] - 云计算50ETF(516630) 近五日涨跌3.15% 市盈率94.84倍 最新份额2.8亿份 增加0.0份 净申赎0.0元 估值分位81.01%[7][8]
当大型语言模型计算“2+2”时
36氪· 2025-11-28 15:12
大型语言模型的认知机制 - 大型语言模型并非通过数学运算得出结果,而是通过将“2”、“+”、“2”等标记转化为向量,在由数十亿示例训练形成的意义几何中相互作用,最终通过语言模式对齐得出“4” [2] - 模型内部没有意识或理解,其过程是加权向量的动态演化,每一步都将后续结果推向统计学上的协调,其可靠性源于对大量范例的重复训练而非逻辑推理 [2][4] 意义生成的模式 - 模型在由词语构成的“星网”中,受概率与语境牵引,寻找最明亮的交汇点即连贯性达到极致之处,这并非数学运算而是统计学的舞蹈编排 [3] - 模型通过寻找匹配的词汇模式来生成流畅的答案,这种流畅表达模仿了思考过程,但缺乏实质的理解,其连贯性是映射而非认知 [6][7] 与人类思维的类比 - 人类思维同样源于模式与邻近性,例如孩童在理解数量概念前,先通过联想和辨识完整性模式来学习“二加二等于四”,大脑是充满生机的连接几何体,意义源于关系而非规则 [4] - 当大型语言模型输出答案时,它是在未知的意义景观中寻找最连贯的支点,这与人类说话和推理时所处的无形几何空间非常相似,模型本身不思考,却可能揭示了思维运作的奥秘 [8]
大摩:谷歌每对外销售约50万颗TPU,将推升2027年谷歌云营收增加约130亿美元,每股盈利增长约3%
格隆汇· 2025-11-27 10:33
谷歌TPU销售对财务的潜在影响 - 根据敏感度分析,谷歌每对外销售约50万颗TPU,将使2027年谷歌云营收增加约130亿美元,意味着约11%的增长幅度 [1] - 每对外销售约50万颗TPU,将使2027年谷歌每股盈利增加约0.37美元,约3%的增长幅度 [1] 谷歌TPU的市场定位与策略 - 在英伟达预期2027年GPU出货量可达约800万颗的情况下,谷歌TPU的对外销售量若落在50万至100万颗区间,仍属合理范围 [3] - 谷歌推动TPU对外销售的整体策略存在不确定性,关键关注点包括其商业模式、定价策略以及TPU可承载的工作负载类型 [3] 谷歌AI芯片资本配置与行业格局 - 今年以来,谷歌在大型语言模型相关运算上,对英伟达的采购金额约200亿美元,而对TPU的支出则仅约十余亿美元 [3] - 这一资本配置结构明年可能略有调整,但整体AI芯片需求成长不太可能出现“赢家通吃”的情况 [3] 谷歌云业务与股价前景 - 若谷歌云端业务增长持续加速,且公司在半导体市场的布局顺利扩大,将有助于支撑其股价维持较高评价水准 [1]
大摩:谷歌每对外销售约50万颗TPU,将推升2027年每股盈利约3%
格隆汇· 2025-11-27 10:15
谷歌TPU对外销售的财务与战略影响 - 核心观点:摩根士丹利分析师认为,谷歌对外销售TPU将显著提升其云业务营收与每股盈利,并可能支撑其股价估值,但该策略的商业模式与市场前景仍存在不确定性 [1] - 根据敏感度分析,谷歌每对外销售约50万颗TPU,预计将使2027年谷歌云营收增加约130亿美元,意味着约11%的增长幅度 [1] - 同样条件下,预计将使2027年每股盈利增加约0.37美元,约3%的增长幅度 [1] - 若谷歌云端业务增长持续加速,且公司在半导体市场的布局顺利扩大,将有助于支撑其股价维持较高评价水准 [1] TPU销售的市场规模与行业对比 - 以产业规模对比,英伟达预期2027年GPU出货量可达约800万颗 [1] - 在此背景下,分析师认为谷歌TPU的对外销售量若落在50万至100万颗区间,仍属合理范围 [1] 谷歌AI芯片的资本配置与竞争格局 - 今年以来,谷歌在大型语言模型相关运算上,对英伟达的采购金额约200亿美元,而对TPU的支出则仅约十余亿美元 [1] - 这一资本配置结构明年可能略有调整,但整体AI芯片需求成长不太可能出现“赢家通吃”的情况 [1] TPU对外销售策略的不确定性 - 分析师提醒,谷歌推动TPU对外销售的整体策略仍存在不确定性 [1] - 投资人关注的重点包括其商业模式、定价策略,以及TPU可承载的工作负载类型 [1]
喝点VC|a16z对话AI领袖:AI的“蛮力”之路能走多远?从根本上具备人性,才能真正理解人们想要什么
Z Potentials· 2025-11-22 11:21
AI发展现状与AGI路径之争 - 当前AI发展速度空前,过去一年在推理模型、代码生成和视频生成等领域取得突破性进展,不理解市场悲观情绪从何而来[7] - 制约模型发展的关键因素并非智能水平本身,而在于提供正确的上下文以有效运用其智能,以及计算机使用等尚不完善的方面,这些问题预计在一两年内几乎肯定能解决[8] - 对AGI的定义倾向于将其锚定为能力超越典型远程工作者的水平,无需在每项任务上都超越世界顶尖专家,达到此水平后世界将完全不同[9] - 现有大型语言模型架构仍有很大发展空间,无需全新架构即可持续进步,预训练和推理模型的进展仍然相当快速[10] - 大型语言模型存在明确局限性,需要大量人工标注、合约工作和人为构造的强化学习环境来提升性能,当前范式更像是"蛮力"模式而非真正破解智能本质[13][14][17] - 对AGI的传统定义是能够进入任何环境并高效学习的机器,像人类一样即时学习新技能,而当前AI仍需大量数据、计算和人类专业知识[15] 经济变革与未来社会图景 - 当AI能以相当于一小时一美元成本的能源完成任何远程工作者的工作时,GDP增长将远不止4%到5%,但可能因成本或能力瓶颈而无法完全达到该水平[21] - AI可能自动化入门级工作但无法替代专家,导致中间层职业发展受阻,例如计算机科学毕业生就业机会减少,公司减少投入培养新人[22] - 存在专家数据训练依赖的悖论:AI替代专家工作者后,长期可能缺乏人类专家提供训练数据,影响AI自我改进能力[23] - 短期内会爆炸式增长的职业类别是那些能够真正利用AI的工作,特别是擅长使用AI完成单靠AI本身无法完成任务的人[24] - 未来可能出现大量人口失业或在经济上不再做出贡献,但创业者数量将大幅增加,因为他们可以利用AI智能体快速创建公司[27] - 政治结构可能因经济生产力核心变化而改变,民族国家可能衰落,进入各国竞争人才和富人的时代[27] 技术格局演变与创业生态展望 - 独立创业者数量将大幅增长,个人首次能够将想法变为现实,探索大量未被实践的想法,这并非零和游戏,对每个人都是机会[5][6][28][29][30] - 当前技术格局处于良好平衡状态:超大规模公司之间有足够竞争使应用层公司有选择,价格快速下降,同时基础模型公司也能筹集资金进行长期投资[32] - AI技术趋势既是持续性又是颠覆性的,既为现有企业提供超级动力,也催生可能对抗现有企业的新商业模式,与Web 2.0时代相比网络效应作用减弱[34][36] - 订阅模式和Stripe等支付工具使新进入者更容易立即收费,不同于早期公司依赖规模才能建立广告业务[37] - 地缘政治因素影响技术发展,投资欧洲等地区的基础模型公司可能是个好主意,因为世界并非完全全球化[37] - 用户成熟度提高,普通消费者会使用多个AI产品,并根据不同场景选择不同模型,如付费使用ChatGPT但认为Claude更擅长分析类任务[39] 公司战略与产品发展 - Poe被视为额外机会而非对Quora的颠覆,定位为让人们私下与AI聊天的平台,押注于模型公司的多样性发展[38] - Quora专注于人类知识分享,这些知识对人类和AI训练都有帮助,同时通过AI应用在内容审核、答案排序等方面改进产品体验[42] - Replit创新"智能体"模式,不仅提供代码补全,还包括基础设施配置、部署、调试等完整软件开发生命周期,智能体自主性从V1的2分钟提升到V3的近乎无限期运行[44][45] - 未来发展方向包括多智能体协作、多模态交互(如白板绘制)、跨项目记忆等,目标是让单个开发者能管理多个智能体处理产品不同部分[46][48] - AI编程工具将软件创造能力开放给大众,让每个人都能创造出原本需要百名专业软件工程师团队才能完成的东西[49] 未来挑战与终极思考 - AI可能导致公司内部人际交流减少,新员工入职体验变差,需要认真对待因过度依赖AI而减少知识分享的文化力量[49] - 计算机科学基础知识和算法数据结构理解在未来管理智能体时仍有价值,建议学生学习喜欢的领域而非单纯追求热门[50] - 当前技术探索不足,过于受金钱驱动,需要更多修补和实验性探索,如将基础预训练模型、推理模型等组件以新方式组合[51][52] - 意识本质等核心科学问题尚未被充分探索,大型语言模型的发展分散了基础研究注意力,需要更多人才投入智能真正本质的研究[19][53]
推出全新AMD Instinct MI350系列GPU优化服务器解决方案 超微电脑(SMCI.US)小幅上涨
智通财经· 2025-11-21 00:20
公司动态 - 超微电脑股价周四盘初小幅上涨,截至发稿涨超1[1] - 公司宣布推出最新的AMD Instinct MI350系列GPU优化服务器解决方案[1] - 全新系统专为需要AMD Instinct MI355X GPU高端算力但部署在空气冷却环境中的企业设计[1] 产品性能 - 相比上一代产品,新款服务器可实现最高4倍的AI训练算力提升[1] - 新款服务器推理性能提升高达35倍[1] - 产品显著增强企业在大型语言模型、生成式AI、科学计算等领域的部署能力[1]