Workflow
Open Ecosystem
icon
搜索文档
Workday Expands Its Open Ecosystem with New Global Developer Network and Google BigQuery Partnership
Prnewswire· 2025-11-19 15:30
全球开发者网络发布 - 推出全新全球开发者网络,开放Workday AI工具和培训资源,帮助全球用户学习、构建和认证新技能 [1] - 通过Workday Build平台为更广泛的学习者群体提供开发、认证和应用Workday技能的机会 [2] - 与金奈理工学院、KL大学等全球高校以及Consultnet、Helios Consulting、Randstad Digital等人力资源伙伴合作,提供专项培训路径和认证 [3] 开发者认证与人才对接 - 完成培训计划的开发者将获得Workday Pro Developer认证,并可被展示在Workday人才目录中,直接与寻求AI人才的客户和伙伴对接 [4] - 认证开发者人才库有助于客户快速、自信地找到既懂技术又能解决实际业务挑战的专业人才 [5] 数据云生态合作拓展 - Google BigQuery成为Workday Data Cloud的新合作伙伴,为客户提供安全、零复制的HR和财务数据访问权限 [1][5] - 客户可在Google Cloud内直接、零复制地访问其Workday HR和财务数据,便于构建预测模型(如现金流预测)而无需复杂集成 [6] - Google Cloud加入后,与Databricks、Salesforce、Snowflake等生态伙伴共同为客户提供更多安全整合Workday数据的方式 [7] 战略收购以强化开放生态 - 计划收购领先的AI智能体集成平台Pipedream,该平台拥有超过3000个预构建连接器 [9] - 结合近期对Sana和Flowise的收购,将为客户提供端到端AI智能体平台,使其能够跨整个企业主动执行工作 [10] - Pipedream的活跃构建者社区与Flowise开源社区结合,将加速新连接器的创建并扩大对开放开发的支持 [11] 产品与服务可用性 - 全球开发者网络将于2026年初上线,首批合作高校和人力资源伙伴将参与 [12] - Workday Data Cloud将于2026年上半年面向早期采用者客户提供,并在同年晚些时候全面上市 [12] 公司业务规模 - Workday统一HR与财务于一个智能平台,被全球超过11,000家组织使用,覆盖中型企业至超过65%的财富500强公司 [13]
Broadcom Advances Open Ecosystem for VMware Cloud Foundation
Globenewswire· 2025-11-12 16:01
文章核心观点 - 博通公司宣布推进VMware Cloud Foundation开放可扩展生态系统,旨在为客户构建开放、适应性强的现代化私有云平台,使其能够灵活利用首选的数据中心、边缘硬件基础设施、开放网络架构和开源技术 [1] 开放硬件生态系统 - 通过新的VCF AI就绪节点、ODM自助认证以及对新边缘系统的支持,扩大开放硬件认证计划,增加OEM和ODM合作伙伴的参与度 [2] - 推出新的VCF AI就绪节点,采用预认证服务器,用于AI模型训练和推理,超微公司将成为首批认证AI就绪节点系统的OEM合作伙伴之一 [3][4] - 扩大VCF ReadyNode认证计划,允许ODM合作伙伴通过博通技术联盟计划自助认证ReadyNode,所有认证系统将确保与VMware Cloud Foundation的完全互操作性 [4] - 将支持新的边缘优化节点,用于工业、国防、零售等场景的坚固紧凑型服务器,以支持在数据生成点附近部署现代化私有云基础设施 [4] 合作伙伴协作与认证 - 超微公司成为首批将其行业领先的GPU系统认证为VCF AI就绪节点的硬件OEM之一,为客户提供从以往认证系统到最新GPU解决方案的清晰迁移路径 [3] - OVHcloud表示博通的开放认证计划支持其垂直整合战略,使其能够自助认证服务器系统,从而加速基于VMware技术的创新安全云解决方案的上市时间 [3] - 博通扩展ReadyNode认证计划将加速VMware Cloud Foundation 9在英特尔至强6平台上的部署,该组合提供更高的硬件整合度与成本优化,通过认证配置直接推动AI应用 [3] - SNUC表示其极端边缘服务器与VMware Cloud Foundation的结合,将通过自助认证加速边缘创新,帮助工业制造、医疗保健、零售和联邦政府等领域的客户最大化AI价值 [5] 开放网络战略 - 宣布新战略,通过基于标准的EVPN和BGP网络统一网络结构并简化现代化私有云中的网络运营,增强应用环境与网络之间的互操作性 [6] - 该方法使VCF与思科的Nexus One结构解决方案保持一致,为共同的客户在数据中心结构架构设计选择上带来更一致可靠的结果 [7] - VCF Networking支持SONiC,这是一个基于Linux的开源网络操作系统,可在多厂商商用交换机硬件上运行以降低成本,其模块化容器化架构可加速创新和敏捷性 [8] - 与思科的合作体现了对开放标准的共同承诺,为客户在连接、保护及扩展AI和传统关键业务工作负载时提供架构灵活性和选择 [8] 开源社区贡献 - 公司作为CNCF长期前五大贡献者积极参与Kubernetes社区,对Antrea、Cluster API、ContainerD等多个项目有贡献 [9] - 宣布VMware vSphere Kubernetes Service现已成为认证的Kubernetes AI一致性平台,这有助于客户在一致、可互操作的基础上自由创新 [9] - Linux基金会指出公司对CNCF的持续投资有助于保持Kubernetes的厂商中立性和大规模生产就绪性,尤其对于较新的AI工作负载至关重要 [10]
Lyft与Waymo合作,背后呈现了行业发展怎样的新趋势?
中国汽车报网· 2025-09-19 17:42
合作概述与市场反应 - Lyft与Waymo宣布于2026年在田纳西州纳什维尔推出全自动驾驶网约车服务,合作以Lyft旗下Flexdrive子公司为核心构建车队管理体系 [2] - 合作消息发布后,Lyft美股盘前涨幅高达24%,而竞争对手Uber盘前跌超3%,市场反应差异显著 [4] - 此次合作是Waymo首次在Lyft平台进行商业部署,标志着其从单一平台绑定转向多生态布局的战略转变 [4] 合作模式与分工 - Flexdrive子公司将全方位负责Waymo自动驾驶车辆的能源补给、日常维护和复杂调度,旨在实现运营效率最大化并降低运营成本 [3] - Waymo凭借长达16年的技术积累,提供L4级全栈解决方案;Lyft则贡献其每月高达2000万的活跃用户、海量出行数据及本地化运营经验 [5] - 双方形成“研发-运营-优化”的良性闭环:Lyft利用用户数据为车辆规划最优路线,Waymo收集的道路数据反馈用于技术迭代 [6] 效率提升与成本优化 - 通过Lyft的集约化管理,Waymo车辆的日均运营时间有望从12小时大幅提升至18小时,单车日均服务订单量预计增加40% [6] - 运营效率提升带动单位里程成本下降,降幅有望达到35%,为大规模推广奠定基础 [7] - 按照规划,Waymo目标在10余个城市复制该模式,预计到2028年其在美国运营的车队规模将突破万辆 [7] 行业趋势与竞争格局重塑 - 合作开创了“技术+运营”的专业化分工模式,打破了传统“技术自研+平台自建”的重资产内卷模式 [8][9] - 据麦肯锡测算,通过此类合作,自动驾驶商业化时间有望提前2-3年,行业整体研发成本可降低40% [10] - “技术+运营+硬件”的跨界联盟或成主流趋势,形成三维合作模型,共同加速自动驾驶技术的商业化落地进程 [10]
寒武纪翻身海光扩张 国产AI芯片大角逐
21世纪经济报道· 2025-09-04 22:13
核心观点 - 国产AI芯片厂商在2025年上半年业绩表现强劲 收入与利润高速增长 主要受AI推理需求驱动 同时积极储备存货和原材料以应对未来市场发展和供应链不确定性 [2][3][5] - 国内厂商在技术路线和市场竞争中采取差异化策略 包括GPU和ASIC等不同路径 并通过开放生态和产业链协同提升竞争力 但相比国际巨头如英伟达 市场份额仍有较大提升空间 [7][8][9] - 行业生态建设加速 厂商加大市场推广和研发投入 推动硬件-软件-生态协同发展 并与下游应用领域紧密合作 以扩大商业化应用规模 [11][12] 财务表现 - 海光信息2025年上半年营业收入54.64亿元 同比增长45.21% 归母净利润12.01亿元 同比增长40.78% [3] - 寒武纪上半年营业收入28.81亿元 同比增长4347.82% 归母净利润10.38亿元 上年同期亏损5.3亿元 同比增长295.85% [3] - 龙芯中科上半年营业收入2.44亿元 同比增长10.9% 归母净利润亏损2.94亿元 上年同期亏损2.38亿元 毛利率42.44% 同比提高12.77个百分点 [3][4] 存货与合同负债 - 寒武纪上半年存货26.9亿元 占总资产31.95% 较上年期末增加51.64% 合同负债5.43亿元 占总资产6.45% 较上年期末增加61223.22% [5] - 海光信息合同负债30.91亿元 同比增长242.1% 占总资产9.57% 存货60.13亿元 较去年末增加10.84% 占总资产18.62% [5] - 沐曦股份原材料中HBM和晶圆占比最高 截至3月末HBM占比63.73% 金额1.23亿元 [5] 技术路线与市场竞争 - 国内GPU赛道主要玩家包括海光信息 沐曦股份 天数智芯 壁仞科技和摩尔线程 ASIC赛道参与者包括华为海思 寒武纪 昆仑芯和平头哥 [7] - 2024年中国AI加速芯片市场中 英伟达份额66% AMD份额5% 华为海思份额约23% 沐曦股份份额约1% [8] - 国内厂商产品已应用于运营商 金融 互联网 教育 交通 能源 医疗健康等多个行业 [8][10] 产品进展与生态建设 - 龙芯中科发布3C6000系列产品 综合性能达2023年市场主流水平 并探索存储服务器 网络安全设备 云终端等专用市场 [8][9] - 沐曦股份曦云C600系列预计2025年底风险量产 已与互联网大厂 AI模型厂商 国家算力平台及多个行业客户接洽 并支持FP8数据格式 [10] - 海光信息上半年销售费用2.034亿元 同比增长185.83% 其中市场推广费1.106亿元 同比增长330.35% 主要用于生态建设和市场拓展 [12] 供应链与采购挑战 - 沐曦股份核心原材料晶圆和HBM采购周期约6个月 受国际供应政策和供应商产能分配影响 具有不确定性 [6] - 目前国内互联网企业采购GPU仍以国际产品为主 国产GPU占比低且多集中于推理场景 训练场景导入较慢 [9] - 国产GPU生态适配 迭代和培育是一项长期系统性工程 但沐曦股份已实现千卡集群大规模商业化应用 并推动万卡集群落地 [9]
Advanced Micro Devices (AMD) Update / Briefing Transcript
2025-06-13 01:30
纪要涉及的行业或者公司 行业:人工智能、半导体、云计算、金融、医疗、媒体、制造等 公司:AMD、Microsoft、Facebook、Zoom、Netflix、Uber、Salesforce、SAP、three ten AI、OpenAI、Google、Meta、DeepSeek、xAI、Tesla、Coher、Luma、Essential、Oracle、Humane、Allianz、Nokia、Philips、Unilever、Aleph Alpha、Mistral、NxAI、Red Hat、Astera Labs、Marvell 纪要提到的核心观点和论据 行业趋势 - **AI 发展进入新阶段**:自 ChatGPT 推出后,AI 创新加速,2025 年推理需求显著增长,模型数量爆发,预计未来将有数十万甚至数百万个专用模型 [4][5] - **Agentic AI 带来新需求**:Agentic AI 活动增加,相当于为全球计算基础设施增加数十亿新虚拟用户,需要大量 GPU 和 CPU 协同工作 [7] - **数据中心 AI 加速器市场增长**:预计 2028 年数据中心 AI 加速器 TAM 将超过 5000 亿美元,推理将成为 AI 计算的最大驱动力,预计未来几年推理年增长率超 80% [8][9][10] - **AI 应用场景拓展**:AI 从数据中心扩展到边缘智能系统和 PC 体验,预计将部署在每个设备中 [10] AMD 战略 - **提供广泛计算引擎组合**:提供包括 CPU、GPU、DPU、NIC、FPGA 和自适应 SoC 在内的完整计算元素套件,满足不同 AI 应用场景的计算需求 [12][13] - **投资开放开发者生态系统**:AMD 是唯一致力于硬件、软件和解决方案开放的公司,支持所有主要框架、库和模型,推动行业采用开放标准 [14][15] - **交付全栈解决方案**:通过建立合作伙伴关系,将各种元素整合在一起,提供全栈 AI 解决方案 [12] 产品与技术 - **MI 300 系列**:不到两年推出 MI 300,每年推出新的 Instinct 加速器,MI 350 系列实现了 Instinct 历史上最大的代际性能飞跃,在最苛刻的模型上表现出色 [42] - **MI 350 性能优势**:MI 355 采用最新 Instinct 架构,支持新数据格式,使用 HBM3E 内存,拥有 1850 亿个晶体管,在 AI 计算上实现 4 倍代际性能提升,可运行高达 520 亿参数的模型 [44][45][46] - **MI 350 与竞品对比**:在 DeepSeek r1 或 Lama 3.1 上,MI 355 使用开源框架的吞吐量比 B200 高 30%,与更昂贵复杂的 GB200 性能相当,每美元可生成的令牌数比竞品多 40% [49][50] - **ROCCM 软件栈**:ROCCM 软件栈不断进步,ROCCM 7 带来新功能,支持 MI 350 系列 GPU,在推理性能上比 ROCCM 6 提高 3.5 倍以上 [132][137][139] - **分布式推理**:通过将预填充和解码阶段分离到专门的 GPU 池,可以显著提高吞吐量、降低成本并增强响应能力,AMD 正在开发基于开放方法的分布式推理解决方案 [172][173][174] - **Rockham Enterprise AI**:为企业提供易于部署的 AI 解决方案,包括新的集群管理软件和 MLOps 平台,支持企业数据集成和工作流优化 [175] - **AMD Developer Cloud**:提供即时访问 AMD GPU 的云服务,无需设置,包含丰富的框架和 Jupyter 笔记本,为开发者提供良好的开发体验 [192][198][199] - **Helios AI Rack**:2026 年推出的 Helios AI Rack 是一个完全集成的 AI 机架平台,专为大规模训练和分布式推理而设计,具有领先的内存容量、带宽和互连速度 [250][251][252] 合作伙伴与客户 - **xAI**:xAI 使用 AMD GPU 开发 Grok 系列模型,认为使用 AMD GPU 轻松高效,双方紧密合作,快速将产品推向市场 [26][29][30] - **Meta**:Meta 是 AMD 的早期合作伙伴,广泛部署 MI 300x 用于 LAMA 3 和 LAMA 4 推理,对 MI 350x 的性能和功能表示期待,双方在软件和硬件方面进行了多年合作 [56][57][62] - **Oracle**:Oracle 与 AMD 合作多年,使用 AMD EPYC 用于数据库,在交易吞吐量和分析查询方面取得显著性能提升,计划在 OCI 上大规模部署 AMD Instinct 平台,预计未来一年增长 10 倍 [91][92][93] - **Microsoft**:Microsoft 是 AMD 的长期合作伙伴,将 Instinct 集成到推理平台,使用 Instinct 芯片在多种模型上实现高性能,与 AMD 在开放模型和训练方面的合作不断拓展 [143][145][153] - **Cohere**:Cohere 专注于为企业构建安全和私密的 AI,将最新模型 Command a 移植到 AMD 平台,计划在 AMD GPU 上进行大规模训练,认为 AMD 的内存系统有助于降低成本 [161][165][166] - **Red Hat**:Red Hat 与 AMD 在多个领域合作,包括虚拟化、AI 推理和分布式推理,共同推动 VLLM、LLMD 等开放框架的发展,通过 OpenShift AI 简化企业 AI 部署 [178][180][185] 其他重要但是可能被忽略的内容 - **主权计算**:AMD 在全球与各国政府和研究机构合作,帮助构建高性能计算和 AI 基础设施,推动主权 AI 发展,目前有超过 40 个活跃项目 [106][107] - **Ultra Accelerator Link Consortium**:AMD 捐赠 Infinity Fabric 关键 IP 给 UALink 联盟,该协议可扩展到 1000 个连贯 GPU 节点,支持 AI 系统的训练和分布式推理,Astera Labs 和 Marvell 等公司参与其中 [223][224][233] - **Ultra Ethernet Consortium**:AMD 是 UEC 的创始成员,UEC 标准可实现共享内存架构扩展到超过 100 万个 GPU,AMD 的 Pensando Polara AI NIC 支持 UEC 标准,可降低网络成本并提高系统可靠性 [243][244][245]