Training

搜索文档
重温《英伟达GTC 2025》:挖掘AI算力需求预期差?
2025-07-07 08:51
纪要涉及的行业和公司 - **行业**:美股算力领域、AI 产业、数据中心市场 - **公司**:英伟达、微软、谷歌、亚马逊、Oracle、Marvell、戴尔、台积电 纪要提到的核心观点和论据 1. **算力需求现状与变化** - 全球 AI 算力跟踪方式与以往不同,过去依赖产业链数据,如今需关注大模型和应用,美股算力领域上涨由推理和训练需求共振驱动 [2] - AI 计算需求和扩展速度超加速增长,因推理模型出现,计算量比一年前预期至少高出 100 倍 [2][16] 2. **GTC 大会影响** - 今年参会人数较去年增长 50%,AI 产业人士增加,对 AI 产业重要性提升,重温可挖掘信息差和预期差,是海外算力链上涨核心原因 [3] - 提出 agentic AI 概念,与传统 LLM 不同,强调任务分布执行和规划 [6] 3. **算力需求相关因素** - 算力需求空间与 TOKEN 量密切相关,海外算力公司涨幅不能仅用传统业绩解释,需分析 TOKEN 量对计算需求的影响 [1][4] - 未来海外算力链发展需关注大模型和应用、全球市场变化、GTC 大会信息差、TOKEN 量与计算需求关系 [5] 4. **AI 范式区别** - agentic AI 与 generative AI 是不同范式,前者侧重协作和目标驱动,后者是生成式 AI [7] - agent 是独立执行任务个体,agentic AI 是协作性目标驱动系统 [11] 5. **Skin law 曲线** - 现在有三条 skin law 曲线,分别对应预训练、后训练和测试时间,三个阶段都存在算力需求通胀 [1][8] 6. **后训练与测试时间** - 后训练通过强化学习等优化模型,不涉及卷模型参数;测试时间指推理市场,是结果导向型 [9] 7. **协作型 AI** - 涉及多步骤、多代理等协作过程,信息沟通依赖 TOKEN,全球 TOKEN 量爆发提升了算力需求 [2][12] 8. **数据问题解决** - 强化学习产生的 COT TOKEN 数据和合成数据可用于模型训练,不必担心数据不足 [13] 9. **互联网大厂策略** - 免费开放 AI 应用是为保持竞争力和获取 TOKEN 数据用于训练下一代模型 [14] 10. **推理模型** - reasoning model 与传统大语言模型不同,需详细列出思考过程,增加了算力和 TOKEN 需求,比 one shot 方式至少高出 100 倍 [18][19] 11. **后训练应用** - 后训练在强化学习中用大量 tokens 验证和调整模型,计算需求高,推理环节 token 消耗量远超 chatbot [20] 12. **Token 相关关系** - Agentic AI 与 token 消耗是指数关系,token 与计算量关系复杂,总算力需求等于 Token 数量乘以单 Token 算力成本 [21][22][23] - TOKEN 量增加与计算需求不是 1:1 关系,可能是 1:n,n 可能为 10 甚至更高 [25][26] 13. **海外 AI 应用** - 海外 AI 应用中 TOKEN 量爆发因 Deepseek 降低成本,推动应用快速增长 [27] 14. **单任务执行问题** - 可通过增加算力降低单任务执行等待时间,涉及延迟和吞吐量权衡 [28] 15. **不同 AI 模型差异** - Chatbot 与 Deep Research Agent、通用模型与测试模型在 TOKEN 消耗上存在显著差异 [30] 16. **云服务提供商需求** - 四大云服务提供商对 GPU 需求巨大,2024 年买 130 万张 Hopper 架构 GPU,2025 年已买 360 万张 Blackwell 芯片 GPU [31] 17. **数据中心市场** - 预计到 2028 年数据中心市场规模达 1 万亿美金以上,2025 年是需求增长拐点 [32] 18. **英伟达战略** - 加强与戴尔合作,向政企领域拓展,利用戴尔客户网络 [33] 19. **算力需求驱动因素** - 底层计算架构从 CPU 转换为 GPU,软件未来需资本投入,通过自身生成 TOKEN 交互协作,推动算力需求 [34] 20. **软件运行模式转变** - “软件加算力”替代“软件加能力”,软件运行将自动化,企业依赖计算资源而非人力 [37] 21. **算力需求阶段** - 当前处于算力需求拐点向上阶段,因计算架构转换和 AI 技术发展,算力需求爆发式增长 [38] 22. **推理图表数据** - 单个用户每秒钟处理 TOKEN 量与智能 AI 反应速度有关,吞吐量越大、系统响应越快,影响用户体验 [39] 23. **Token 资源分配** - AI 应用中 Token 是资源,用户单位时间获 Token 数量影响应用运行速度,吞吐量决定系统任务执行和用户数 [41] 24. **AI 工厂优化** - 可通过增加 HBM 存储容量、提高存储带宽、优化算法和架构优化 AI 工厂吞吐量,提升系统性能 [42] 25. **公司股价上涨** - 英伟达和台积电等公司股价创新高因 AI 算力需求大幅增长,公司创新技术满足需求 [43][44] 26. **资本市场逻辑** - 资本市场对 AI 算力需求变化基于新需求驱动,深入研究原因可准确预测未来发展方向 [45] 其他重要但可能被忽略的内容 - 微软 2025 年一季度总吞吐量达 100 万亿个 tokens,谷歌 4、5 月吞吐量为 480 万亿个 tokens,后训练一次至少需 100 万亿个 tokens [20] - 从 2025 年 2 月底出现拐点,Deepseek 于 2024 年 1 月底发布,推动海外 AI 应用发展 [27] - 英伟达股价从 2024 年 6 月到 2025 年 6 月横盘一年,2025 年 6 月底突破新高 [44]
喝点VC|红杉美国对谈OpenAI前研究主管:预训练已经进入边际效益递减阶段,其真正杠杆在于架构的改进
Z Potentials· 2025-07-04 11:56
AI技术发展现状与趋势 - 预训练、后训练和推理构成AI发展的"三位一体"框架 预训练已进入边际效益递减阶段 真正杠杆在于架构改进 后训练聚焦模型个性与智能表现 推理能力训练则引导AI自主摸索链式思维[4][8] - 2025年成为"推理之年" 各大实验室重点转向推理优化 但后续进展将越来越困难[5][7] - 预训练收益递减源于基本规律 模型智能水平与计算资源呈对数线性增长 提升智能需指数级增加计算资源[7][8] Agent商业模式与竞争格局 - Agent价格将趋近计算使用成本 普适性和性价比将颠覆传统人力密集型领域[6][18] - 简单重复性任务由AI完成 复杂需人类理解的服务保持价值稀缺性[19][26] - 创业公司机会在于构建网络效应和规模经济 而非依赖高价Agent[21][26] 机器人技术突破与商业化 - LLMs为机器人提供低成本语言接口 结合强大视觉编码器 赋予处理通用任务的先发优势[24][25] - 机器人领域正处于研究最后阶段 距离商业化仅数月到数年时间[22][25] - 技术突破使机器人能快速解决多样化任务 如叠衣服、搬运纸箱等[25] 编程领域变革与未来趋势 - 编程发展呈现非线性加速 未来将形成混合模式:人类主导设计+Agent自动编码[32][34] - Agentic工程师处理明确结果的任务如bug修复、代码重构 人类负责需"品味"的设计工作[34][35] - 关键挑战在于如何让Agent理解代码库 目前仍需人类进行高层次设计[33][35] 专有数据价值重估 - 专有数据价值被高估 "无限智能、无限耐心"的Agent可从公开数据重构替代信息[29][30] - 真正有价值的专有数据是具体客户的深度个性化信息 可辅助专业决策而非训练技能[31] - 垂直领域专属模型表现普遍不如下一代通用模型 因综合能力远超单纯记忆[29] 企业管理与文化构建 - 技术团队应消除研究员与工程师界限 建立平等环境促进全栈理解[37][38] - 管理者核心是真诚关心团队成员 建立忠诚度才能推动困难决策[50][51] - 高绩效人才管理需平衡个人创作欲望与团队协作目标[52] AI教育应用与人才培养 - AI最佳应用是帮助用户成为领域专家 同时减轻重复性工作负担[42][43] - 教育应聚焦学习过程和自主能动性培养 而非特定技能[43][44] - 即时响应式学习能抓住最佳学习时机 大幅提升教育效果[46] 安全防御新范式 - AI使攻击能力提升 防御措施需更加自主化和智能化[53] - 企业需重构业务流程以适应自主安全系统 这为创业公司创造机会[53]
BERNSTEIN:甲骨文-300 亿美元订单争议事件
2025-07-04 11:04
纪要涉及的公司 - 甲骨文公司(Oracle Corp) - 微软公司(Microsoft Corp) 纪要提到的核心观点和论据 甲骨文公司 - **核心观点**:甲骨文签署的多年期、不可取消的大型云合同将推动其在2028财年之后实现持续增长,公司前景乐观,投资价值高 [1][4] - **论据** - 合同预计从2028财年开始每年贡献超过300亿美元的收入,可能是备受期待的Stargate合同,也可能是主权政府或政府机构合同,这将使甲骨文更接近其三大超大规模云竞争对手 [1][3] - 多云计算数据库同比增长超过100%,不仅能带来收入增长,还能帮助抵消OCI和AI训练数据中心较低的利润率 [2][21] - 预计RPO将大幅增加,因为300亿美元以上的合同是多年期且几乎肯定不可取消,且不在RPO中,本季度签署的其他大型云合同也不在RPO中,部分可能会为2026财年的收入做出贡献 [21] - 甲骨文不建造数据中心,而是租赁,资本支出可能低于预期,若合同是主权云合同或Stargate合同,甲骨文可能不参与数据中心的租赁、租赁(或建设),成本仅为硬件,CAPEX将大幅降低,利润率可能更好 [46][47][48] 微软公司 - **核心观点**:文档提及微软与OpenAI的关系以及对微软股价的估值和风险分析,但未明确核心观点 [31][58] - **论据** - 预计OpenAI在2028年向微软支付的推理费用约为其收入的25%,但即使OpenAI的所有业务都转移到甲骨文,也难以达到甲骨文合同的300亿美元以上的年收入 [31][32] - 对微软股票的估值基于对1年后12个月远期NOPLAT每股的估计,并应用P/FE倍数,再加上每股净现金,得出目标股价为540美元 [58] - 目标股价的风险包括Azure PaaS/IaaS需求下降、云网络安全担忧增加、微软SaaS产品销售低于预期等 [60] 其他重要但是可能被忽略的内容 - **合同细节**:不确定合同是否会在2028财年之前贡献收入,若为Stargate合同,2026财年可能会有一些收入,但不确定是否有意义 [14][15] - **模型训练成本**:创建模型的成本可能会随着每一代增加2 - 3倍,但Anthropic首席执行官认为可能会增加10倍,达到10亿美元,不过这些数字难以令人置信 [19][22] - **资金来源**:甲骨文需要为硬件“预付”现金,公司正在考虑包括债务和可能出售公司股票在内的多种选择 [49] - **估值方法**:对甲骨文股票的估值基于对1年后12个月调整后每股收益的估计,并应用调整后的P/FE倍数,再加上每股净现金,得出目标股价为225美元 [57] - **风险因素**:甲骨文目标股价的风险包括数据库销售因云数据库和替代数据库的压力增加而下降、SaaS ERP的采用速度慢于预期等 [59] - **评级定义**:伯恩斯坦品牌根据未来12个月的相对表现预测对股票进行评级,分为跑赢大盘、市场表现一致、跑输大盘;Autonomous品牌根据相关指数的表现进行评级,分为跑赢、中性、跑输 [61][65] - **利益冲突**:伯恩斯坦及其附属公司在某些证券上存在利益冲突,如持有微软公司的股票头寸、从微软公司获得非投资银行证券相关产品或服务的补偿等 [76][77][78]
OpenAI 研究员 Noam Brown:Mid-training 是新的 pre-training
海外独角兽· 2025-07-02 19:03
两个 编译:haozhen 编辑:siqi 海外独角兽原创编译 转载请注明 去年以来,随着 OpenAI 在 o1 模型中提出 RL 叙事 ,以及 DeepSeek 发布的 R1 模型 解开了 RL 谜 题,AI 行业进入了新范式,智能的下半场也真正开启。 如果说过去 LLM 主要依赖于模式匹配与数据记忆,如今,推理能力的兴起让模型能力从表层关联跃 升到复杂认知。推理不仅仅是参数数量或训练数据的增加,而是能充分利用算力进行深度探索。因 此,推理能力既是涌现智能的重要催化剂,也是未来模型在科学发现、复杂决策与 multi-agent 协作 中的关键。 本篇内容是 OpenAI 研究员 Noam Brown 的最新播客。Noam 是全球最顶尖的推理研究员之一,他最 知名的两个项目分别是在德扑中击败顶尖人类玩家的 AI 系统 Libratus 和 Pluribus,2022 年他又开发 了首个在复杂多人策略游戏 Diplomacy 中达到人类水平的 AI,名为 Cicero。 这次播客中,他详细分享了自己在 scaling test time compute 上的前沿观点: • 推理(reasoning)是模型涌现 ...
首创Mid-training范式破解RL奥秘,Llama终于追平Qwen!
机器之心· 2025-06-30 17:49
基础语言模型研究 - 上海创智学院与上海交通大学的研究论文揭示了Llama和Qwen基础语言模型在强化学习(RL)训练中的性能差异,并提出中期训练(mid-training)策略成功将Llama改造成高度适配RL的推理基础模型,显著缩小与Qwen的性能差距[1][7] - 研究团队通过大规模可控实验(每次训练20B tokens)发现数学语料质量、QA数据分布、指令数据注入和中期训练规模是影响RL效果的关键因素[14][16] - 论文提出的OctoThinker模型在数学推理基准测试中相比原始Llama实现10%-20%性能提升,例如1B模型在GSM8K从7.66提升至44.88,MATH500从4.60提升至27.80[31][32] 数据集开发 - 团队构建了MegaMath-Web-Pro-Max高质量数学语料库,规模达MegaMath-Web-Pro的5.5倍,通过Llama-3.1-70B-instruct标注和fasttext分类器筛选,选择0.4召回阈值平衡质量与数量[17][19][21][25] - 该数据集被MIT、EPFL等顶尖高校和Apple、Microsoft等企业广泛采用,显示学术界与工业界的高度重视[3] - 对比实验显示使用MegaMath-Web-Pro的模型RL性能明显优于FineMath-4plus,证实高质量语料对基础模型和RL训练的关键作用[22] 模型训练方法 - OctoThinker采用两阶段训练方案:第一阶段用200B tokens构建强推理基座(OctoThinker-Base-Stable),第二阶段通过20B tokens分支训练形成短链、长链和混合链三大专业化分支[27][29] - 分支训练采用学习率衰减策略(余弦衰减至初始10%),短链分支含30%竞赛短推理QA,长链分支含30%反思型长推理QA,混合分支平衡两者[27][29] - 3B规模的OctoThinker-Long-Zero经RL训练后性能媲美Qwen2.5-3B,证明该方法有效提升Llama的RL兼容性[35] 行业影响 - Meta AI科学家Wenting Zhao等专家高度评价该研究解决了mid-training中的关键谜题,Pleias AI Lab的独立实验验证了方法的普适性[2] - 开源模型和数据集在GitHub和HuggingFace发布,代码仓库和论文获得广泛关注[5] - 未来研究方向包括精炼数学语料库、开发无需蒸馏的RL友好型基础模型、拓展工具集成推理等新分支[38]
从后训练回到预训练,LLM+RL 的潜力兑现有有机会走更远吗?
机器之心· 2025-06-28 13:22
从后训练回到预训练,LLM+RL的潜力分析 - 强化学习(RL)与大型语言模型(LLM)结合的技术路径从后训练阶段延伸至预训练阶段,通过将文本生成重构为序贯决策问题,引入对未来"累积奖励"的评估机制[2] - LLM传统监督学习范式面临高质量标注数据成本高、人类知识存在边界等局限,而RL通过模型与环境交互生成数据,并将监督信号从"生成式"退化为"验证式",降低了对数据质量和标注难度的要求[3] - 微软研究院与清北研究者提出的"Reinforcement Pre-Training(RPT)"技术将RL应用于预训练阶段,在部分推理基准上表现超越传统方法训练的更大模型[4] RL在预训练阶段的技术突破 - RPT方法将下一个词元预测(NTP)任务重塑为可验证的推理任务,利用海量无标注文本数据作为RL训练资源,通过生成思维链(CoT)再预测token的方式规避传统RL方法的局限[5] - 该方法突破了RLHF依赖标注数据、RLVR受限于标准答案等约束,但尚未在更广泛文本和基础模型上验证,且存在计算资源消耗大的问题[5] - 行业早在2022年就开始关注RL预训练课题,南京大学AI学院副院长等专家曾系统分析过RL中少有预训练模型的原因[6] 技术演进趋势与挑战 - LLM+RL路线从后训练向预训练延伸,显示出技术潜力但面临理论缺陷、实现难度和任务适配等多重挑战[4] - 当前RL预训练方法虽能部分解决数据依赖问题,但计算效率、泛化能力等核心瓶颈仍未完全突破[5] - 行业需持续探索如何平衡RL的序贯决策优势与LLM的生成能力,该领域的技术突破可能重塑模型训练范式[2][3][4]
SemiAnalysi:千兆瓦级 AI 训练负荷波动 - 电网负荷风险
2025-06-26 22:09
纪要涉及的行业或者公司 行业:AI、GPU、数据中心、电力行业 公司:特斯拉、Meta、谷歌、OpenAI、英伟达、Vertiv、施耐德、伊顿、Delta Electronics 纪要提到的核心观点和论据 1. AI数据中心对电网的挑战 - **核心观点**:大型AI实验室建设多千兆瓦级数据中心,其AI训练工作负载独特的负载模式给百年老电网带来前所未有的压力,可能导致数百万美国人停电 [3]。 - **论据**:AI训练时,数万个GPU会同时增减功耗,导致数据中心功耗瞬间波动达数十兆瓦,超出电网极限;如Meta的Llama模型训练就面临此问题 [4]。 2. 应对功耗波动的临时措施及成本 - **核心观点**:工程师构建“pytorch_no_powerpant_bowup=1”命令生成虚拟工作负载来平滑功耗,但千兆瓦级下每年能源费用高达数千万美元 [5]。 - **论据**:无具体论据,仅提及该临时措施及高昂成本。 3. 特斯拉的解决方案及市场影响 - **核心观点**:特斯拉的Megapack系统有望成为解决数据中心电源质量问题的标准,但也存在其他替代方案的可能性 [6]。 - **论据**:特斯拉在电池储能系统(BESS)市场领先,积极与公用事业和数据中心运营商合作推广其解决方案。 4. 电力质量和电网设计基础 - **核心观点**:电力质量取决于发电和负载在瞬间的平衡,电压和频率是电力的脆弱属性,供需不匹配会导致其偏离设定点,电网运营商需维持电力质量阈值 [10][13]。 - **论据**:2021年德克萨斯州冬季冻结,极端寒冷使供热需求飙升,天然气厂离线,系统频率下降,ERCOT采取限电措施以平衡供需 [14]。 5. AI负载特性与传统负载对比 - **核心观点**:AI计算系统通常同步,与传统计算模式不同,AI训练负载波动大,需要硬件解决方案 [16][20]。 - **论据**:谷歌云数据显示,云数据中心和AI数据中心负载波动有15倍差异;AI训练负载波动原因包括批处理中的峰值和低谷、检查点/恢复、同步、训练结束等 [16][22]。 6. 推理工作负载的问题 - **核心观点**:推理工作负载也存在负载波动问题,但程度不如训练工作负载,随着扩展集群的使用,推理工作负载问题可能会增加 [24][27]。 - **论据**:谷歌、Meta、TikTok等的大规模推理部署经验表明,GenAI带来新动态,如DeepSeek的推理部署;推理工作负载的Prefi和decode阶段、节点间通信延迟等会导致波动 [24][25]。 7. AI数据中心对电网的影响规模 - **核心观点**:AI数据中心规模巨大,给电网带来巨大压力,可能引发停电风险 [27][28]。 - **论据**:OpenAI的一个关键训练集群规模达1000MW T容量和1000MW铭牌;ERCOT有超过108GW的“大负载”排队连接电网,而美国峰值负载为75GW [27][28]。 8. 电网面临的问题 - **核心观点**:电网面临管理快速功率波动和级联停电风险两个主要问题 [32][38]。 - **论据**: - **管理快速功率波动**:传统发电机响应速度慢,无法应对千兆瓦级AI数据中心瞬间的功率变化;可再生能源缺乏惯性,难以补偿供需不平衡 [32][33][36]。 - **级联停电风险**:数据中心在低电压穿越(LVRT)事件中的反应可能导致大量负载瞬间脱离电网,引发电压和频率波动,进而导致其他发电机或大负载跳闸,形成级联故障 [38][43]。 9. 噩梦场景分析 - **核心观点**:在特定天气和故障场景下,数据中心可能大量断开与电网的连接,导致电网不稳定和级联停电 [46][53][56]。 - **论据**:ERCOT的模拟显示,在不同天气和故障假设下,至少1.5GW的数据中心负载会几乎立即断开与电网的连接,最多可达2.5GW;超过2.2GW的负载断开会使电网频率超出安全范围,超过2.5GW会导致电压问题 [53][56][62]。 10. 解决方案探讨 - **核心观点**:行业积极寻找解决方案,电池储能系统(BESS)是有前景的方案,但也存在成本和实施挑战,同时还有其他硬件解决方案 [66][91]。 - **论据**: - **BESS的优势**:可以在数秒内充放电数百兆瓦,能快速响应数据中心负载波动,改善电力质量和应对LVRT事件,还可用于需求响应 [69][70][77]。 - **BESS的挑战**:成本高昂,安装一个适合GW级数据中心的BESS接近十亿美元;实施需求响应面临客户和公用事业方面的挑战,如客户不愿削减负载、公用事业技术落后和激励不足等 [90][81][87]。 - **其他解决方案**:包括增强型UPS系统、机架内电容器和电池组合、超级电容器、锂离子电容器等 [95][97][100]。 其他重要但是可能被忽略的内容 - 电力质量中,电压和频率在不同地区有特定频率标准,北美为60Hz,欧洲和亚洲为50Hz;住宅负载通常为单相,工业负载如数据中心通常为三相电源 [11]。 - 低电压穿越(LVRT)是数据中心可能遇到的一种短暂电压下降情况,通常由远处重合器清除故障引起,数据中心需“穿越”低电压而不与电网断开 [39]。 - 特斯拉的Megapack系统成本方面,100MW的BESS两小时电池成本为8 - 8000万美元,四小时电池成本为7 - 1.57亿美元 [90]。 - 不同数据中心采用不同解决方案的适用场景,如经验丰富的运营商倾向采用增强型UPS系统;专为GPU/XPUs设计的数据中心采用机架内电容器和电池组合 [95]。
花旗:Dell‘Oro Q2 2025 数据中心资本支出报告要点
花旗· 2025-06-23 10:09
Flash | 17 Jun 2025 10:01:01 ET │ 9 pages – 1Q market up > 50% YoY to $134bn, driven by accelerated server spend; servers >50% of DC capex, accelerated > general purpose US Communications Equipment Dell'Oro 1Q25 Data Center Capex Report Highlights CITI'S TAKE We summarize key points from Dell'Oro Group's 1Q data center capex report. – General purpose infrastructure was up modestly – Limited impact from tariff-except components. System vendors and hyperscale cloud SPs increased component inventory purchases ...
Universal Technical Institute Celebrates First Graduating Classes from Aviation Program at Avondale and Long Beach Campuses
Prnewswire· 2025-06-18 21:15
航空维修技术教育项目 - 航空机身与动力装置技术员项目于2023年在Avondale和Long Beach校区推出 设计为18个月完成 [1] - 项目培养学生诊断 维修和维护飞机及动力装置部件的技能 毕业后可申请FAA机械师认证 [1] - 首批毕业生包括Densen Pantal和Jimmy Gutierrez 两人均计划在民用航空领域发展并备考FAA考试 [2][3] 毕业生与行业影响 - 毕业生Pantal因童年移民经历激发航空热情 Gutierrez受航天飞机运输事件启发从工程转向实操航空领域 [2][3] - Long Beach校区校长Anthony Pham强调首届毕业生为航空职业发展奠定基础 [4] - UTI部门总裁Tracy Lorenz指出项目扩张满足航空维修行业对技术工人的需求 新校区提供FAA认证课程 [4] 公司业务与布局 - 母公司Universal Technical Institute成立于1965年 提供运输 技工 电气和能源等领域的职业培训 [5] - UTI部门在9个州运营15个校区 Concorde部门在8个州有17个校区及在线课程 覆盖医疗健康领域 [5] - 航空课程还扩展至Miramar(佛罗里达) Canton(密歇根)和Houston校区 [4] 地方政府支持 - Long Beach市长Rex Richardson肯定项目培养的技术能力 强调职业培训对社区经济增长的支撑作用 [4]
UTI-Houston Aviation Students Earn First Place at 2025 Aerospace Maintenance Competition
Prnewswire· 2025-06-12 21:15
公司表现 - 公司旗下UTI-Houston校区学生在2025年航空航天维修竞赛(AMC)中获得全国性认可 该赛事与MRO Americas年度会议同期在亚特兰大举行[1] - 参赛团队在8个项目中进入前十名 包括两项冠军(StandardAero发动机风扇叶片拆卸和WiN MS AERO Smart赞助的快速线路诊断) 以及两项亚军(联合航空赞助的Render Safe和Av-DEC赞助的天线垫片安装测试)[3][8] - 团队由Joseph Pradia和Joseph Parker指导 成员包括DeAnte Herbin等9名正式队员及4名替补队员[4][8] 教育体系 - 竞赛成绩印证了公司职业导向型培训体系的有效性 该体系严格对标行业高标准[2] - 公司提供涵盖交通运输、专业技能、电气和能源领域的多元化培训项目 在9个州设有15个校区[6] - 两名学生Adrian Pope和McKenzie Eck获得Phoebe Omlie奖学金 该奖项旨在表彰未来航空维修人才[4] 行业参与 - 赛事由联合航空等行业领先企业赞助 包含模拟真实工作场景的实践挑战[2][3] - 竞赛吸引48所国内外院校和专业团队参与 涵盖从学生到资深从业者的航空维修人才[1][3] - 公司通过LinkedIn和X平台保持行业互动 提供UTI和Concorde两个教育品牌的信息渠道[6]