COR)

搜索文档
开刀or解冻?AI时代中层行动指南
36氪· 2025-07-08 16:17
诺基亚案例研究 - 诺基亚在20世纪90年代打败摩托罗拉成为全球手机市场领导者,其"战略敏捷性"曾为行业典范 [1] - 2007年iPhone面世引发智能机革命,诺基亚因坚持塞班系统和硬件路线决策失误,最终在2013年以75亿美元将手机业务出售给微软 [1] - 研究通过对76名诺基亚高管的访谈发现,中层管理者因恐惧高层排斥坏消息而隐瞒产品缺陷,导致组织信息失真和决策失效 [1][2] 中层管理者困境 - 调研显示99%中层管理者承受压力,44%感到"非常"或"极度"大压力,70%愿意在薪酬不变情况下回归独立贡献者角色 [2] - 中层像"八爪鱼"处理多重任务,42%美国中层表示组织未提供足够支持,大量精力消耗在"情绪按摩"等非显性工作 [9] - 中层普遍缺乏高层信任和决策权,导致"习得性无助",采用惰性和权宜两种生存策略 [10] 组织架构演变 - 工业革命催生中层管理者角色,20世纪科学管理理论强化其计划、组织职能,60-80年代开始强调创新和变革能力 [3] - 经济全球化使层级制度僵化,Meta等科技公司通过裁员推进"扁平化",明确将中层管理者列为削减目标 [4] - 新型组织模式如"合弄制"、"青色组织"将中层视为冗余,强调个体赋权而非垂直管理结构 [4] 行为模式分析 - KUKD理论揭示中层通过"讨好上级"和"欺压下级"双向行为获取资源,其中向上管理消耗最大 [11][12] - 典型讨好行为包括偏袒、额外支持、公开抬升上级,典型欺压行为包括施压、恐吓、推诿责任 [13] - 高组织认同的中层更关注整体绩效,能帮助组织克服惯性并刺激战略更新 [12] AI时代挑战 - AI主要替代初级重复工作环节,麦肯锡报告显示AI在流程优化、决策支持、内容审核三方面提升中层效率 [19] - AI介入导致团队缩减和评价体系变化,隐性扩大了中层职责范围并增加压力 [20] - 技术未能解决战略传导、执行公平、敏捷响应等管理结构性张力,中层在意义构建和冲突整合方面仍不可替代 [21] 角色转型路径 - 从"中途站"到"目的地":重新认识连接价值,获得组织战略资产定位 [23] - 从"评价者"到"指导者":成为创新枢纽,帮助员工适应AI时代职能定位 [23] - 从"行政官僚"到"数据侦探":利用AI优化流程,同时承担内部监管者角色 [24]
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好
机器之心· 2025-06-02 13:22
机器之心报道 编辑:陈陈 随着大语言模型 (LLM) 的出现,扩展 Transformer 架构已被视为彻底改变现有 AI 格局并在众多不同任务中取得最佳性能的有利途径。因此,无论是在工业界还是 学术界,探索如何扩展 Transformer 模型日益成为一种趋势。 在此背景下,LLM 的参数规模呈指数级增长,从数十亿级增长到数万亿级。因此,其爆炸式增长的参数规模也给训练带来了极其昂贵的负担,并且无法针对不同 的部署环境提供不同的推理用途。 鉴于这种日益增长的扩展律,如何开发和有效利用 LLM 来处理各种场景中的用户指令,已成为整个社区面临的一个开放且关键的挑战。 目前,扩展 LLM 架构存在以下问题: 本文,来自微软、复旦大学、浙江大学以及上海科技大学的研究者提出了一个新的概念, CoR(Chain-o f-Represe ntation,表征链) ,它将表征范式的范畴泛化 到更广泛的范围。 具体而言,本文观察到任何表征总是可以看作是隐藏维度上多个子表征的组合。因此,本文将这种组合定义为表征链,每个子表征对应一条链。基于此定义,通 过使用不同数量的前导链(preceding chains),其对应的特征可以用 ...
从打分器到思考者:RM-R1用推理重塑模型价值判断
机器之心· 2025-05-31 12:00
「知其然,亦知其所以然。」 文章验证了三个核心发现: 1. 规模带来增益:随着模型变大、计算力增强,RM-R1 的推理链训练方法效果越好,性能几乎线性提升; 这句儒家命题强调,真正的理解不仅在于结果,更在于推理过程。如今,在大型语言模型的后训练阶段,奖励模型承担着桥接模型行为与人类价值的重要职 责;但现有模型往往只给出一个分数,却难以解释其依据。缺乏推理的奖励,就如「知其然而不知其所以然」,既难以建立信任,也难以指导更优的学习。 伊利诺伊大学香槟分校的研究团队提出了 RM-R1 框架,将奖励建模重新定义为推理任务,提出了推理奖励模型(Reasoning Reward Models, ReasRMs)。RM-R1 关注于如何通过整合推理能力来增强奖励模型,使其能够更准确地对模型输出进行评估和打分,从而更好地与人类偏好对齐。RM- R1 通过生成结构化的评估标准和推理过程,提升了奖励模型的可解释性和性能。 2. 简单套用旧 RL 策略行不通:想让模型「会推理」,得精准划分问题类型、并对推理过程进行定向蒸馏训练,才能带来真正泛化的提升; 3. 推理比直接输出答案更通用:相比传统的直接监督,RM-R1 的推理能力更稳 ...