Workflow
过拟合
icon
搜索文档
别让成功的惯性“锁死” 未来
36氪· 2025-09-25 08:51
路径依赖现象 - 用户习惯依赖特定导航APP、报告模板和消费品牌 本质是对过往经验的依赖[1] - 电脑键盘QWERTY布局因用户习惯难以被更高效的DVORAK布局替代 后者可使打字速度提升30%以上[2] - 视频行业普遍采用MP4格式而非更先进的MKV、AV1格式 因设备兼容性和用户学习成本阻碍新技术普及[2] 商业案例表现 - 诺基亚过度依赖传统手机成功经验 未能及时转型智能手机导致市场地位丧失[3] - 柯达因对传统胶卷业务成功依赖 未大力发展数码技术最终走向衰落[3] - 企业依赖旧商业模式难以转型 管理者沿用过期激励机制管理新世代[3] 形成机制分析 - 路径依赖源于报酬递增机制 企业成功后会加大投入形成正反馈[5] - 转移成本包括经济成本、心理成本和组织成本 阻碍企业改变原有路径[5] - 大脑基于经验预判世界 通过"预测编码"理论验证猜测 逐渐强化经验依赖[6] - 成功归因偏差使企业将成功归因于方法本身 而忽略场景匹配的关键作用[6] 局部最优陷阱 - 决策时易被当下最优选择吸引 忽略进一步探索可能获得更优结果[7] - 爬山算法比喻显示 每一步局部最优可能无法达到全局最高峰[7] - 基层岗位熟练者不愿学习新技能 行业技术革新时因缺乏积累难以转型[9] - 职业探索中选择最容易转成功的岗位 导致始终在熟悉领域打转[9] 结构锁定效应 - 操作系统积累用户后形成应用生态 开发者被迫围绕其开发 despite更高效系统存在[10] - 企业数据架构偏离提升效率初衷 但因牵一发而动全身只能维持运转[10] - 结构锁定磨灭对长期价值的耐心 使企业无法忍受短期无反馈状态[10] 突破路径方案 - 主动引入扰动打破经验惯性 每月尝试跨领域交流、探索新技能或开启副业[12] - 在选择节点关注步骤是否拓宽未来选择空间 而非仅追求最快回报[13] - 定期从愿景反推路径 以全局地图参照审视是否困在局部高地[13] - 培养可迁移能力包括学习能力、系统思维能力和共情能力[14] - 第二曲线思维要求主业成功时即探索新方向 而非被动转型[14] - 提炼能力底层逻辑 掌握"为什么这么做"而非仅"怎么做"[15]
别让成功的惯性“锁死” 未来 | 创业Lifestyle
红杉汇· 2025-09-25 08:04
你或许有过这样的经历:习惯用某款导航APP后,哪怕它偶尔绕远路,也不会有尝试新导航工具的想法;写报告 时,总忍不住沿用往年的模板,哪怕今年的需求、经历早已不同;消费时,总是会选择自己熟悉的品牌,无论 是用过还是听过的,一般都不会轻易尝试陌生的品牌——这些生活里的"惯性选择",本质都是对"过往经验"的依 赖。 对创业者来说,这样的"惯性"有时意味着危险。那些曾带你闯关的招数,会在下个周期变成隐蔽的依赖,指 标、流程、直觉都在悄悄把你拉回熟悉的轨道——虽然成功的经验具有参考价值,但它们有时也会束缚着你, 让你无法突破自己、勇敢创新。就像一位技艺精湛的画家,当他对某种绘画技法过于娴熟时,反而可能失去尝 试新风格的勇气和能力。 你知道吗? 现在电脑键盘的"QWERTY"布局,最早是为了避免打字机按键卡顿设计的,其实效率并不高。后来有人发 明了更高效的"DVORAK"布局,能让打字速度提升30%以上,但始终无法普及——因为大多数人已经习惯 了QWERTY布局,学习新布局需要花时间成本,而企业也不愿生产新布局的键盘。 另一个类似的例子是:其实现在有比MP4更清晰、体积更小的视频格式 (比如MKV、AV1) ,但无论是视 ...
华人团队终结Token危机:扩散模型数据潜力超自回归三倍
量子位· 2025-08-13 17:13
时令 发自 凹非寺 量子位 | 公众号 QbitAI Token危机真的要解除了吗? 最新研究发现,在token数量受限的情况下,扩散语言模型的数据潜力可达自回归模型的三倍多。 更令人惊讶的是,即使是在如此极端的重复下,模型都未出现性能饱和,这表明此模型甚至还可以从这1B数据中挖掘出更多有用信息。 论文一作Jinjie Ni在x上详细介绍了其团队的研究结论和方法。 不仅如此,一个参数规模为1B的扩散模型,用1B tokens进行480个周期的训练,就在HellaSwag和MMLU基准上分别取得56%和33%的准确 率,且未使用任何技巧或数据筛选。 扩散语言模型是超强的数据学习者 扩散语言模型之所以具备超强的数据学习能力,主要有两个原因: 1)扩散目标和双向注意力机制使其能够进行 双向建模 ,更充分地挖掘网络数据中的信息,,而这些数据并非完全因果关系。 简单来说,传统自回归语言模型只能从前向上下文预测,存在严格的因果限制,这限制了模型对语言和其他非因果数据(如代码、生物序列 等)中复杂模式的捕捉能力。 扩散语言模型通过支持双向建模,打破了这种因果限制,更全面地利用数据,从而提升了学习效果。 2)其 计算密度极高 ...
token危机解决?扩散模型数据潜力3倍于自回归,重训480次性能仍攀升
机器之心· 2025-08-10 12:31
机器之心报道 编辑:杜伟 扩散语言模型(DLMs)是超强的数据学习者。 token 危机终于要不存在了吗? 近日,新加坡国立大学 AI 研究者 Jinjie Ni 及其团队向着解决 token 危机迈出了关键一步。 在当前大语言模型(LLM)的持续发展中,面临的挑战之一是可用的高质量训练文本数据(tokens)即将枯竭,并成为限制模型性能持续提升的关键瓶颈。另外, 新增的高质量数据来源少,获取成本高,去重后更加稀缺。因此,当模型规模继续扩大,所需数据量按 Scaling Laws 成倍增加时,就出现了「优质 token 不够训 练」的危机。 针对这一现象, 该团队从零开始预训练了扩散语言模型(DLMs)与自回归(AR)模型,其中规模最高至 80 亿参数、4800 亿 tokens、480 个 epoch 。 研究有以下三项重要发现: 此外,团队还剖析了并行研究《Diffusion Beats Autoregressive in Data-Constrained Settings》中的严重方法论缺陷 —— 以共同提升开放评审的标准! Jinjie Ni 在社媒 X 上详细介绍了其团队的研究结论、研究方法,接下来 ...