Workflow
RAG
icon
搜索文档
中金:从速度到认知,AI时代的量化新生态
中金点睛· 2026-03-11 07:35
行业核心观点 - 量化投资行业竞争重心正从局部环节的单点技术优势(如速度、单模型)转向以AI为枢纽的系统性认知能力建设,行业处于向Quant 4.0时代演进的关键时期 [1][4][12] - 大语言模型(LLM)与多智能体(Multi-Agent)技术是驱动本轮变革的核心,它们正在重塑数据广度、模型深度和组织协作模式,赋予策略捕捉“认知Alpha”的能力 [1][5][48] - 未来,兼顾数据丰度与延迟容忍度的“中频区间”(分钟级至周度)将成为AI技术落地的主战场,而随着通用AI工具普及,平台与系统化能力将演变为行业基础设施,但可持续的超额收益最终将回归于机构独有的高质量数据、精细的组合管理及执行能力等深层积累 [9][25][51] 行业演进框架与阶段 - 行业演进可拆解为数据、模型与组织架构三条相互交织的主线 [13] - 从Quant 1.0到Quant 4.0的演进路径:Quant 1.0为经典多因子线性模型阶段;Quant 2.0为技术进阶阶段,引入价量技术类因子;Quant 3.0为机器学习与另类数据大规模应用阶段,但各环节相对独立;Quant 4.0为以多智能体协作为核心的“认知型”投研基建升级时代 [15][16][17][19] - Quant 4.0的核心特征是通过多智能体协作将投研流程拆解为标准化、可编辑的模块,旨在提升研究产能、迭代效率及系统的可追溯性,而非替代传统的机器学习模型 [4][19] 信息处理:LLM与RAG的基建价值 - 大语言模型(LLM)正改变另类数据的处理方式,凭借零样本学习能力,能从上百页公告中精准提取关键信息,边际成本大幅降低,并能理解上下文语境以捕捉管理层措辞的细微变化和预期差 [5][28] - 针对LLM的幻觉问题,检索增强生成(RAG)技术通过“检索-引用-生成”流程,实现了策略留痕和有据可查,成为连接LLM与策略落地的关键可靠基础设施 [5][29] - LLM与RAG的结合标志着量化策略开始具备获取“认知Alpha”的能力,部分缩小了量化研究与基本面研究在深度认知上的差距 [5][48] 因子挖掘:从数据挖掘到逻辑生成 - 传统因子挖掘面临人工产能不足与遗传规划(GP)解释性差的两难困境 [6][31] - LLM与Multi-Agent技术(如FactorMAD框架)相结合,通过引入“提案者”与“批判者”的对抗辩论机制,实现了从盲目算力穷举到逻辑驱动生成的转变,产出具备清晰经济学逻辑且更稳定的因子 [6][34][36] - 这种基于辩论的Multi-Agent架构使因子挖掘实现了从暴力搜索到认知博弈的跨越,产出的因子经过了模拟逻辑辩论,而不仅仅是历史数据拟合 [31][36] 组织架构升级:从流水线到认知型系统 - 过去的量化投研多采用单向串联的流水线架构,存在失效难归因的问题;端到端模型则存在“黑盒”风险 [7][38] - Multi-Agent架构本质上是将系统升级为具备认知分工的组织,模拟真实资管机构的模块化分工(如数据、研究、风控团队),将隐性的团队协作显性化和代码化 [7][39] - 更务实的Quant 4.0落地形态是混合架构:AI智能体负责特征提取、市场状态识别、流程闭环等认知型工作,而具体的因子打分、组合优化等仍由基础机器学习模型完成,既保留传统收益基本盘,又加入认知信息增量 [41][48] AI技术的前沿应用与创新 - 在预测侧,时序基础模型(TSFM)正向金融领域深度特化,通过将K线数据转化为Token来克服低信噪比难题,提升模型应对市场状态切换时的样本外泛化能力 [8][44] - TSFM通过跨资产、跨频率的大规模预训练提炼通用时序表征,具备强大的零样本学习与迁移学习能力,能应对数据稀疏的新金融工具或市场 [44][45] - 在决策侧,强化学习模型(RL)擅长处理序列决策任务,采用端到端模式,更可能优先落地于交易执行(优化冲击成本、滑点)和动态风控与仓位管理等约束清晰、反馈闭环明确的子问题 [46][47] 未来竞争格局与能力重估 - 随着通用AI工具(如Claude Cowork、OpenClaw)的成熟和普及,智能体工作流正加速向全行业外溢,这将有效降低中小机构的投研流程建设成本,提升行业“生产率” [22][25] - 然而,通用工具的普及更容易带来研究路径与策略的同质化,单模型的预测优势将趋于收敛,AI-Agent投研平台将可能成为Quant 4.0时代的行业基础设施 [9][25][51] - 系统化平台本身不构成终极护城河,未来更可持续的Alpha将回归并沉淀于量化机构独有的高质量私有数据储备、精细的组合管理与执行能力以及风险管理等多维度的深厚积累上 [9][25][52]
Elastic(ESTC) - 2026 Q3 - Earnings Call Transcript
2026-02-27 07:00
财务数据和关键指标变化 - 第三季度总收入为4.5亿美元,同比增长约18%(按固定汇率计算为16%)[5][23] - 销售主导的订阅收入为3.76亿美元,同比增长21%(按固定汇率计算为19%)[5][24] - 非GAAP营业利润率为18.6%,超出预期[5][27] - 当前剩余履约义务首次突破10亿美元大关,达到约10.6亿美元,同比增长19%(按固定汇率计算为15%),剩余履约义务同比增长22%(按固定汇率计算为18%)[24][25][72] - 订阅毛利率为82%,总毛利率为78%[27] - 调整后自由现金流约为5400万美元,利润率为12%[28] - 第三季度通过股票回购向股东返还约1.86亿美元,累计回购380万股,已完成5亿美元回购计划的60%[28][29] - 第四季度总营收指引为4.45亿至4.47亿美元,中点增长15%(按固定汇率计算为13%);销售主导订阅收入指引为3.71亿至3.73亿美元,中点增长18%(按固定汇率计算为15%);非GAAP营业利润率指引约为14.5%[30] - 基于第三季度表现和第四季度指引,公司上调全年预期:总收入预期为17.34亿至17.36亿美元,中点增长约17%(按固定汇率计算为15%);销售主导订阅收入预期为14.34亿至14.36亿美元,中点增长20%(按固定汇率计算为18%);全年非GAAP营业利润率预期为16.3%[31] 各条业务线数据和关键指标变化 - 搜索业务持续受益于AI需求,势头强劲[26] - 安全业务方面,公司与一家财富100强保险机构签署了七位数的新客户协议,用于替换遗留的SIEM解决方案[9] - 可观测性业务方面,一家全球数据弹性软件领导者选择Elastic Observability为其新云产品提供监控层支持[10] - 公司所有解决方案均实现强劲的现场执行和健康增长[26] - AI用例已渗透超过25%的年度合同价值10万美元以上的客户群[13] 各个市场数据和关键指标变化 - 本季度的交易势头在所有地区保持平衡[25] - 公司继续看到客户在本季度做出多年期承诺[25] - 在政府市场,网络安全和基础设施安全局(CISA)的SIEM as a service项目获得成功,第三季度有更多机构加入,预计未来几个季度将有更多机构采用[67] 公司战略和发展方向和行业竞争 - 公司的战略定位是成为企业关键AI需求的“上下文引擎”,将LLM与企业的专有数据(包括结构化和非结构化数据)连接起来[5][6][12] - 公司强调其平台不仅提供向量数据库,还提供完整的检索工具包,包括混合搜索、高级重排序、代理构建和工作流程自动化,以构建生产级AI系统[12][40][41] - 公司在混合云和自管理环境中的灵活性是其关键优势,允许客户在首选环境中运行敏感数据和工作负载,无需昂贵的平台迁移,这帮助公司取代了传统供应商和利基云原生厂商[7][8][10][11] - 公司通过技术创新构建竞争壁垒,例如在18个月内将向量搜索所需内存降低了2个数量级,使Elasticsearch向量搜索速度比OpenSearch快8倍,并与NVIDIA合作推出GPU加速向量数据库插件,实现12倍更快的索引速度[16][17] - 公司持续进行产品创新:正式推出Agent Builder的通用版本;扩展Elastic推理服务以集成Jina AI的多语言重排序模型;推出技术预览版Elastic Workflows;为自管理客户推出Cloud Connect,使其能在本地保留数据的同时安全地利用Elastic Cloud的NVIDIA GPU进行高性能推理[18][19][20] - 公司认为前沿AI模型(如Claude、OpenAI)是未来的“操作系统”,而Elastic的角色是提供数据和上下文的基础设施,因此是合作伙伴关系而非竞争关系[56][57] - 公司正在从MongoDB等竞争对手那里赢得业务,案例涉及一家全球金融集团,因其需要可扩展的检索和精度以超越简单搜索[11][87] 管理层对经营环境和未来前景的评论 - 管理层认为,随着LLM在推理和推理能力上的快速发展,上下文是使这些模型在企业中有用的最重要因素[5] 1. 组织的命脉是其每天创建、管理和分析以推动业务决策和运营的专有数据,这些数据规模巨大(通常达PB级),且出于成本和安全原因无法移出组织控制范围[6] - 整合和AI是强大的顺风,随着组织管理爆炸式增长的数据量,他们正转向Elastic来满足其搜索、可观测性和安全需求,同时推动创新和效率[8][9] - 客户正在从被动的问答转向驱动工作流程的主动智能体,精确的行动需要精确的数据[11] - 公司对持续推动盈利增长的能力充满信心,认为自身是加速数据发现、保护基础设施和最大化应用性能的关键技术[34] - 关于AI采用,管理层指出客户对话的基调更加热情,从布道转向帮助构建复杂的智能体应用,但总体上仍处于早期阶段[94][95] - 管理层认为,随着更多客户采用AI功能,以及这些客户群倾向于更快地增长和扩张,公司有望达到甚至超过中期目标(销售主导订阅收入增长20%以上)[74][75] 其他重要信息 - 年度合同价值10万美元以上的客户数量超过1,660家,同比增长14%,本季度净增约60家[5][25] - 本季度签署的年度承诺价值超过100万美元的合同数量同比增长超过30%[8] - 使用Elastic Cloud作为向量数据库的客户超过2,700家,加上使用更广泛AI功能(如Agent Builder和Attack Discovery)的客户,AI客户总数超过3,000家[13] - 年度合同价值10万美元或以上并使用Elastic进行AI的客户超过470家,其中超过410家将其用作向量数据库[13] - 公司内部也广泛使用AI,例如客服智能体显著减少了支持团队的人力需求,即使业务增长也未增加该团队人数[58][59] 总结问答环节所有的提问和回答 问题: AI原生客户的扩张趋势是否可能推动增长加速?[36] - 管理层确认生成式AI客户群的趋势与分析师日披露的一致,增长表现强劲,这些客户仍处于早期阶段,其AI旅程的进一步渗透和成熟将推动更快增长,有可能加速超越之前披露的5%平均扩张率[37][38][39] 问题: 作为领先的AI应用上下文提供商,需要哪些核心组件?[40] - 管理层指出,上下文平台需要具备多项能力:能够引入任何类型的数据(结构化和非结构化);将数据转换为向量以进行向量搜索和混合搜索;使用Jina AI等模型进行重排序以获取最准确的上下文;通过Agent Builder组装智能体;通过Workflows实现精确行动自动化;通过LLM可观测性进行监控;以及通过Elastic推理服务与任何LLM集成[40][41][42] 问题: 第三季度自管理业务表现强劲的原因,第四季度销售主导订阅收入指引环比下降的原因,以及自管理与云客户货币化能力的差异?[46] - 管理层解释,自管理业务的强劲源于客户对处理敏感关键AI数据的偏好,他们希望数据处于其控制的环境(自有数据中心或云VPC),Elastic提供了这种灵活性[47][48] - 关于第四季度指引,管理层指出,季度指引包含了风险调整,且第四季度比前三个季度少3天,这造成了约3%或1400万至1500万美元的收入逆差,这些都已纳入指引,历史上也有第四季度指引低于第三季度的先例,公司对实现中期目标仍充满信心[49][50][51] - 管理层强调,销售主导订阅收入是衡量公司成功的关键指标,它包含了自管理和云部署,本季度该指标增长21%,而销售主导的云收入增长27%,公司关注整体订阅收入的健康增长[78][79] 问题: 如何看待前沿AI模型,是竞争还是合作伙伴?[55] - 管理层认为AI不会取代Elastic,反而依赖于Elastic。前沿模型是强大的推理引擎,是未来的“操作系统”,而Elastic的角色是跨企业所有PB级数据实时提供正确上下文的基础设施,公司已与超大规模云厂商合作并集成所有前沿模型[56][57] 问题: 公司内部使用AI的 tangible benefits 及对未来员工数量的影响?[58] - 管理层表示公司全面投入AI内部使用,例如客服智能体显著提升了客户体验并减少了支持团队的人力需求,在业务增长的同时该团队未增加人手。在HR、财务、法律和工程等部门使用AI工具也提升了生产力和效率,有助于加速创新[58][59][60] 问题: 平台如何适应RAG(检索增强生成)等技术的演进,例如页面索引方法?[63] - 管理层表示,RAG技术正在快速发展,其核心是找到最相关的上下文。Elastic一直处于技术前沿(如率先采用混合搜索),并有信心继续处于领先地位,因为平台的核心就是提供相关性[64][65][66] 问题: 近期CISA的胜利是否带来了后续动能?[67] - 管理层确认CISA的SIEM as a service项目非常成功,第三季度已有更多机构加入,预计未来几个季度将有更多机构采用。CISA作为美国民用政府网络安全主要负责机构的认可具有长远意义[67] 问题: 当前剩余履约义务增长稳健,但为何未看到更快的拐点?如何达到20%以上的中期目标?[71] - 管理层指出,当前剩余履约义务突破10亿美元,增长19%,剩余履约义务增长22%,是两年来的最佳表现,绝对美元增长进展良好。这得益于强劲的客户承诺和销售执行。AI顺风正在显现,并随着更多高价值客户采用AI工作负载而持续增长,公司对达到并可能超过中期目标(20%以上)充满信心[72][73][74][75] 问题: 考虑到云优化阶段已过且销售执行改善,第四季度云收入环比增长为何不与早期年份更一致?[77] - 管理层再次强调,销售主导订阅收入(同比增长21%)是关注的关键指标,它包含了自管理和云部署。销售主导的云收入本季度同比增长27%。第四季度指引考虑了少3天的影响且是风险调整后的数字,不能将实际业绩与指引直接比较。公司看到了非常强劲的承诺和销售主导指标的表现[78][79] 问题: 客户AI用例是否在扩大,对使用和支出的影响?[82] - 管理层确认AI用例正在扩大,从8个季度前主要集中在向量数据库和聊天式界面,扩展到现在的智能体工作流程,包括安全和可观测性工作流程的自动化。用例的多样性为公司在搜索、安全、可观测性核心业务中带来了机会[83][84] 问题: 与MongoDB的竞争是否日益普遍?[87] - 管理层表示,此次提及的MongoDB竞争胜利是一个具体案例,客户在需要可扩展的混合搜索解决方案时选择了Elastic。公司通常专注于非结构化数据领域,不经常与MongoDB直接竞争,但偶尔会遇到此类情况[87] 问题: 随着大交易在上行市场中占比增加,如何将其纳入指引并考虑季节性?[88] - 管理层表示,大交易的季节性遵循典型的企业模式,更多集中在第三季度和第四季度末。在制定指引时,公司会对可能跨季度变动的具体交易进行风险调整(“ haircut ”),不指望一切顺利[89][90] 问题: 与客户关于AI战略的对话基调与一年前有何不同?目前处于AI采用的哪个阶段?[93] - 管理层指出,对话基调更加热情,从布道转向帮助构建复杂的智能体应用,表明市场更加成熟。但就组织内智能体的总数和可自动化的工作流程而言,仍处于早期阶段,机会依然巨大[94][95] 问题: 搜索技术的进步(如Jina重排序模型)是用于提高收费还是作为获客工具?[97] - 管理层表示,公司采用消费定价模式,几乎所有平台使用都基于计算、存储和令牌(针对LLM/模型)进行计量收费。新技术会带来新的消费,从而推动收入增长[98] 问题: 第三季度业绩超预期且上调第四季度销售主导订阅收入指引,但为何全年固定汇率指引未变?[99] - 管理层解释,公司关注的核心指标是销售主导订阅收入,本季度该指标大幅超出预期,且上调的幅度超过了超预期的部分,这反映了公司对销售线积极势头的看好[100]
离谱!裁员裁出新高度了。。。
菜鸟教程· 2026-02-10 11:29
行业趋势与人才需求 - AI技术迅猛发展,导致传统CRUD开发工程师岗位需求出现断崖式下跌,该岗位正在成为下一个可能被淘汰的“传统岗位”[1] - 目前有63%的企业正在转型开发AI产品,掌握AI应用开发技能已成为时代刚需[2] - 大模型应用开发工程师成为炙手可热的岗位,市场人才极度稀缺[2] - 市场对开发者的要求已发生变化,在掌握原有技能的同时,必须精通微调、Agent和RAG三项核心技术[2] 核心技术定义与价值 - RAG(检索增强生成)技术旨在通过融入外部信息来修正模型输出,增强模型的可靠性[2] - Agent(智能体)技术能让AI自主工作,通过工具调用、环境交互和多步推理来完成复杂任务,例如智能客服[2] - 微调技术是针对特定任务优化模型,使其更好地适配具体业务需求[2] 薪酬与职业发展 - 具备AI项目能力的开发人员在求职时不仅面试优先、机会多,涨薪幅度达到40-60%也属于正常现象[2] - 掌握AI大模型技术被视为开启高薪职业道路的关键[4] - 技术迭代是构建个人技能壁垒、延长未来20年职业发展周期的重要方式[11] 课程内容与结构 - 课程名称为“大模型应用开发实战营”,旨在帮助开发者从0到1构建完整的应用开发能力路径[2] - 课程通过2节直播课,结合扎实理论、成熟开发能力与可演示的实战项目,系统传授RAG、Agent、微调三大核心技术[3] - 课程内容涵盖AI技术原理、实战应用与职业发展三大模块[4] - 学习路径分为五个步骤:从大模型原理与核心技术开始,到掌握各种AI工具,再进行产品开发实操,随后持续与AI前沿信息链接,最后通过不断学习和实战演练来巩固能力[14] 实战案例与项目 - 课程包含企业级真实案例拆解,覆盖金融、制造、医药、法律、医疗等多个业务场景[7][14] - 具体拆解案例包括金融行业的“支小助”和知乎的“直答”产品,通过一手数据和项目资料,逐行解析代码,手把手教学[14] - 课程教授主流大模型(如DeepSeek、Qwen等)的微调技术,以及如何利用制造、医药、金融等领域的特定数据进行模型定制[7] - 课程指导如何设计和开发AI Agent,以构建适用于制造业设备故障诊断、金融投资分析等垂类场景的智能助手[7] 附加价值与成果 - 课程提供内推机会与直聘权益,简历可直达大厂面试官[5][16] - 课程结束后赠送大模型应用案例集和AI商业落地白皮书[5][14] - 课程已开班58期,累计为超过20,000名学员提供服务,口碑良好,许多学员已成功获得高薪工作机会[9] - 课程还提供大模型相关的笔试、面试题库,内容涵盖RAG、LLM、机器学习、Transformer等热门考点,帮助学员在求职中脱颖而出[15]
存储“涨声”再起:一季度NAND闪存涨幅预期超40%
21世纪经济报道· 2026-02-09 18:55
核心观点 - 存储行业正经历由AI推理需求驱动的涨价潮,从DRAM蔓延至NAND,供需错配导致NAND价格预测被大幅上修,行业正朝着“HBM+DRAM+NAND”及“DRAM缓存+HBF加速+NAND海量存储”等多层架构演进 [1][3][6] 价格趋势与市场预测 - 2024年1月,三星电子将NAND闪存合约价格上调100%以上 [1] - TrendForce集邦咨询将2024年第一季NAND Flash合约价季增预测从33-38%上调至55-60%,且不排除进一步上修 [1] - Counterpoint预测2024年第一季度NAND闪存价格将上涨超过40% [1] - 摩根大通预测,2026年NAND行业平均销售价格将同比上涨40%,2027年仅微跌2%,维持高位 [5] AI需求驱动因素 - AI推理及新一代AI大模型在推理过程中进行训练,双双带动闪存需求 [1] - 企业级RAG(检索增强生成)应用加速落地,要求对TB至PB级私有知识库进行向量化并持久化存储,引爆对高性能企业级SSD及高品质NAND原厂颗粒的强劲需求 [1][2] - 长上下文(Long Context)技术发展,当大模型上下文窗口突破100万甚至1000万token时,海量中间状态数据(KV Cache)无法被GPU的HBM或DRAM容纳,必须溢出到外部存储如DRAM及高速SSD [2] - 铠侠披露,经与英伟达沟通测算,英伟达KV Cache相关应用在2027年或将额外带来约75-100EB的NAND需求,2028年该需求有望进一步翻倍 [3] - 数据中心对NAND需求增速超过DRAM,据TechInsights预测,2023-2030年数据中心NAND位元需求CAGR达32.6%,而数据中心DRAM位元需求CAGR为28.3% [3] 行业供给格局 - 全球NAND Flash存储晶圆产能集中在三星电子、SK海力士、美光、西部数据/闪迪、铠侠、长江存储、长鑫存储等少数巨头手中 [4] - 头部原厂正将资本开支优先向HBM及先进DRAM产能倾斜,NAND领域的投资增速相对落后 [4] 技术架构演进 - AI推理驱动存储架构向“HBM+DRAM+NAND”三级金字塔架构演进 [3] - 为应对传统NAND SSD的带宽瓶颈和毫秒级延迟导致的“内存墙”问题,闪迪推出了新型AI存储架构高带宽闪存(HBF),将3D NAND闪存与类似HBM的高带宽接口技术深度融合,提供比传统HBM高出8到16倍的容量,读取性能有望逼近HBM水平 [5] - SK海力士正与闪迪合作制定HBF标准,闪迪计划在2026年下半年交付HBF内存首批样品,预计首批搭载HBF的AI推理设备样品将于2027年初上市 [5] - HBF核心优势在于结合高带宽与大容量,且成本更具竞争力,适合读取密集型的AI推理等大容量应用场景 [5] - 有企业提出用HBF替代大部分DRAM容量需求以支撑更大模型,在将DRAM容量减半、保持存储成本仅40美元的同时,成功支撑32GB大模型,实现了更高系统性能和更低能耗 [6] - 随着3D NAND层数突破200层、HBM4量产体系建立及HBF等新架构研发推进,存储产业正朝着“DRAM缓存+HBF加速+NAND海量存储”的多层架构演进 [6]
正式裁员30000人,赔偿N+4!
猿大侠· 2026-02-02 12:11
行业趋势:传统IT与AI领域人才市场分化 - 互联网行业进入存量竞争阶段,企业普遍推行“降本增效”策略,导致传统开发岗位的招聘名额(HC)快速收缩 [2] - 与传统程序员岗位的降薪、裁员形成鲜明对比,AI相关技术岗位正在疯狂扩招,超过60%的企业正布局AI产品 [2] - 技术圈呈现“冰与火”的反差,市场饱和与内卷加剧使得传统技术岗失去竞争力,AI被视为技术人近几年最好且可能是最后的破局机会 [4] 某大厂人员结构变化 - 截至2024年12月31日,某大厂员工总数为194,320人,较2023年同期的219,260人减少24,940人 [1] - 从2021年底至2024年底,该厂员工数量呈持续下降趋势,从259,316人减少至194,320人,累计减少约65,000人 [2] - 人员减少在2024年第一季度最为显著,环比减少14,369人 [2] AI人才市场需求与薪资状况 - 当前最吃香的岗位是“大模型应用开发工程师”,企业对此类人才需求迫切 [2] - 大模型人才薪资逆势上涨,涨幅达150%,年薪70万至100万已成为常态 [2] - 具体案例显示,DeepSeek为同类岗位开出月薪11万元(14薪),即年薪高达154万元 [2] - 字节、华为等大型科技公司也在争抢大模型人才 [2] 企业所需的大模型核心技术能力 - 企业急需的大模型工程师必须掌握三大核心技术:检索增强生成(RAG)、AI Agent智能体和模型微调 [4] - RAG技术用于融入外部信息以修正模型输出 [4] - Agent智能体技术旨在让AI自主工作,通过工具调用和环境交互完成多步推理与复杂任务 [4] - 微调技术则是针对特定任务优化模型,使其适配具体业务需求 [4] AI技术培训课程内容与卖点 - 相关培训课程旨在系统教授RAG、Agent、微调三大核心技术,并完成企业级项目实战 [4] - 课程内容覆盖AI技术原理、实战应用与职业发展,并承诺提供内推机会与直聘权益 [5][6][14] - 课程将拆解如“支小助”、“知乎直答”等热门大模型产品的技术架构,帮助学员落地AI应用场景 [15] - 课程由AI大模型领域专家设计,并分享丰富的商业化AI应用项目经验 [16] - 完成课程将获赠大模型应用案例集、AI商业落地白皮书及求职大礼包(含面试题库、高薪岗位解读等) [4][7][22] - 该课程已开班58期,累计为超过20,000名学员服务 [10]
正式裁员30000人,赔偿N+4!
菜鸟教程· 2026-01-06 11:30
某大厂员工数量变化趋势 - 截至2024年12月31日,某大厂员工总数为194,320人,较2023年同期的219,260人减少24,940人 [1][2] - 从2021年底至2024年底,该大厂员工总数呈现持续下降趋势,从259,316人减少至194,320人,累计减少约65,000人 [3] - 2024年第一季度员工数量环比减少幅度最大,达14,369人,从2023年底的219,260人降至204,891人 [3] 互联网行业人才市场结构性变化 - 互联网行业进入存量竞争阶段,企业普遍推行“降本增效”,导致传统开发岗位的招聘需求快速收缩 [3] - 与传统程序员岗位降薪、裁员形成鲜明对比,AI相关技术岗位正在疯狂扩招,超过60%的企业正布局AI产品 [3] - 大模型应用开发工程师成为当前最吃香的岗位,其薪资水平逆势上涨,部分岗位年薪高达70-100万人民币,涨幅达150% [3] AI大模型人才市场需求与薪资 - 市场对大模型人才需求旺盛,呈现“一将难求”的局面,DeepSeek等公司为大模型开发工程师开出月薪11万人民币、年薪154万人民币的高薪 [3] - 字节、华为等大型科技公司也在争抢大模型人才,进一步推高了该领域的薪资水平 [3] - 行业观点认为,AI技术浪潮是技术人员近几年最好且可能是最后的破局机会,传统技术岗位因市场饱和和内卷加剧而面临竞争力下降的风险 [5] 企业所需的大模型核心技术 - 企业急需的大模型工程师必须掌握三大核心技术:检索增强生成、Agent智能体和微调 [5] - RAG技术用于融入外部信息以修正模型输出 [5] - Agent智能体技术旨在让AI通过工具调用和环境交互自主完成复杂任务 [5] - 微调技术用于针对特定任务优化模型,使其适配具体业务需求 [5] AI大模型培训课程内容与卖点 - 相关培训课程旨在系统教授RAG、Agent、微调三大核心技术,并完成企业级项目实战 [5] - 课程内容涵盖AI技术原理、实战应用与职业发展,并承诺提供内推机会和直聘权益 [6][8][15][24] - 课程提供实战项目案例拆解,例如金融行业的“支小助”和“知乎直答”,以帮助学员积累项目经验并写入简历 [18] - 课程由行业大佬领路,分享商业化AI应用项目,并剖析大厂招聘行情、薪资及职业发展路径 [19][21] - 该课程已开班58期,累计为超过20,000名学员提供服务 [11]
模力工场 025 周 AI 应用榜:传统SEO黄昏?蓝莺 GrowAI 说让品牌出现在 AI 答案里!
AI前线· 2025-12-24 12:39
模力工场平台功能更新 - 平台推出全新功能,允许开发者在发布AI应用时,自主选择应用制作所用的AI基础设施支持[3] - 平台为开发者提供三类工具选择:通用工具、AI基础设施或生产力与协作工具,开发者可从已有工具库中灵活选用[5] - 若所需工具已在平台上线,开发者可直接选用,所选工具将展示在应用主页,同时该应用也会出现在对应工具主页,实现双向曝光[6][7] - 平台鼓励开发者推荐尚未被收录的工具,以共建AI生态繁荣[8] 模力工场第025周AI应用榜单 - 本周共上榜8款应用,揭示了AI应用正演化为企业发展的双引擎:对外驱动业务增长,对内优化生产效率[12] - 对外增长引擎的代表是蓝莺 GrowAI,它通过AI SEO主动破解获客瓶颈[12] - 对内效率引擎由多款应用协同构成,包括优化协作的Hivulse AI与博思白板、优化文档的易撰、优化内容的秒创、优化设计的MasterGo与即时设计[12] - 蚂蚁阿福的上榜,意味着“AI专业服务者”角色已亮相数字健康等生活领域[12] 榜一应用深度访谈:蓝莺 GrowAI - **产品定位**:蓝莺 GrowAI是一款一站式AI SEO工具,旨在通过生成式AI技术帮助企业获取海量免费搜索流量,支持传统SEO及针对ChatGPT、DeepSeek等AI问答引擎的优化(AEO/GEO)[13] - **核心功能**:通过构建企业知识库和智能Agent,自动生成符合搜索引擎标准且用户爱看的专业内容,并提供网站托管、SSL/CDN配置及数据分析全流程服务[13] - **平衡个性化与通用性**:采用“框架通用化 + 数据个性化”策略[14] - **通用性**:构建标准化的“企业级AI Agent平台”和网站托管架构,保证SEO底层逻辑和AI生成工作流的稳定性与可维护性[19] - **个性化**:将“内容源”和“模型选择”交给用户,允许上传无上限的专业文档构建企业知识库,并支持自定义API-Key接入不同大模型[17][19] - **内容质量与SEO安全**: - 采用“基于知识库的价值重塑”策略,避免生成低质内容[16] - 通过RAG技术深度调优,优先检索用户上传的权威资料以保证专业准确,并通过Prompt设计“角色扮演”指令保证内容通俗易懂[16][17] - 内置由SEO专家撰写的Prompt,并利用AI自动优化TDK、URL结构及关注长尾关键词,以生成搜索引擎和AI都渴求的优质语料[20] - **获客方式**:最有效的方式是“吃自己的狗粮”,即使用GrowAI自身进行获客,为“蓝莺IM”生成垂直领域内容,使关键词在搜索引擎和AI搜索中排名靠前,该方式流量成本极低,约为SEM费用的1%[21][25] - **未来12个月目标**: - 全面适配llms.txt标准,让生成的内容更快被大模型抓取和理解[22][25] - 强化AEO/GEO的数据反馈闭环,探索量化内容在AI问答中“被引用率”的机制[22][25] - 实现Agent从“辅助创作”到更自主的“营销Agent”的进化,使其能自动监测热点并调整内容策略[22][25] 行业趋势与观点 - **AIGC对SEO的长期影响**:Gartner预测到2025年30%的营销信息将由AI生成,单纯拼凑关键词的“伪原创”将彻底失效[18] - **未来获客策略演变**:SEO将进化为AEO和GEO,获客核心将从“写给搜索引擎看”转变为“写给AI看”,即提供结构化清晰、事实准确的高信噪比内容,以在AI问答中占据推荐位[21] - **AI应用演进路径**:上榜应用虽领域不同,但都遵循“标准化框架 + 个性化数据”的路径,通过标准化产品框架对接私有数据源,实现自动交付和灵活响应个性化需求[27] 其他上榜应用亮点 - **Hivulse AI**:以“Code In, Docs Out”为核心,让代码库自动生成结构清晰、实时同步的技术文档,提升研发效能[12][23] - **MasterGo 莫高设计**:作为AI设计平台与智能协作中枢,用AI理解需求生成UI,保障团队实时同步与设计一致性[12][24] 平台活动与支持 - 模力工场将联合阿里云通义智能硬件举办开年第一展,于2026年1月8日-11日在深圳举行,覆盖76+品类、200+展商、1000+前沿产品,并邀请开发者上传AI硬件作品参展[8] - 吴晓波频道将于12月25日晚举办关于“AI应用如何从好玩到好用”的开放麦讨论[10] - 极客邦科技将借助旗下InfoQ、AI前线、极客时间等全媒体矩阵资源,对在模力工场发布的应用进行传播,触达千万级技术决策者与开发者[30]
别再卷RAG了,Agent才是「超级生产力」| 极客时间
AI前线· 2025-12-23 15:29
文章核心观点 - 2025年是Agent技术从概念走向商业主流的转折点,拥抱Agent已成为企业和个人在智能化浪潮中的生存题[2] - Agent是一种“自主智能体”,具备感知环境、分析目标、自主决策并持续进化的能力,不同于作为“工具”的传统AI,它更像“数字助理”或“超级外挂”[2] - 开发者需要实现认知升级和技能重构,从思考“AI替代岗位”转向“如何用Agent放大自身价值”,并掌握提示词工程、目标拆解、人机协作等新语言[6] Agent技术定义与核心能力 - Agent的核心能力包括:感知-决策-执行闭环,通过LLM+强化学习框架自主拆解任务[2];工具调用能力,可直接操作GitHub API、K8s集群、云服务控制台[2];记忆进化机制,通过向量数据库+RAG实现长期经验沉淀[2] - Agent的崛起主要得益于其自主执行能力与广泛的实用性,商业化临界点已至[13] Agent技术生态与资源 - 存在丰富的开源Agent框架与工具,例如AutoGPT、MetaGPT、LangChain、Llamaindex、AutoGen、Dify等[2][17][21] - 技术社区提供了大量学习资源,包括视频教程、行业研究报告、技术解读文章及配套课件,例如“大模型时代的Agent开发方法论”2小时精品视频课[4][8] - 行业已整理出详细的知识库,涵盖多Agent协同调度、企业数据分析应用、具体产品列表以及11个顶级开源Agent框架介绍等[11][13] Agent核心技术栈 - 核心技术栈涵盖多个层面:大语言模型作为基础,例如GPT-4/4o、Claude 3、Qwen2、DeepSeek V3等[17];记忆与知识管理,涉及向量数据库、知识图谱及长短期记忆机制[16];多智能体协作技术,包括协作协议与通信协议[15][17];开发框架与工具链[17];评估与调试方案[17] - 检索增强生成是关键技术之一[16] - 模型上下文协议被视为Agent领域的“万能插头”[16][17] Agent开发实践与应用 - 存在具体的开发实践教程,例如在10分钟内于Windows环境使用Dify和DeepSeek搭建Agent[19] - Agent已在医疗、教育、金融等超过10个领域拥有实战案例[20] - 技术社区有大量相关视频推荐,内容涵盖智能体搭建、测试用例生成、技术解析及公开课等[19][20][21] 相关学习与求职资料 - 为助力技术学习和求职进阶,整理了包括“中国AI Agent产品罗盘”、“AI Agent行业研究报告”在内的系统学习资料[8] - 提供了AI大模型面试题集,涵盖Agent架构设计、前沿技术、基础理论以及Transformer、RAG等相关高频考点,文件大小从139.42KB到3.48MB不等[22][23]
最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品
机器之心· 2025-12-22 17:55
文章核心观点 - 一篇由多所顶尖学术机构联合发布的百页综述,旨在为快速扩张但日益碎片化的“智能体记忆”领域提供一个统一的分析框架,以梳理其技术路径[2] - 文章指出,传统的“长/短期记忆”二分法已不足以描述当代系统的复杂结构,因此提出了一个名为“Forms–Functions–Dynamics”的三角分析框架[5][6] - 智能体记忆应被视为实现时间一致性、持续适应与长程能力的关键基底,未来将变得更可学习、更自组织、更具适应性[68] 智能体记忆的概念辨析 - **智能体记忆**:关注智能体持续维持的、持久的、可自我演化的“认知状态”,它需要在交互中不断更新、整合、纠错、抽象,并跨任务保持一致性[11] - **LLM记忆**:关注模型内部计算过程中如何更有效地保留和利用序列信息,以解决长距离依赖建模等问题,其研究不必然与智能体的长期自主行为绑定[12] - **RAG**:更接近“静态知识访问”,旨在从外部知识库检索静态信息以提升事实性,若缺乏长期一致性和演化机制,则并非完整的记忆系统[13] - **上下文工程**:作为优化“当下模型看到什么”的外部脚手架,而智能体记忆是支持学习与自主性的、维持跨窗口跨任务持续认知状态的内部基底[14] 记忆的形式 - 综述将智能体记忆的形式归纳为三大类:**Token级记忆**、**参数记忆**和**潜在记忆**[16] - **Token级记忆**:将信息存储为持久、离散、可外部访问与检查的单元(如文字、视觉token),具备透明、可编辑、易组合的优势[18][19] - **参数记忆**:信息存储在模型参数中,通过参数空间的统计模式编码并隐式访问,类似于“内化后的直觉”,但存在训练成本高、难以精确编辑等问题[22] - **潜在记忆**:信息以模型内部隐状态或连续表示存在,可在推理或交互周期中持续更新,它比Token级记忆更紧凑,比参数记忆更容易在推理期更新,但更难解释[24][26] 记忆的功能 - 综述按功能角色将智能体记忆分为三类:**事实记忆**、**经验记忆**和**工作记忆**[29] - **事实记忆**:记录来自用户与环境交互的知识,旨在提供一个可更新、可检索、可治理的外部事实层,以维持跨会话、跨阶段的一致性[31] - **经验记忆**:从任务执行中增量提升解决问题的能力,关注跨情景的长期积累与迁移,可按抽象层级分为基于案例的、基于策略的和基于技能的[32][33] - **工作记忆**:管理单个任务实例中的工作区信息,核心问题是在固定计算预算下处理庞大、高维的即时输入,可分为单轮工作记忆和多轮工作记忆[35] 记忆的动态机制 - 记忆系统的生命周期概括为三段:**记忆形成**、**记忆演化**和**记忆检索**,三者构成一个相互反馈的循环[38] - **记忆形成**:将原始上下文(对话、图像等)编码成更紧凑的知识表示,操作包括语义总结、知识蒸馏、结构化构建、潜在表示及参数内化[40] - **记忆检索**:根据当前观察与任务构造查询,返回相关记忆内容并格式化为模型可消费的信号,其触发节奏(而非模块本身)决定了“短期/长期”效果[41] - **记忆演化**:将新增记忆与已有记忆进行整合,通过合并、冲突消解、剪枝等机制,让记忆库保持可泛化、连贯且高效,涉及复杂的治理问题[43] 资源与前沿展望 - 综述汇总了相关的基准测试和开源框架资源,为实证研究与落地开发提供了关键基础设施[44] - 未来记忆系统的发展趋势包括:从**记忆检索**走向**记忆生成**,让记忆内容能被压缩、重组、重写成更适合推理的表示[50][53] - 记忆管理将从**手工编写规则**转向**自动化管理**,可能通过将记忆操作显式接入决策或构建自优化的记忆结构来实现[54][56][57] - **强化学习**将在记忆系统中扮演更核心的角色,未来可能实现完全由强化学习驱动的记忆控制,减少对人类先验知识的依赖,并对记忆全生命周期进行端到端优化[58][59][60] - 随着智能体走向具身与多智能体协作,**多模态记忆**和**多智能体共享记忆**成为关键挑战,需要实现异质信号的统一存取与推理,并发展出主动管理的集体表示机制[64][70] - **可信记忆**成为首要原则,需在隐私保护、可解释性以及抗幻觉与冲突鲁棒性等方面进行系统性建设[65][66]
终于,NotebookLM 和 Gemini 合体了。这是什么神之更新?
新浪财经· 2025-12-21 14:21
产品功能整合 - 谷歌Gemini App现已支持用户直接上传NotebookLM中的笔记本作为参考数据源 用户可通过输入框左侧的加号添加一个或多个NotebookLM笔记本 [6] - 该功能目前仅限Gemini Web版本且需Pro会员使用 App版本暂不支持 [4] - 整合后 Gemini可将NotebookLM的笔记本作为外部RAG数据源 旨在使回答更精准 减少幻觉 输出更聚焦和有价值 [9] 应用场景与能力互补 - Gemini可利用上传的笔记本内容执行多种任务 包括根据笔记本生成信息图 进行深度研究 以及编写程序和文档等 [6][7] - NotebookLM自身难以完成的任务 如深度研究 出图 做视频 写程序等 可由Gemini代劳 形成能力互补 [9] - 此次整合被视作从经典RAG到智能体RAG的演进 模型参与从仅限生成答案扩展到检索决策 路由和自我评估等全链路 [12] 当前整合效果与未来展望 - 当前整合效果尚未完善 Gemini有时无法准确识别用户所指的“笔记本”是NotebookLM文件还是普通概念 复杂高级功能仍需在NotebookLM控制台内完成 [10] - 尽管存在不足 但能在Gemini中直接挂载个人知识库被视为一项便利功能 未来体验有望提升 [12] - 有第三方知识库案例显示 其由1300条笔记和260万字构成 具备经典RAG的完整工作流程 而升级为智能体RAG仍需在系统中引入可持久记忆与多源工具等 [12]