Workflow
检索增强生成(RAG)
icon
搜索文档
3·15曝光后,GEO换马甲了
财联社· 2026-03-16 20:01
文章核心观点 - 尽管央视3·15晚会曝光了GEO“AI投毒”黑色产业链,但相关服务在电商平台通过更换关键词(如“引擎优化”)后仍在隐蔽销售,表明该黑灰产活动并未停止 [1][2] - GEO黑灰产的本质是利用AI大模型(如RAG技术)抓取互联网信息的漏洞,通过批量制造虚假信息污染语料库,实现对用户认知的操纵,这动摇了AI商业化落地的核心资产——用户信任 [1][7][8] - 治理“AI投毒”需要构建“技术-生态-法制”三位一体的纵深防御体系,单靠任何一家大模型厂商难以应对 [9] GEO黑灰产的现状与商业模式 - **监管后转向隐蔽**:3·15曝光后,闲鱼等平台屏蔽了“GEO优化”等直白关键词,但改用“引擎优化”等词仍可找到售卖商家 [1][2] - **两种服务模式与定价**: - 软件服务:客户自行操作,价格为398元/月(含部分算力)或1980元/年(无限算力)[4] - 代运营服务:由服务商专业人员操作,价格更高,为3980元/季度或9800元/年 [4] - **覆盖平台广泛**:服务商承诺其服务可覆盖豆包、DeepSeek、元宝、ChatGPT、千问等主流AI平台 [1][4] - **操作流程标准化**:根据一份30页的操作文件,流程包括“AI蒸馏”(拓展关键词和问题)、自动生成文章、通过客户端自动将内容发布至网易、搜狐、百家号、知乎、小红书等多个平台,并自动查询各大AI平台的收录情况 [4][5][6] GEO黑灰产的技术原理与危害 - **核心逻辑**:通过内容发布手段,让企业品牌及产品信息在AI大模型的生成答案中获得优先展示,实现“答案即广告”的营销效果 [5] - **利用技术漏洞**:该产业利用了主流AI大模型普遍采用的检索增强生成(RAG)技术漏洞。RAG技术会在回答前实时抓取互联网信息,而黑灰产通过批量制造看似来自不同自媒体平台的“毒饵软文”来污染这些在线数据源,使AI将其误判为“权威答案” [6][7][9] - **危害升级**:与传统的搜索引擎优化(SEO)“抢排名”不同,GEO黑灰产直接进行“认知操纵”,它篡改AI模型所依赖的“客观事实”,让大模型以拟人、权威的口吻输出虚假信息作为“标准答案”,使用户丧失辨别能力 [1][8] - **非对称成本**:黑灰产方仅需几十元、几小时即可生成上万篇虚假软文,而大模型厂商要从海量实时数据中甄别剔除这些内容,算力和人工审核成本极高 [9] 专家建议的治理框架 - **技术层面**: - 强化大模型“免疫系统”,包括重构信源权重,建立高置信度的“白名单信源库”(如官方媒体、权威机构),并对普通自媒体内容进行降权处理 [10] - AI回答应强制展示“引用来源链接” [10] - 引入红蓝对抗机制,在数据进入RAG上下文前,部署专门识别“AI生成营销文本”的拦截模型 [10] - **平台治理层面**:要求微信公众号、小红书、知乎等内容平台承担起AI“数据守门人”的责任 [11] - **法律层面**:建议将“系统性、针对AI大模型的恶意数据投毒”明确界定为新型网络攻击和不正当竞争行为,大幅提高违法成本以形成源头威慑 [11]
江波龙(301308) - 2026年2月25日投资者关系活动记录表
2026-02-27 17:40
主控芯片与技术能力 - 公司已推出应用于UFS、eMMC、SD卡、高端USB等领域的多款主控芯片,采用领先的头部Foundry工艺和自研核心IP与固件算法,产品具有性能和功耗优势 [3] - 在旗舰存储产品上,全球仅有少数企业具备芯片层面开发UFS4.1产品的能力,公司搭载自研主控的UFS4.1产品在制程、读写速度及稳定性上优于市场可比产品 [3] - 截至2025年三季度末,公司自研的多款主控芯片累计部署量已突破1亿颗,并与多家晶圆原厂及头部智能终端设备厂商构建了深度合作关系,相关UFS4.1产品正在批量出货前夕 [3] 创新产品与市场进展 - mSSD产品通过Wafer级系统级封装实现轻薄紧凑,在满足低功耗要求、降低空间占用的同时,保持与传统SSD相当的性能,并具备更优的物理特性和综合成本优势 [3] - 公司围绕mSSD已构建丰富的知识产权布局,并基于自主封测实力实现技术商业化落地,该产品正在多家头部PC厂商加快导入 [3] - 公司已发布MRDIMM、CXL2.0内存拓展模块、SOCAMM2等多款前沿高性能存储产品,并将根据市场需求进行产品布局和技术创新 [4] 行业周期与市场展望 - AI推理在系统架构与资源调度上的结构性变化,特别是键值缓存与检索增强生成技术的应用,显著扩大了对存储容量的需求 [4] - AI基础设施快速扩张与HDD供应短缺,共同推动存储需求爆发式增长 [4] - 受制于产能建设周期的滞后性,存储原厂资本开支回升对短期位元产出的增量贡献也将较为有限 [4]
Nature和Science同时报道了一篇论文,试图根治AI幻觉
36氪· 2026-02-05 20:24
模型架构与性能突破 - 开源模型OpenScholar仅拥有80亿参数,在科学文献综述任务上击败了旗舰模型,标志着从依赖参数记忆到依赖外部知识库精准调用的范式转移[1][4] - OpenScholar通过外接一个包含4500万篇开放获取论文的数据库,采用“检索-重排序-生成与反馈”的严密流程来根治幻觉问题,其自我审查机制确保每条论述都有文献背书[5] - 在ScholarQABench基准测试中,OpenScholar-8B不仅正确率超越当时的旗舰模型,更将推理成本降低两个数量级至约0.003美元/次[6] - 性能数据显示,OpenScholar-8B在单篇论文任务上的多项正确率(Corr)和引用率(Cite)指标均显著优于同等参数规模的Llama3-8B,甚至在某些任务上接近或超越700亿参数的大模型[7] 技术演进与深度研究能力 - 迭代版本DR Tulu针对长篇幅、多维度的深度研究任务,其核心突破在于引入了“演化评分规则的强化学习”,使模型能动态生成针对当前问题的评分细则[9] - DR Tulu具备更强的研究规划能力,能像成熟研究员一样制定大纲、分头检索并综合多源信息撰写长篇报告,其8B参数版本的表现已可媲美当时的旗舰专有模型[9][10] - 该系列模型代码和权重完全开源,旨在打破科技巨头对顶级科研AI工具的垄断,推动研究工具的民主化[15] 行业影响与意义 - 该研究证明在特定领域,一个连接了大型知识库的小模型,比一个参数庞大但可能产生幻觉的大模型更可靠,挑战了行业对模型参数的盲目崇拜[4][8] - 研究主导者Akari Asai是检索增强生成领域的活跃研究者,其哲学是让模型学会拥抱外部世界而非死记硬背,这一理念正通过其开源工作影响行业[15] - 该技术方向将AI从参数竞赛中解放出来,赋予其查阅、验证和反思的能力,有望成为科学家在浩瀚知识海洋中进行研究的强大助手[16]
吕本富:治理AI“藏广告”,需要“内外兼修”
环球网资讯· 2026-02-02 07:05
文章核心观点 - 生成式引擎优化(GEO)作为一种利用AI网络抓取逻辑、夹带广告信息的新型数字营销方式,已催生出一个新兴行业,成为企业在AI时代争夺流量的关键策略[1] - GEO的无序发展带来了法律与伦理挑战,可能对信息质量、用户权益及市场竞争秩序造成深远影响,行业健康发展亟需从语料库净化、高风险领域监管及广告标识等方面进行规范[4][5] 市场背景与规模 - 截至2025年6月,中国生成式AI用户规模已突破5.15亿,生成式AI被广泛用于智能搜索、内容创作等场景[2] - 随着AI手机和原生AI硬件的普及,提问和搜索的流量入口已全面转向AI,传统搜索引擎用户规模占网民整体比例降至69.2%,相比此前调查数据(78%、75.7%、75%、79.2%)出现大幅下滑[2] - 2025年国内GEO市场规模已超过42亿元人民币,近三年年复合增长率达到38%[2] 技术驱动与发展动因 - GEO是数字营销与AI技术深度融合的产物,其兴起源于用户行为向AI交互转变、技术架构升级、市场需求变化以及传统搜索引擎优化在AI时代逐渐式微[1] - 从技术本质看,GEO以检索增强生成架构为核心,通过向量数据库、动态知识图谱与多模态适配三大支柱,构建从“内容生产”到“AI采信”的全链路体系[2] - GEO通过调整网络发布内容的结构与语义,使其更容易被AI检索、引用并生成进最终答案中,从而影响用户在AI界面中看到的信息[2] 用户行为与商业模式影响 - GEO模式大幅缩短了传统的信息获取与决策链路,用户平均阅读AI生成答案的停留时间仅为8.7秒,比浏览传统网页下降了62%[3] - 用户的信任机制发生迁移,78%的用户认为AI整合的“权威来源”比单个网站更可信,GEO从业者利用这一点引导AI生成符合特定商业目标的回答[3] - 典型的GEO优化手段包括语义向量化(调整内容使目标信息在向量空间中更接近用户查询词)以及通过附加数据支撑、引用来源甚至编造“权威报告”等方式提升内容权威性与可信度[3] 行业挑战与监管建议 - GEO发展伴随法律与伦理挑战,带来商业利益与信息中立、技术操控与生态公平之间的冲突[4] - 推动行业健康发展的建议包括:建立语料库的采用与净化标准,通过技术手段识别并清理被污染的内容[4];在医疗、金融、公共政策等高敏感领域实施更严格的监管以防范风险放大[4];要求生成式引擎在返回GEO调整内容时明确标注“广告”或类似提示,以符合广告法规定[5] - 从长远看,行业还需关注用户隐私与认知主权、知识资源垄断、内容产权保护等更深层问题[5]
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡
机器之心· 2026-01-06 08:31
文章核心观点 - 卡内基梅隆大学的研究表明,在检索增强生成系统中,扩大检索语料规模可以有效提升系统性能,并且可以在一定程度上替代扩大生成模型参数所带来的收益,为在有限算力下提升RAG系统提供了更具性价比的路径[4][22] - 研究揭示了语料扩容带来的性能提升主要源于提高了答案证据被检索到的覆盖率,而非显著增强了模型利用证据的能力[15][19] - 研究指出,语料扩容的收益存在边际递减现象,尤其是在语料规模达到较高水平后,继续无上限扩容并不划算,需要结合成本进行精细的预算分配[4][13] 实验设计与方法 - 研究采用全因子设计,严格控制变量,仅让检索语料规模和生成模型规模变化,其余设置保持一致[8] - 检索语料使用ClueWeb22-A英文子集,总计包含约2.64亿真实网页文档,并随机均衡切分为12个分片,通过激活不同数量的分片来控制语料规模[9] - 生成端选用Qwen3模型家族的不同尺寸,覆盖从0.6B到14B的参数规模,并在三个开放域问答基准上进行评测[9] 关键发现:语料规模与模型规模的替代关系 - 实验结果显示明确的补偿效应:通过扩大检索语料,较小规模的模型可以达到甚至超过更大模型在较小语料下的表现[10] - 研究定义了“补偿阈值”,即小模型需要多少倍语料才能追平大模型在1个分片下的成绩。例如,在Natural Questions数据集上,0.6B模型需要约5倍语料才能追平1.7B模型在1个分片下的表现[11][12] - 这种追平趋势在TriviaQA与WebQuestions数据集上同样存在,表明语料扩容在多数设置下都能将性能缺口缩小一个甚至两个模型档位[12] 性能增长形态与工程启示 - 性能提升曲线呈现共同规律:从无检索到有检索的第一步带来最显著的提升,随后收益逐步下降,并在约5到6倍语料规模附近出现饱和趋势[13] - 对于工程实践,这意味着检索能力的从无到有带来最大增益,但在较高语料规模处继续无上限扩容的性价比不高[13] - 当推理资源受限时,优先考虑扩大检索语料与提升覆盖率,常常能让中等规模生成模型达到接近更大模型的表现[20] 性能提升的机制解释 - 语料扩容提升性能的核心机制是提高了检索到包含标准答案字符串的证据片段的概率,即提高了“黄金答案覆盖率”[16] - 研究定义了“上下文受益成功率”和“利用率”指标,实验显示,不同模型将可用证据转化为正确答案的效率整体相近且在不同语料规模下保持稳定[19] - 因此,语料扩容带来的关键收益主要体现在提高含答案证据进入上下文的概率,而非显著提升模型对既有上下文的利用能力[19][22]
系统学习Deep Research,这一篇综述就够了
机器之心· 2026-01-01 12:33
Deep Research (DR) 综述的核心观点 - 大模型应用正从对话与创意写作,走向解决开放、复杂的研究型问题,催生了Deep Research这一新方向,旨在超越传统RAG静态的“一次检索+一次生成”范式,以支撑多步推理与长期研究流程[2] - 来自山东大学、清华大学、CMU、UIUC、腾讯等机构的团队发布了目前最全面的深度研究智能体综述《Deep Research: A Systematic Survey》,系统性地提出了三阶段能力发展路径,并从系统视角梳理了关键组件及训练优化方法[2] Deep Research 的定义与能力演进路径 - DR并非具体模型或技术,而是一条从信息获取到完整科研流程的逐步演进能力路径[5] - **阶段1:Agentic Search**:模型具备主动搜索与多步信息获取能力,能根据中间结果动态调整查询策略,核心目标是持续找对关键信息[5] - **阶段2:Integrated Research**:模型能对多源证据进行理解、筛选和整合,最终生成逻辑连贯的报告[6] - **阶段3:Full-stack AI Scientist**:模型扩展到完整科研闭环,具备提出研究假设、设计执行实验、基于结果反思与修正的能力,强调自主性与长期目标驱动的科研能力[6] - 能力对比显示,从标准RAG到Full-stack AI Scientist,智能体的动作空间从Narrow变为Broad,推理视野从Single变为Long-horizon,工作流从Fixed变为Flexible,输出形式从Short Span发展为Academic Paper[8] Deep Research 的四大核心组件 - **查询规划**:负责决定下一步查询什么信息,将“如何提问”纳入推理过程,使模型能在多轮研究中动态调整路径,具体分为顺序规划、并行规划和树状规划三类策略[10][11] - **信息获取**:从三个维度归纳方法:1) 何时检索:根据当前不确定性与信息缺口动态判断,避免冗余或过早依赖外部信息;2) 检索什么:从Web或知识库检索多模态或纯文本信息;3) 如何过滤:通过相关性判断、一致性校验或证据聚合机制筛选整合噪声较高的检索结果[12][13][14] - **记忆管理**:作为支撑DR系统长期运行与持续推理的核心基础设施,提供状态延续和经验累积,过程拆解为记忆巩固、记忆索引、记忆更新与记忆遗忘四个相互关联的阶段[15] - **答案生成**:强调结论与证据的对应关系及论证过程的逻辑一致性,需要智能体显式整合多源证据与中间推理结果,使输出支持事实核验与过程回溯[17] Deep Research 系统的训练与优化方法 - **提示工程**:通过精心设计多步提示构建研究流程,引导模型执行规划、检索与生成等步骤,适合快速构建原型,但效果依赖提示设计且泛化能力有限[20] - **监督微调**:利用高质量推理轨迹对智能体进行监督微调,直观有效,但获取覆盖复杂研究行为的标注数据成本较高[21] - **智能体强化学习**:通过强化学习信号直接优化DR智能体在多步决策过程中的行为策略,无需复杂人工标注,主要分为两种做法[22] - **端到端优化**:联合优化查询规划、检索、信息整合与报告生成等多个环节,有助于协调模块,但面临奖励稀疏、训练不稳定及采样成本高的问题[26] - **优化特定模块**:仅对查询规划或调度等关键模块施加强化学习信号,降低训练难度,更易于在现有系统中落地[26] Deep Research 面临的核心挑战 - **内部知识与外部知识的协同**:研究型智能体需在自身参数化知识与外部检索信息之间做出动态权衡,决定何时依赖内部推理、何时调用搜索工具[24] - **训练算法的稳定性**:面向长线任务的训练依赖强化学习等方法,但优化过程容易出现策略退化或熵坍缩等问题,使智能体过早收敛到次优行为模式,限制其探索多样化推理路径[24] - **评估方法的构建**:如何合理评估研究型智能体仍是开放问题,综述系统梳理了现有benchmark,但构建可靠高效的评估方法仍有待探索,尤其在开放式任务中对report-level输出的全面评估[25][27] - 当前广泛采用的LLM-as-a-judge范式在实践中受顺序偏差、偏好hacking等问题影响,限制了其作为测评方法的可靠性[27] - **记忆模块的构建**:是DR系统中最具挑战性的部分之一,需在记忆容量、检索效率与信息可靠性之间取得平衡,并将记忆机制稳定融入端到端训练流程[28] 行业现状与未来展望 - Deep Research代表了智能体在能力、动作空间及应用边界上的一次转变:从单轮的答案生成,走向面向开放问题的深度研究[30] - 该方向目前仍处于早期阶段,未来重要问题是如何在开放环境中构建既具自主性、又具可信性的Deep Research智能体[30] - 相关综述将持续更新,以总结该领域的最新进展[30]
2025年AI大模型资料汇编
搜狐财经· 2025-12-24 18:45
文章核心观点 2025年AI大模型行业竞争焦点从单纯的能力竞赛转向可持续性比拼,行业在技术范式、市场格局、应用形态与全球治理四大维度发生深刻转变,共同重塑发展轨迹[1] 技术范式演进 - 训练范式发生关键拐点,从依赖主观反馈的RLHF全面转向客观可验证的RLVR,模型通过自我检验实现推理能力飞跃[1][27][28] - 混合专家架构强势回潮,以稀疏激活模式平衡参数规模与计算成本,追求极致性价比[1] - 多智能体自我博弈与合成数据微调成为常态,模型减少对人类标注数据的依赖[1][29] - 检索增强生成成为企业级应用标配,有效解决幻觉与知识时效性问题[1][61][63] - 模型能力呈现“锯齿化”结构,在数学、编程等形式化智力领域突飞猛进,但在常识推理上仍存短板[1][32][33][34] 市场格局变化 - 市场格局呈现集中化与民主化的双重张力,谷歌Gemini 3凭借自研TPU v5芯片与多模态优势,终结了OpenAI的长期领先地位[1][2][10][14] - 中国模型凭借成本效益实现弯道超车,市场向头部集中,Anthropic等顶尖初创企业获巨额融资,二三线玩家面临出清[1][2] - 开源浪潮形成制衡,阿里通义千问、01.ai Yi-34B等开源模型性能逼近闭源产品,中国厂商成为开源生态主力军[1][2][19] - 科技巨头加速构筑全栈生态闭环,通过芯片、模型、平台、应用的垂直整合形成护城河,竞争焦点转向生态控制权[1][2] 应用形态发展 - 应用形态从通用聊天助手进化为专用工具与自主智能体,深度嵌入编程、办公等专业流程,“AI原生应用层”崛起[1][2][53] - “氛围编程”重塑软件开发模式,开发者角色从编码者转向系统设计师与AI驯导师[1][2][57] - 智能体成为生态博弈核心,例如字节跳动豆包手机助手可实现跨应用复杂操作,引发与超级App的流量控制权之争[2][60] - 部署模式呈现“云+端协同”趋势,本地部署因隐私合规需求兴起,开源工具与硬件进步让大模型在个人手机和企业私有服务器上运行成为可能[2][67][68] 全球治理动态 - 全球治理进入差异化竞争阶段,欧盟《AI法案》以安全优先实施严格监管,美国侧重行业自律与国际主导,中国坚持发展与安全并举的审慎包容路径[3] - 全球统一规则难以达成但多边协作萌芽显现,监管竞赛背后是技术标准制定权的争夺[3] - AI安全暗战持续,对齐与越狱的攻防常态化,自动化对抗与长期安全机制建设提上日程[3] - 社会层面初步显现就业结构调整、教育模式变革等震荡,人与AI协作成为新趋势[3]
AI智能体时代中的记忆:形式、功能与动态综述
新浪财经· 2025-12-17 12:42
智能体记忆研究的核心观点 - 记忆是AI智能体实现从静态大语言模型到自适应智能体转变的核心能力,支撑长程推理、持续适应及与复杂环境的交互 [1][5] - 当前智能体记忆研究领域呈现碎片化,术语定义松散且传统分类法(如长/短期记忆)已不足以捕捉当代系统的多样性和动态性,亟需新的系统性框架进行统一 [1][6] - 该综述旨在通过“形式-功能-动态”三维视角,提供一个最新且全面的智能体记忆研究图景,并区分其与大型语言模型记忆、检索增强生成(RAG)等相关概念 [1][7] 智能体记忆的定义与范畴 - 智能体记忆被明确定义为促成AI智能体通过环境交互实现持续适应的关键能力,区别于静态大语言模型的参数化记忆 [5][7] - 其应用场景广泛,包括个性化聊天机器人、推荐系统、社会模拟及金融调查等领域,这些应用均依赖于智能体处理、存储和管理历史信息的能力 [5] - 从发展角度看,赋予智能体持续演化能力是AGI研究的核心目标,而这根本上依赖于其记忆能力 [5] 智能体记忆的形式(架构与表示) - 从形式视角,智能体记忆主要有三种实现方式:标记级记忆、参数化记忆和潜在记忆 [10][18] - 这些不同的架构形式是第3节讨论的重点,旨在解答“智能体记忆可以采取哪些架构或表示形式”这一关键问题 [7][19] 智能体记忆的功能(角色与目的) - 从功能视角,提出了超越时间分类的细粒度分类法,区分了三种功能类型:事实性记忆、经验性记忆和工作记忆 [10][18] - 事实性记忆记录智能体与用户及环境交互中获得的知识;经验性记忆通过执行任务逐步增强智能体解决问题的能力;工作记忆在单个任务实例中管理工作区信息 [7][19] - 第4节将详细阐述这些功能类型,以解答“为何需要智能体记忆以及它服务于哪些角色或目的” [7][19] 智能体记忆的动态性(生命周期与运作) - 从动态视角,分析了在智能体与环境交互过程中,记忆如何随时间被形成、检索和演化 [10][18] - 第5节将按记忆形成、检索和演化的顺序进行阐述,聚焦于智能体记忆的生命周期与运作动态 [7][19] 研究资源与新兴前沿 - 为支持实证研究和实际开发,汇编了关于代表性基准测试和开源记忆框架的全面总结 [2][12] - 阐明了数个新兴研究前沿,包括面向自动化的记忆设计、强化学习(RL)与记忆系统的深度融合、多模态记忆、多智能体系统的共享记忆以及可信度问题 [2][12][20] - 这些方向在早期的分类方案中尚未得到充分体现,例如2025年出现的从过往经验中提炼可复用工具的记忆框架或基于记忆增强的测试时缩放方法 [6][16] 综述结构与贡献 - 综述结构包括:第2节形式化定义与概念厘清;第3、4、5节分别审视形式、功能和动态性;第6节总结基准与框架;第7节讨论未来方向;第8节总结 [9][21] - 主要贡献包括:提出了一个基于“形式-功能-动态”视角的最新多维度分类法;探讨了不同记忆形式与功能的适用性及相互作用;勾勒了未来研究方向;汇编了综合资源集以支持研究与开发 [8][20]
恒生电子助力国元证券打造智能知识中心 大模型赋能知识管理与高效应用
证券日报之声· 2025-12-11 21:38
核心观点 - 恒生电子助力国元证券成功上线智能知识中心,通过引入大模型与检索增强生成(RAG)等前沿技术,整合分散知识资源,构建统一、智能、可信的企业级知识中枢,旨在提升券商业务人员知识检索效率和业务场景问答精准度 [1] 项目背景与痛点 - 国元证券此前知识资产分散于多个独立业务系统中形成“信息孤岛”,员工知识检索需跨系统反复校验,合规核查依赖人工筛查,效率低下且易出现偏差 [1] 平台功能与技术架构 - 平台基于大模型和RAG技术,集知识汇聚、管理、应用与治理于一体,集中了11000余份内部文档,共计1.2亿余字,构建统一知识中枢并联动多个业务系统 [1] - 平台提供文档知识的分类展示、筛选、检索,并支持AI总结和AI单文档问答等功能 [2] - 核心“AI知道”提供基于部门库、群组库的问答能力,支持精准定位和溯源,并提供智能精答、原文直答、多库多轮检索问答和子任务拆解等多种问答模式 [2] - 项目创新构建了“问答体+知识库/群组穿透”双引擎知识服务模式,采用“一个知识底座+N个问答体”架构,实现“千人千面”的问答体 [3] - 项目构建了“可追溯、可干预、可评测”的AI问答治理闭环,通过“RAG+深度思考+拒答控制”三层保障及全链路监控等机制,形成质量优化飞轮 [3] 平台性能与效果 - 通用场景下,平台问答准确率可稳定维持在85%左右,细分业务场景下通过调优后可实现95%的准确率,首token响应时长在5秒左右 [2] - 通过治理闭环机制,问答准确率从初期的72%提升至90%左右(试点数据) [3] - 平台已在国元证券20多个部门使用,解决了长期知识管理痛点,实现了“降本、增效、控险”的建设目标 [3] 合规与安全管理 - 平台设计了精细化的权限管控体系,通过知识库授权和群组授权保障部门敏感信息隔离并支持有限范围内的跨部门知识共享 [2] - 所有上传至部门知识库的文档必须经审核流审批,确保知识源的合规性 [2] 行业意义与未来展望 - 项目精准契合国元证券以技术赋能业务、推动高质量发展的核心布局,为其未来的业务创新、风险管控和组织提效构筑了高质量的数字资产底座 [3] - 恒生电子将持续携手金融机构,探索AI技术在实际业务场景中的深度应用,推动金融行业数智化转型迈向更深层次、更广领域 [4]
迎接「万物皆可RAG」时代:最新综述展示50多种多模态组合的巨大待探索空间
机器之心· 2025-12-02 17:18
文章核心观点 - 多模态检索增强生成(MM-RAG)是新兴技术领域,旨在将大模型的应用从文本扩展到图像、音频、视频、代码、表格、知识图谱、3D对象等多种模态的组合 [2] - 目前MM-RAG的研究和应用尚处于初级阶段,现有工作主要集中于文本和图像组合,其他模态组合存在大量研究空白 [2] - 由多所高校和研究机构联合发布的综述论文首次全面覆盖了几乎所有可能的输入-输出模态组合,为领域提供了系统性的分类框架和技术参考 [4][5] MM-RAG技术现状与潜力 - 论文揭示了MM-RAG领域庞大的潜在输入-输出模态组合空间,在54种潜在组合中仅有18种存在已有研究,研究覆盖率约为33% [5] - 许多极具应用价值的组合(如“文本+视频作为输入,生成视频作为输出”)仍属待开拓的蓝海领域 [5] - 作者构建了基于输入-输出模态组合的全新MM-RAG分类法,系统性组织了现有研究并展示了不同系统的核心技术组件 [6][7] MM-RAG系统工作流程 - MM-RAG系统工作流程可划分为四个关键阶段:预检索(数据组织和查询准备)、检索(从多模态知识库中查找信息)、增强(将多模态信息融入大模型)、生成(生成高质量多模态输出) [8][9][11][12][13][14] - 论文详细总结了每个阶段的常用方法,并讨论了针对不同模态的优化策略 [15] 技术指南与应用前景 - 该综述提供了构建MM-RAG系统的一站式指南,涵盖工作流、组件、训练、评估等核心技术 [17] - 指南内容包括训练策略(最大化检索和生成能力)、评估方法(指标和Benchmark)以及潜在应用与未来研究方向 [18] - 论文作者提供了持续更新的资源库,方便研究者追踪最新技术进展 [17]