Workflow
Retrieval-Augmented Generation (RAG)
icon
搜索文档
Progress Software Brings Its RAG-as-a-Service Platform to AWS Marketplace
Globenewswire· 2025-11-19 22:00
平台与产品 - Progress® Agentic RAG平台已在AWS Marketplace上架,使各类规模的组织能够更轻松地在其AWS环境中直接发现、购买和部署该平台[1] - 该平台被设计为最易用的、基于SaaS的RAG平台,旨在使用可信赖的生成式AI和AI代理将非结构化数据转化为可操作的智能[2] - 平台使各种规模的团队能够从非结构化数据中提取快速、准确且可验证的见解,而无需编写任何代码,其无代码AI代理支持多语言数据处理[3] 市场与客户 - AWS客户现在可以直接在AWS Marketplace中获取Progress Agentic RAG,并可使用Bedrock模型,从而简化平台的购买和管理[2] - 公司是AI驱动的数字体验和基础设施软件的值得信赖的提供商,超过400万开发人员和技术专家以及数十万家企业依赖Progress[5] - 此举旨在简化客户对先进AI的访问,消除障碍,使组织能够自信地采用和扩展变革性AI解决方案[3] 公司背景 - Progress Software(纳斯达克代码:PRGS)致力于赋能组织在颠覆性变革中取得转型成功[5] - 公司的软件使客户能够敏捷、轻松地开发、部署和管理负责任的AI驱动应用程序及数字体验[5]
让RAG真正读懂“言外之意”!新框架引入词汇多样性,刷新多项基准SOTA
量子位· 2025-09-27 15:00
文章核心观点 - ACL 2025最新研究提出Lexical Diversity-aware RAG (DRAG)框架,首次系统性地将词汇多样性引入RAG的检索与生成过程 [1] - 该框架提供了一个轻量、通用且易扩展的解决方案,在多项基准任务中带来显著性能提升,尤其在HotpotQA上刷新了当前最优结果 [1][2] - 该方法对信息检索、问答系统、专业领域大模型应用具有重要价值,未来计划进一步拓展到更多专业场景 [5] 技术背景与痛点分析 - 现有RAG方法普遍忽视词汇多样性问题,导致检索模型因同一问题的不同表达方式而产生错误答案 [4][5] - 词汇多样性表现为不变词(如人名)、可变词(如职业同义词)和补充信息(如扩展语境)三种成分,常导致模型错误判断文档相关性 [6][8] 核心技术创新 - 提出Diversity-sensitive Relevance Analyzer (DRA)模块,通过拆解查询语义并对不同成分采用差异化策略,实现更细粒度的相关性评分 [9][12] - 提出Risk-guided Sparse Calibration (RSC)模块,通过实时监控生成token的"被误导风险"并进行稀疏校准,防止生成阶段被无关信息干扰 [11][13][14] - DRA负责精准检索,RSC负责防止生成偏差,形成检索与生成环节的双保险 [15] 实验性能结果 - 在PopQA短文本问答任务上准确率达到68.3%,较基线提升4.9个百分点 [16] - 在TriviaQA短文本问答任务上准确率达到77.4%,较基线提升4.4个百分点 [16] - 在HotpotQA多跳问答任务上准确率达到46.4%,较基线大幅提升10.6个百分点 [16] - 在2WikiMultiHopQA多跳问答任务上准确率达到54.6%,同样提升10.6个百分点 [16] - 在ASQA长答案生成任务的str-em、QA-F1等指标上刷新SOTA [16] - 该方法在Llama2-7B、Llama2-13B、Qwen2-7B等多种类型和尺寸的模型上均表现出显著性能增益 [18] 应用价值与前景 - 该方法解决了RAG系统因词汇多样性导致的准确性问题,让大模型不仅能"读懂"更能"理解"复杂的人类语言表达 [5] - 框架具有轻量、通用且易扩展的特点,适用于信息检索、问答系统及专业领域大模型应用 [1][5]
Progress Software Unveils Breakthrough SaaS RAG Platform Designed to Make Trustworthy and Verifiable Generative AI Accessible Across Organizations of all Sizes
Globenewswire· 2025-09-10 21:00
产品发布核心信息 - Progress Software推出名为Progress® Agentic RAG的SaaS检索增强生成平台 旨在为各种规模的组织和团队提供可信且可验证的生成式AI [1] - 该平台的发布是公司在收购Nuclia之后的一个重要里程碑 标志着其在可负担AI创新方面取得重大进展 [1] - 新产品定价为每月700美元起 可通过AWS Marketplace和Progress官网以自助服务形式获取 [6] 产品定位与市场痛点 - 当前所有企业都面临结构化和非结构化数据呈指数级增长的挑战 数据通常处于孤岛状态或难以查找 [2] - 缺乏业务数据背景的生成式AI会产生不可靠的答案 而传统的RAG解决方案需要专业知识和大量资源来实施和运行 [2] - 该平台通过提供可追溯且直观的AI驱动搜索 改变了市场格局 其设置简单、易于使用 并且对各种规模的企业都价格合理 [2] 产品核心功能与优势 - 平台具备无代码RAG管道 支持跨多语言文本、音频、视频等格式的智能化摄取、索引和检索 [9] - 提供智能搜索功能 能在非结构化数据之上交付AI搜索和生成式答案 以可信答案的形式提供知识 [9] - 平台专为向AI代理交付可靠且可扩展的检索功能而设计 并支持所有领先的企业级大语言模型 用户可完全控制LLM的选择 [9] - 平台由NucliaDB提供支持 该数据库除存储向量外 还内置语义搜索、关键词搜索、元数据搜索、知识图谱遍历和多模态理解功能 [9] - 内置RAG评估指标工具 以支持可追溯性和一致的答案质量 [9] 客户价值与应用场景 - 该平台旨在帮助企业将非结构化数据转化为可操作的智能 从而获得竞争优势 [1] - 客户案例显示 该平台通过从非结构化数据中提供快速、准确且可验证的洞察 显著提升了生产力和决策能力 [4] - 该平台已跨行业部署 通过AI驱动的产品推荐加速销售周期 通过高质量响应实现自动化客户支持 并为法律团队提供精确的语义研究 [5] - 组织还利用该平台保存机构知识 简化新员工入职流程 并安全地查询敏感数据 从而推动更快的工作流程和更智能的决策 [5] 管理层与行业观点 - 公司CEO表示 该平台通过将智能体技术与检索增强生成相结合 使AI对每个组织而言都变得实用、可扩展且可信 [3] - IDC高级研究经理认为 像Progress Agentic RAG这样为更易部署而构建的具成本效益的解决方案 能帮助企业释放生产力和创新 并处于转型前沿 [5] - 该平台服务于从中小企业到全球企业的多样化用户 其灵活的SaaS部署模式最大限度地降低了采用障碍 使变革性AI既易于获取又价格合理 [3]
Cisco Systems Inc. (CSCO) Expands Secure AI Factory with the Nvidia Platform
Yahoo Finance· 2025-09-10 19:35
公司战略与产品动态 - 公司确认扩展其与英伟达平台合作的Secure AI Factory [1] - 新解决方案旨在加速检索增强生成(RAG)流程 [1] - 解决方案整合了VAST Data的InsightEngine与Cisco AI PODs,旨在为智能体AI工作负载提供更快的数据提取和检索能力 [2] - 该解决方案能够将原始数据转换为AI就绪的数据集 [2] 市场定位与竞争优势 - 新解决方案使公司能够利用市场对提升AI应用性能解决方案日益增长的需求 [3] - 该解决方案能够减少RAG流程延迟(以秒计),并实现实时AI响应 [3] - 公司通过Cisco Security Cloud平台提供全面的网络安全解决方案,覆盖网络、云、终端和电子邮件,专注于防范威胁、简化安全运营和实现安全韧性 [4] 行业趋势与管理层观点 - 智能体AI有潜力为全球企业释放AI价值 [3]
Cisco Secure AI Factory with NVIDIA Unlocks Enterprise Data for Agentic AI
Prnewswire· 2025-09-04 21:00
产品发布与合作 - 思科与NVIDIA及VAST Data合作推出集成解决方案 旨在加速企业级AI代理的检索增强生成(RAG)流程并实现规模化部署[1][2] - 解决方案采用NVIDIA AI数据平台参考设计 结合VAST InsightEngine技术 将原始数据转化为AI就绪数据集[3][7] - 思科AI POD现可配置VAST InsightEngine 成为首批提供NVIDIA AI数据平台参考设计的系统之一[3][8] 技术架构与性能 - 采用思科UCS服务器与NVIDIA RTX PRO 6000 Blackwell服务器版GPU 为下一代AI应用提供卓越性能[3] - NVIDIA加速计算与AI软件确保低延迟模型交互 思科高性能以太网实现计算与数据无缝连接[4] - 将RAG管道延迟从分钟级降至秒级 实现近实时AI响应 支持多智能体并行工作负载[11] 企业应用价值 - 解决方案支持AI代理持续运行和动态学习 通过高数据吞吐量实现多步推理 提供情境化商业成果[11] - 集成Splunk环境可视化功能 通过思科AI Defense为每个令牌提供安全防护[4][7] - 具备基于角色的访问控制和合规审计功能 在保护敏感数据的同时加速AI创新[11] 市场定位与发展 - 该架构专门针对企业级AI代理工作负载设计 解决数据瓶颈和延迟问题 满足跨行业企业复杂需求[6] - VAST Data成为首家与思科AI POD集成的供应商 目前该解决方案已可通过思科订购[8] - 合作三方高管均表示该集成平台代表了企业AI演进的重要里程碑 为智能代理安全协作奠定基础[5]
Progress Software Announces General Availability of MarkLogic Server 12 and Breakthrough Results with Semantic RAG
Globenewswire· 2025-08-12 21:00
核心产品发布 - Progress Software宣布MarkLogic Server 12全面上市 该版本引入语义搜索和图检索增强生成(RAG)能力 帮助企业在可信数据基础上构建生成式AI应用 [1] - 新产品支持本地和云端部署 具备原生向量搜索、虚拟视图、BM25相关性排序及高级语义算法等核心功能 旨在提升企业AI和分析的检索精度与效率 [2] 技术性能提升 - 采用语义搜索和图RAG方法的客户在概念验证中报告 大语言模型响应准确率平均提升33% 专家信息发现时间显著加速 [3] - 具体案例包括金融机构将LLM准确率从70%提升至95% 研究时间从数小时缩短至分钟级 制药企业将文档发现加速至秒级且正确答案增加73% [9] 客户实施成效 - 客户CAS通过结合MarkLogic与AWS服务 将产品交付周期从18个月压缩至90天 实现数据价值转化和上市速度提升 [4] - 农业企业通过AI研发中心将正确答案率从50%提升至90% 食品技术公司实现99%的LLM输出准确性与完整性 [9] 行业应用拓展 - 全球研究机构及公共部门已利用该技术从科学数据、专有数据和公共数据中提取深度洞察 [2] - 公司高管强调基于RAG的技术正推动企业从实验转向构建可解释、安全且符合业务目标的AI系统 [5]
搜索智能体RAG落地不佳?UIUC开源s3,仅需2.4k样本,训练快效果好
机器之心· 2025-06-17 08:10
核心观点 - Agentic RAG 当前面临优化目标偏离、检索与生成耦合、评价标准不准确等挑战 [8][9][14] - s3 方法通过 Search-Select-Serve 范式和 Gain Beyond RAG 奖励函数,显著提升训练效率和生成效果 [1][16][17] - s3 仅需 2.4k 训练样本,在多个领域问答任务中超越数据规模大百倍的基线模型 [1][22][25] RAG 发展轨迹 - Classic RAG:使用固定 query 和 BM25 等检索器,生成器对结果无反馈 [7] - Pre-RL-Zero Active RAG:引入多轮 query 更新和 prompt 引导检索,如 IRCoT 和 Self-RAG [7] - RL-Zero 阶段:强化学习驱动检索行为,代表方法包括 DeepRetrieval 和 Search-R1 [7] 当前 RL-based Agentic RAG 的挑战 - 优化目标偏离:Exact Match 指标过于苛刻,导致模型优化答案 token 对齐而非搜索行为 [9][10] - 检索与生成耦合:无法区分性能提升来自更好的搜索还是更强的语言生成对齐能力 [11][12] - 评价标准不准确:传统 QA 指标与搜索质量关联有限,search-oriented 指标无法体现信息利用效果 [14] s3 方法设计 - 核心思想:只训练搜索器、冻结生成器,以生成结果提升为奖励 [16] - Gain Beyond RAG:衡量搜索到的上下文相比初始 top-k 检索结果是否带来真实增益 [17] - Generation Accuracy:结合 span 匹配和 LLM 判断,与人类判断一致率达 96.4% [18][32] 训练与优化 - 采用 PPO 进行策略优化,预筛除 naive RAG 能答对的样本,集中训练需要新检索信息的任务 [19][20] - 训练总时间仅需 114 分钟,比 Search-R1 的 3780 分钟大幅减少 [21][22] - 训练样本仅需 2.4k 条,比基线方法减少约 70 倍 [1][22][25] 实验分析 通用 QA 任务 - s3 在五个数据集上实现最优表现,平均准确率优于 Search-R1 和 DeepRetrieval [23][24][25] - 使用不同下游 LLM(Qwen2.5-7B/14B-Instruct、Claude-3-Haiku)均展现稳定性能 [24] 医学 QA 任务 - s3 在医学领域展现强泛化能力,在 MedQA-US、MedMCQA 等数据集上优于基线 [26][27] - 使用不同语料库(Wikipedia2018 和 MedCorp)均保持稳定性能,无过拟合趋势 [27] 消融实验 - 原始问题作为检索起点有助于明确搜索目标,避免策略偏离主题 [31] - 文档选择机制减少输入 token 2.6 至 4.2 倍,提升效率并减少噪声干扰 [31] - s3 设计在准确性、训练效率和推理速度上达到最优平衡 [29][30]