Workflow
RAG技术
icon
搜索文档
双核智能,驱动写作;审校全程护航,辅助全程在线
21世纪经济报道· 2025-12-29 15:45
常闻以"知识审校"为核心能力,结合大模型技术与权威知识库,为用户提供一套完整的内容生产与质量控制系统。如果你需要写得正确、写得合规、写得 符合事实,常闻写作助手就是为你设计的高标准内容生产工具。立即申请试用吧! 核心能力——知识审校,不只是改错字,而是校事实 市面上大多数写作工具,只能解决:错别字、语法问题、基础表达不通顺,但在真实工作中,真正棘手的问题是: 事实是否准确? 概念是否混用? 表述是否规范、合规? 专业术语是否使用正确? 基于常闻科技积累的海量权威数据资源,产品构建了多领域专业知识库,并与大模型进行深度融合,使系统能够从事实、知识与规范层面对文本进行审 校,而不仅是语言层面的检查。 一句话总结:别人帮你检查"字对不对",常闻写作助手帮你检查"内容对不对"。 功能一览 智能生成: 输入核心观点或数据,瞬间生成高质量的新闻通稿、工作汇报、调研报告。 多格式支持: 无论是简短的社交媒体文案,还是长达百页的深度白皮书,均可一键生成初稿,大幅缩短起草时间。 图书出版 痛点: "三审三校"流程繁琐,人力成本高,且难以发现专业性硬伤。 常闻方案: 充当"初审+质检"双重角色。在编辑介入前完成第一轮深度清洗,标 ...
下一个“AI卖铲人”:算力调度是推理盈利关键,向量数据库成刚需
华尔街见闻· 2025-12-24 12:17
AI基础设施软件行业概览 - 生成式AI应用加速渗透,AI基础设施软件成为应用落地的关键“卖铲人”,行业正迎来黄金发展期 [1] - 与模型训练环节被巨头垄断不同,推理和应用部署环节为独立软件厂商打开了新的商业空间 [1] - 当前两类产品最为关键:算力调度软件和数据类软件 [1] 算力调度软件 - 算力调度能力是决定模型推理服务盈利水平的核心变量,直接决定毛利率 [1][6] - 在单日10亿查询量场景下,使用H800芯片,单卡吞吐能力每提升10%,毛利率能够提升2-7个百分点 [1][6] - 敏感性分析显示,当单卡吞吐从基准值的0.6倍提升至1.4倍时,毛利率可从52%提升至80% [6] - 海外云厂商毛利率差异显著,2025年三季度谷歌云毛利率43.3%,微软智能云34.6%,亚马逊AWS仅为23.7%,硬件调度能力影响关键 [8] 国内厂商算力调度实践 - 国内模型价格战激烈,成本控制至关重要,例如Deepseek V3定价为每百万token输入2元、输出3元,远低于海外同类产品1.25-5美元的价格 [5] - 华为Flex:ai实现异构算力统一调度,通过芯片级切分技术,在特定场景下可将平均利用率提升30% [5] - 阿里巴巴Aegaeon实现token级动态调度,将10个模型所需GPU数量从1192张锐减至213张,资源节约率达82% [5] - 英伟达Run:ai可将GPU利用率提升5倍,Deepseek自研调度系统实现成本利润率545% [6] 向量数据库与RAG技术 - 向量数据库是RAG应用的刚需基础,Gartner预测2025年企业RAG技术采用率将达68% [1][10] - 2024年全球已有45%的企业在智能客服、数据分析等场景部署RAG系统 [10] - 向量数据库核心价值在于支撑海量数据的毫秒级检索,需在亿级数据规模下保持高QPS实时检索能力 [10] - 从2024年四季度开始,通过API接口接入大模型的Token消耗量一年内翻了近10倍,直接拉动了向量数据库需求 [11] 数据库格局重塑 - 生成式AI时代,数据架构正从“分析优先”转向“实时运营+分析协同”,高频、低延迟的实时事务处理需求凸显OLTP数据库优势 [12] - MongoDB凭借低门槛、高弹性契合中小客户AI落地需求,2026财年一至三季度核心产品Atlas收入增速分别为26%、29%、30% [15][16] - MongoDB在2025年2月以2.2亿美元收购Voyage AI补齐向量检索能力,其嵌入模型在HuggingFace RTEB测评中排名前列 [16] - 2026财年三季度MongoDB毛利率达76%,预计年底经营利润率达18%,全年营收增长率约21%-22% [16] 数据平台厂商的应对策略 - Snowflake与Databricks选择向上下游纵向拓展,打造全栈工具链 [15][17] - Snowflake 2025财年收入达36.26亿美元,同比增长29.21%,预计2026财年收入44.46亿美元 [17] - Databricks 2025年年化收入超48亿美元,同比增长55%,数据湖仓产品年化收入超10亿美元,净留存率超140% [17] - 截至2026财年三季度,Snowflake年消费超100万美元的高价值客户达688家,福布斯全球2000强企业中已有766家成为其客户 [17] 存储架构技术升级 - AI推理进入实时化、PB级数据访问新阶段,存储IO性能至关重要,LLM推理的KV缓存访问粒度仅8KB-4MB,向量数据库检索粒度低至64B-8KB [18] - 英伟达推出SCADA方案实现GPU直连SSD,将IO延迟从毫秒级降至微秒级,测试显示1颗H100 GPU的IO调度效率是Gen5 Intel Xeon Platinum CPU的2倍以上 [18] - 向量数据库需进行技术升级,包括采用GPU适配的列式存储、将检索算法改为GPU并行版本、自主管理GPU显存分配 [19]
一个 RAG 项目,在真实训练中是怎么被“做出来”的?
36氪· 2025-12-19 08:11
RAG技术的本质与定位 - RAG技术远非简单的数据注入模块,而是重塑AI理解与决策的核心框架[1] - RAG项目不是简单的“加模块”技术问题,而是一整套数据与判断体系[1] - 决定RAG效果的关键并非“有没有资料”,而是“资料怎么被用”[2] - RAG项目是许多大模型走向“可用”的关键一环[11] - 在真实业务中,RAG往往不是过渡方案,而是长期存在的基础设施,是连接“稳定模型”与“变化世界”的桥梁[12][17] RAG项目的核心构成与挑战 - RAG项目由问题、参考材料、回答三部分构成,且没有一块是“天然可靠”的[3] - 用户问题本身可能存在问题,例如语义不清、上下文矛盾、逻辑跳跃或包含不合理意图,并非每个问题都值得被认真回答[4][7] - 参考材料并非权威答案,仅是候选证据,常存在与问题不相关、信息不完整、多条材料互相冲突或包含常识性错误等问题[5][8] - 最终交付物是用户能直接使用的回答,需满足理解用户真实意图、不违背材料事实、信息完整、表达自然等要求[9][14] - RAG项目中90%的难点在于“判断”而非“生成”,大量工作仍需依赖人类判断[1][9] RAG项目所需的核心能力 - RAG项目训练的是模型的三种底层能力:信息取舍能力、上下文对齐能力、结果导向能力[16] - 信息取舍能力指判断什么该用、什么不该用、什么只能作为背景[16] - 上下文对齐能力指确保回答是嵌在一段对话中的,而非独立存在[16] - 结果导向能力指目标不是“材料写了什么”,而是“用户看完能不能用”[16] - 项目中的许多关键判断,如材料不全是否要补、材料有错是否纠正、材料冲突信哪一条、历史对话有问题是否跳过,本质上是人类在替模型建立判断边界[10][15] RAG在对话式AI中的工作场景 - 在对话式AI助手场景中,RAG面对的是非标准问答的复杂结构[3] - 模型需要完成理解对话语境、判断材料有用性、整合信息、最终给出对用户有帮助的回答这一系列任务[3] - 从训练视角看,这本质上是材料阅读理解、问题理解、信息整合与表达控制的结合[3] - 系统输入通常包含一段历史对话、用户最新问题以及系统检索到的1–3条参考材料[6]
AI帮你做用户研究?这两大场景超实用!
搜狐财经· 2025-12-04 16:43
文章核心观点 - AI大语言模型正在变革用户研究行业,通过处理海量文本数据提升效率,使研究人员能专注于关键决策 [1] - AI在用户研究中的应用主要聚焦于短文本反馈分类和长文本分析洞察两大核心场景 [1] - AI是强大的辅助工具而非替代者,研究人员需在利用技术的同时守住专业底线 [11] 短文本反馈分类 - 针对短文本分类,存在通用模型分类和SFT微调模型分类两种主流AI解决方案 [2] - 通用模型分类适用于偶发、数据量不大或处于探索分类标准阶段的任务,操作灵活便捷,无需复杂训练数据 [3] - 通用模型分类使用门槛低,可利用常见对话式AI工具或API接口实现高效处理,但在处理高复杂度或深奥行业术语时可能出现偏差 [3] - SFT微调模型分类通过监督微调将通用模型培养为特定领域的专家,适合拥有大量历史数据、业务稳定、需长期监测且对准确率要求高的场景 [4][6] - SFT方案前期需投入精力准备高质量标注数据并进行训练,但成功后准确度与效率出众,缺点是分类标准发生根本变化时需要重新训练 [6] - 提升SFT模型效果的关键在于提供高质量的标注数据,需明确角色、说清任务、讲透规则、提供示例并引导模型进行思维链思考 [7] - 标注数据需确保准确并经交叉检查,同时覆盖各种场景以保持类别均衡,并随业务变化及时更新 [8][12] 长文本分析洞察 - 对于长文本分析,AI可化身“超级管家”,运用RAG等技术处理访谈记录等资料 [9] - 具体运作流程包括:整理切分文本构建知识库,搭建智能体并下达指令,AI根据问题检索相关原始语料并生成洞察报告 [9] - RAG技术极大提升了信息处理效率与完整性,能在几分钟内完成原本需数小时的工作,并基于数据关联分析发现深层洞察 [10] - 优化长文本分析效果需合理拆分文本保证语意完整,采用关键词加语义理解双重优化检索方式,控制上下文参考资料量,并通过指令明确工作规则防止AI“瞎编” [13]
零代码落地!DeepSeek+ChatWiki,打造企业专属智能客服
搜狐财经· 2025-11-27 10:51
产品解决方案核心价值 - 解决企业普遍存在的客服困境,如大促期间咨询爆单导致消息遗漏、新客服培训期长且回答质量差、夜间咨询无人响应导致订单流失 [2] - 通过DeepSeek大模型与ChatWiki的RAG知识库结合,为零代码快速搭建精准高效的AI客服系统提供可能 [2] - 全流程零代码操作,1天内即可完成部署,极大降低企业技术门槛与时间成本 [2] - 某教育平台接入后,夜间咨询响应率从0提升至100%,转化率直接翻倍 [8] 技术实现与功能特点 - 兼容全球20多种主流AI模型,企业只需申请DeepSeek API Key并在ChatWiki后台一键配置,技术小白也能轻松上手 [3] - 支持上传ODF、PDF、Word、Excel、网页链接等多种格式文档,自动完成文本清洗、向量化转换与QA分割以构建知识库 [4] - DeepSeek负责精准捕捉客户意图并从知识库提取信息,以自然流畅语言组织回复,避免大模型胡编乱造和传统知识库答案机械罗列的弊端 [6] - AI机器人可无缝接入H5链接、企业官网、微信公众号、小程序,以及飞书、钉钉等办公平台,实现全渠道覆盖 [8] 企业级管理与协作 - 提供精细化权限管理,管理员可按需为成员分配角色,精准管控知识库编辑和机器人配置权限 [10] - 实现数据隔离与安全管控,保障核心业务数据安全,同时提升团队协作效率,适配复杂组织架构需求 [10]
西部机场集团AI战略下的银川实践 “数智大脑”激活空港新动能
中国民航网· 2025-10-16 09:19
智慧机场建设方略 - 公司以4A架构为核心的智慧机场建设方略持续扎实推进,伴随“AI + 专项行动”全面深化 [1] - 企业级AI助理“小西”实现规模化应用,银川机场航站楼管理部弱电中心自主搭建“AI智能体+本地RAG知识库”融合平台 [1] - 该平台作为集团AI技术落地的重要标杆,首批覆盖安全、生产、培训等核心场景,将分散数据转化为决策能力 [1] 技术架构与核心优势 - 技术路径为“RAG + 本地大模型”,通过检索增强生成技术破解大模型“幻觉”难题,用本地部署保障数据安全 [1] - 采用RagFlow搭建本地知识库,集成DeepSeek大模型与自定义智能体,通过向量数据库实现“检索-推理-生成”全流程本地化运行 [2] - 该架构契合集团“数据专有、价值专享”的私域大模型建设原则,核心优势凸显 [2] - 平台通过Prometheus+Grafana监控体系实现检索延迟低于500ms、模型调用成功率超95%的生产级运行标准 [2] 运营效率提升 - 平台解决了知识分散、检索低效的瓶颈,值班人员检索“三大规程”从耗时十几分钟以上提升至秒级 [1][2] - 新员工独立处理工单的熟练度提升60%,相当于为每个班组配备了全天候“AI老师傅” [2] - 撰写事件调查报告无需在千余份历史文档中人工筛选,输入巡检记录后智能体自动匹配设备型号与历史故障案例 [1][2] 安全与风险管理 - 安全态势实现秒级研判,上传工单与巡检数据后,AI助理内生成含风险等级、趋势预判、处置建议的可视化报告 [2] - 该功能实现“一页总览”的全局管控,已助力受限航班保障及时率提升 [2] - 智能体输出“风险点+整改清单”,隐患锁定时间压缩至“分钟级” [2] 试点成果与推广 - 依托集团“1+N”数字化协同模式,弱电中心将试点成果向全部门辐射 [3] - 安全质量室上线“法规制度指引助理”,实现千余项民航规章的“秒级检索”,替代传统“翻册核对” [3] - 引入隐患风险库的“方案智慧助理”,在施工方案审查中自动识别合规缺口,推动管理从“事后整改”向“事前预防”升级 [3] 未来发展规划 - 平台与集团“小西”AI助理形成能力互补,其多模态扩展方案未来将实现安检图像分析、语音交互等功能 [3] - 按照建设路线图,平台将逐步接入航班动态、旅客服务、能源消耗等鲜活数据,推动AI能力向“预测决策”跨越 [3] - 该实践验证了RAG技术在航空领域的独特价值,正逐步推动该架构在西北机场集群的规模化部署 [3]
最新Agent框架,读这一篇就够了
自动驾驶之心· 2025-08-19 07:32
主流AI AGENT框架 - 当前主流AI Agent框架种类繁多,各有侧重,适用于不同应用场景 [1] - 主要框架包括LangGraph、AutoGen、CrewAI、Smolagents和RAGFlow [2] - 各框架特点鲜明,LangGraph基于状态驱动,AutoGen强调多Agent对话,CrewAI专注协作,Smolagents轻量级,RAGFlow专注RAG流程 [2] CrewAI框架 - 开源多智能体协调框架,基于Python,通过角色扮演AI智能体协作完成任务 [3] - 核心特点包括独立架构、高性能设计、深度可定制化和全场景适用 [4] - 支持两种模式:Crews模式(智能协作团队)和Flows模式(事件工作流) [7] - 拥有超过10万认证开发者社区,生态活跃 [8] - 通过平衡易用性、灵活性与性能,帮助构建智能自动化系统 [9] CrewAI使用流程 - 创建项目结构清晰,遵循Python最佳实践,降低操作门槛 [11][12] - 配置文件与实现代码分离,便于调整行为 [13] - 可定义具有特定角色、目标和背景的AI agent [14] - 支持为agent分配具体工作并设置协作流程 [15][16][17][18] - 通过简单代码即可实现agent协同工作 [19][20] - 提供环境变量配置和依赖安装的便捷方式 [21][22][23] - 运行后可实时观察代理思考和输出,最终报告自动保存 [25][26] LangChain框架 - 由LangChain创建的开源AI代理框架,基于图的架构管理复杂工作流 [26] - 状态功能记录并追踪AI系统处理的所有信息 [30] - 支持创建反应式agent,配置LLM参数和自定义提示 [32][33][34][35] - 提供静态和动态两种提示类型 [36][37][38] - 支持记忆功能实现多轮对话 [39][40] - 可配置结构化输出,通过Pydantic模型定义响应格式 [41][42] - 推出LangGraph Studio可视化界面,降低使用门槛 [43] AutoGen框架 - 微软开源框架,支持多Agent对话协作完成任务 [44] - 统一接口设计,支持自动回复和动态对话 [44] - 提供易用灵活的开发框架,加速智能体AI研发 [46] - 核心特性包括多智能体对话、LLM与工具调用、自主工作流等 [46][49][50] - 提供开箱即用案例系统,覆盖多领域 [51] - 支持无代码执行和代码执行器配置 [53][54][55] - 代码执行器可在沙盒环境安全运行代码 [57][58][59][60][61][62][63][64] Smolagents框架 - HuggingFace推出的轻量级Agent开发库 [66] - 设计理念为"低门槛,高天花板,可拓展" [67] - 主要特点包括简洁实现、一流代码代理支持、通用工具调用等 [68][69] - 支持Hub集成,模型无关,可处理多模态输入 [70][71] - 提供丰富工具支持,包括MCP服务器、LangChain工具等 [72] - 安装简单,示例代码简洁明了 [74][75] RAGFlow框架 - 端到端RAG解决方案,专注深度文档理解 [75] - 核心能力包括高质量文本切片和异构数据源支持 [77][78] - 可智能识别文档结构,处理复杂格式非结构化数据 [77] - 支持多种文件类型,包括Word、PPT、Excel、图片等 [78] - 提供可控文本切片,多种模板选择 [77] - 适用于文档解析、知识问答和多模态数据处理 [79][86] 框架对比与选择 - CrewAI适合多智能体协作场景,如内容团队和市场分析 [80] - LangGraph适合复杂状态机和多步骤任务编排 [81] - AutoGen适合研究型任务和交互式应用 [82][86] - Smolagents适合快速开发和私有化部署 [82][86] - RAGFlow是处理多模态文档的首选方案 [82][86] - 选择依据包括协作需求、流程复杂度和开发轻量级要求 [86]
大模型专题:2025年大模型智能体开发平台技术能力测试研究报告
搜狐财经· 2025-08-14 23:48
测试概述 - 测试背景聚焦大模型驱动的智能体在产业智能化转型中的多场景渗透态势,评估其知识增强、流程编排和智能决策能力 [7] - 测试选取阿里云百炼、腾讯云智能体开发平台、扣子及百度智能云千帆四个平台,围绕RAG能力、工作流能力和Agent能力展开 [7] - 测试方法构建标准化框架,涵盖场景构建、数据集设计、智能体配置及问题集设计,确保与实际业务高度贴合 [11][12] RAG能力测试 - 文本问答表现优异,单文档及多文档问答准确率超80%,但拒答与澄清处理差异显著,腾讯云对知识库外问题实现100%拒答 [20][21] - 结构化数据问答中百度智能云千帆表现稳定,多表关联查询准确率较高,阿里云百炼和扣子存在信息遗漏与聚合误差 [23][27] - 图文问答中阿里云百炼、腾讯云及扣子图片识别能力较强(83.3%-91.7%),但配图输出率分化,百度智能云千帆因流程bug识别率低 [30][33] 工作流能力测试 - 订单修改场景端到端准确率61.5%-69.2%,腾讯云意图识别准确率达93.3%,参数提取是主要差异点 [36] - 各平台在意图识别环节准确率达100%,但阿里云百炼和腾讯云参数提取准确率(75%)高于扣子和百度智能云千帆(61.5%) [37] - 工作流配置呈现差异化设计,腾讯云采用全局Agent机制,阿里云百炼和扣子分离对话与任务执行引擎 [40] Agent能力测试 - 单工具调用完成率83%-92%,多工具协同及提示词调用有提升空间,腾讯云因工具生态完整表现均衡 [48][50] - 任务分解能力标准化,如行程规划场景均能识别路径规划+天气查询+联网搜索工具组合需求 [48] - 平台工具生态依赖自身资源,百度整合文库/百科,腾讯打通文档/地图,扣子支持轻量化插件开发 [49] 总结与展望 - 平台基础能力趋同但路径分化,需在场景深度适配、技术链厚度构建、生态广度拓展上持续发力 [1] - 当前技术需优化自然语言到结构化查询的精准映射,增强字段格式兼容性校验 [28] - 工作流系统仍依赖人工干预,需结合业务经验与技术特性进行动态校准 [43]
VLA:何时大规模落地
中国汽车报网· 2025-08-13 09:33
VLA技术发展现状 - 理想i8成为首款搭载VLA司机大模型的车型,主打"像家人一样懂你"的辅助驾驶体验 [2] - 博世认为VLA短期难以落地,坚持投入一段式端到端技术,因多模态对齐和数据训练困难 [2] - 行业对VLA落地时间存在分歧,乐观预测2025年为元年,保守估计需3-5年技术成熟 [2][12][13] 技术路线对比 - 模块化端到端保留部分人工设计接口,存在感知与决策衔接难题 [2] - 一段式端到端采用全局优化模型,特斯拉FSD V12代码量从30万行缩减至2000行 [4] - VLA通过思维链实现可解释性决策,在潮汐车道等复杂场景表现优于传统端到端 [4][5] - VLA单日可完成30万公里仿真测试,显著降低实车数据依赖 [5] 技术演进路径 - 行业主流从端到端+VLM双系统转向VLA原生融合架构 [6] - 端到端+VLM需同步处理TB级视频流与百亿参数模型,车载算力紧张 [6] - VLA通过对比学习实现多模态特征对齐,仿真复现率达99.9% [7] - 理想汽车通过端到端+VLM升级至VLA架构,实现空间理解等四大能力 [5] 算力与芯片挑战 - 当前智驾芯片算力不足,英伟达Orin(254TOPS)不支持语言模型直接运行 [9] - 英伟达Thor芯片实际算力缩水,基础版仅300TOPS [9] - VLA低速自动驾驶需10赫兹运行频率,高速需20赫兹 [9] - 车企加速自研芯片:理想马赫100计划2026量产,特斯拉AI 5算力或达2500TOPS [11] 落地时间表 - 短期(2025-2026):特定场景如高速路/封闭园区应用 [14] - 中期(2027-2029):算力达2000TOPS时覆盖城市全场景,接管率或低于0.01次/公里 [14] - 长期(2030年后):光计算架构+脑机接口实现类人直觉决策 [14] - 需突破多模态对齐、训练效率、芯片能效比等关键技术 [14]
一文了解 AI Agent:创业者必看,要把AI当回事
混沌学园· 2025-07-16 17:04
AI Agent 的核心重构 - 智能系统的进化本质是对"认知-行动"闭环的迭代 [1] - 大语言模型(LLM)突破在于破解人类语言符号编码逻辑,赋予机器近似人类的语义推理能力 [2] - 当前LLM如同未开化的原始大脑:拥有海量知识但缺乏主动调用能力,能解析逻辑但无法规划连续行动 [3] 记忆系统 - 将静态"知识存储"转化为动态"认知流程"是智能体的第一重突破 [4] - 短期记忆类似工作内存,负责实时处理任务上下文(如多轮对话记忆) [10][11] - 长期记忆作为"认知基因",通过向量数据库储存用户偏好和业务规则(如电商场景的购物偏好记忆) [12] - 双重记忆机制使智能体具备学习能力,能总结经验优化未来决策(如客户投诉处理方案优化) [14][15] 工具调用能力 - 工具调用是智能体突破认知边界的关键 [17] - 相比RAG技术仅提供数据访问,智能体可将外部信息转化为可处理的符号流(如金融数据API调用) [18][19][20] - 工具多样性决定认知边界广度(数学计算器/图片识别插件等场景应用) [26][27] - 在企业办公场景可整合数据分析工具和文档编辑工具完成复杂任务 [24] 规划模块 - 规划模块破解复杂任务的"认知熵增"(如餐厅预订任务的思辨链拆解) [28] - 在项目管理中可拆解子任务、监控进度并动态调整规划 [30][31][32] - 具备自我反思优化能力,通过复盘提升复杂任务处理效率 [34][35] 商业应用前景 - 正在重塑企业软件底层逻辑,重新定义人机协作边界 [36][37] - 完成从"能思考"(LLM)到"知边界"(RAG)再到"会行动"的完整闭环 [38] - 未来可能在医疗(病历分析)、教育(个性化学习)等领域带来变革 [45] - 混沌AI创新院开发了可落地的AI Agent解决方案,已在3000+实战案例中应用 [51][52]