Workflow
大语言模型(LLM)
icon
搜索文档
AI大模型、具身智能、智能体…头部券商在WAIC紧盯这些方向
21世纪经济报道· 2025-07-29 19:01
世界人工智能大会(WAIC)概况 - 2025世界人工智能大会暨人工智能全球治理高级别会议于7月26日至29日在上海世博中心举办[1] - 以DeepSeek为代表的中国自主大模型实现里程碑式突破,中国AI模型层从"追赶式创新"向"引领式创新"转变[1] - 人形机器人为代表的具身智能热度持续升温[1] - 科技金融是驱动人工智能发展的重要引擎,需依托多层次资本市场形成"科技-产业-金融"良性循环[1] 头部券商参与情况 - 中信证券、中信建投证券、中金公司、华泰证券4家头部券商连续多年亮相WAIC[1] - 券商通过举办论坛与参展展示AI产业前沿实践及最新成果[1] - 中信集团携旗下20家企业连续第4年参展,中信建投承办AI+科产融创新发展论坛[2] - 中金公司连续第八年承办投融资主题论坛[6] - 华泰证券第五年与WAIC合作举办科技金融创新论坛[13] 主要研究报告与观点 中信建投《AI新纪元》报告 - 报告长达40万字/540页,覆盖AI全产业链从算力基础设施到应用场景落地[5][6] - 自ChatGPT发布后AI大模型向更强、更高效、更可靠方向发展,美国在强大模型领先,中国在高效性领先[6] - 2025年是Agent元年,推理需求带动算力需求爆发,国内算力自主可控趋势凸显[6] - 大模型快速迭代与供应链降本加速人形机器人商业化落地,但存在数据集不足等痛点[6] 中金公司研究成果 - 发布《科技金融》《具身智能:AI下一站》《人形机器人:商业与经济》等报告[7] - 具身智能是AI应用关键领域,人形机器人需求空间大[10] - 强调"耐心资本"对AI创新的重要性,需发挥政府资金长期视角并激活社会资本[10] - 繁荣股票市场可增强风投对AI早期投资意愿,如DeepSeek突破带动市场关注[11] 华泰证券研究焦点 - 过去四年发布元宇宙、碳中和、AI大模型及产业链重构报告,2025年聚焦智能体投资机会[14] - AI服务器革命中液冷、光模块、HBM等技术将催生千亿市值公司[18] - 大语言模型将从金融法律服务等常规脑力工作开始逐步替代人类[16] - 未来机器人、ARVR、无人驾驶车等可能成为AI 2.0时代硬件载体[16] 行业趋势判断 - AI大模型向更强大、更高效及更可靠方向发展[8] - 2025年是Agent元年和应用加速落地之年[8] - 具身智能商业化加速落地,人形机器人是重要方向[8] - AI服务器有望取代智能手机成为最大科技硬件品类,看好国产算力链机会[17] - 短期关注苹果换机,长期看好XR和具身智能发展机会[17]
Bill Inmon:为什么你的数据湖需要的是 BLM,而不是 LLM
36氪· 2025-07-26 14:42
大数据项目失败现状 - 85%的大数据项目失败,大多数企业无法从文本数据中提取价值 [2] - 2023年数据湖市场规模达152亿美元,增长20%以上,但实施效果不佳,被Bill Inmon称为"污水池"和"数据沼泽" [2] 通用大语言模型的问题 - ChatGPT每日运营成本高达70万美元,中型企业每月运行成本为3,000至15,000美元,处理10万次查询的API成本每月达3,000至7,000美元 [2] - 生成的是非结构化文本而非可操作数据,95%的内容与特定业务无关 [4][6] - 87%的数据科学项目未投入生产,因模型不可靠且会产生幻觉 [7] - 主要银行和跨行业公司投入数百万美元构建重复的通用模型,形成"军备竞赛" [8][10] 商业语言模型(BLM)的解决方案 - 由行业特定词汇(ISV)和通用商业词汇(GBV)组成,微软已与拜耳、Cerence等合作推出行业定制模型 [12][14] - 银行业BLM包含贷款、合规等术语,餐饮业涵盖菜系、运营等,词汇不重叠实现精准分析 [14][15] - 能将非结构化文本转为结构化数据,80-90%商业数据为非结构化,仅18%公司有效利用 [21] - 医疗、金融等行业应用显示:呼叫处理时间减少40%,转化率提高50% [17][23] 市场数据与实施路径 - 2024年AI市场规模达2350亿美元,2028年将超6310亿美元,70%企业仍处试验阶段 [10][25] - 预先构建的BLM覆盖90%行业需求,定制仅需调整不到1%词汇量 [24] - 实施步骤:评估现有文本分析→确定行业词汇→选择预建BLM→最小化定制→整合现有工具 [27] 非结构化数据挑战与机遇 - 每日产生3.28亿TB数据,2025年将达181 ZB,2024年企业管理非结构化数据量翻倍 [21][25] - 54%组织面临基础数据迁移困难,BLM可将数据负债转化为竞争优势 [27][28]
别再乱试了!Redis 之父力荐:写代码、查 bug,这 2 个大模型封神!
程序员的那些事· 2025-07-21 14:50
核心观点 - LLM作为编程辅助工具能显著提升效率,但需人类主导协作流程才能达到最佳效果[4][6][12] - 前沿LLM如Gemini 2.5 PRO和Claude Opus在代码审查、知识补充、设计优化等方面展现博士级能力[4][9][15] - 当前阶段LLM无法独立处理复杂任务,需通过精准提示和全量上下文输入实现价值最大化[6][7][16] LLM协同编程优势 - 代码质量提升:在Redis Vector Sets实现中通过Gemini/Claude审查提前消除潜在bug[4] - 开发效率飞跃:LLM可快速生成一次性测试代码,验证方案可行性并缩短迭代周期[4] - 知识边界拓展:帮助程序员快速掌握68000汇编等非擅长领域技术[5] 最佳实践方法论 - 上下文供给:需提供完整代码库、设计文档及头脑风暴记录,避免RAG机制削弱性能[7][8][16] - 模型选择策略:复杂问题推荐同时使用Gemini 2.5 PRO(语义理解)和Claude Opus(代码生成)[9][15] - 流程控制:禁止使用智能体自动化,需人工介入代码迁移与信息过滤[10][12][16] 行业争议焦点 - 智能体效用分歧:部分开发者认为Codex等智能体在移动场景下具备实用价值[19][20] - 领域依赖性:编程语言和问题领域显著影响LLM应用效果,需具体案例验证[23][24] - 提示工程成本:严谨的提示词设计所需脑力投入可能接近直接编程[25]
2025 Agentic AI应用构建实践指南报告
搜狐财经· 2025-07-20 16:08
Agentic AI核心概念与技术演进 - Agentic AI是基于大语言模型(LLM)的自主软件系统,通过感知、推理、规划与工具调用能力实现复杂任务自动化执行,技术演进从规则引擎发展到目标导向架构 [1][22] - 核心能力包括自然语言理解与推理(支持模糊指令逻辑分析)、自主规划与工具集成(通过思维链/树状思维分解任务)、记忆机制与闭环反馈(短期/长期记忆结合RAG技术) [3][25][28][31] - 系统分类:单Agent适用于特定领域简单任务(响应快、成本低),多Agent通过"主管-协作者"模型处理复杂任务(如投资分析、赛事诊断) [36][38] 技术架构与前沿技术 - 关键技术模块包括目标定义与任务管理(ReAct框架形成闭环)、环境交互与沙箱技术(硬件级虚拟化隔离)、多Agent通信协议(A2A/MCP协议标准化工具连接) [3][32] - 前沿技术包含Agentic RAG系统(动态获取最新数据)、Computer Use/Browser Use(自动化流程操作)、端到端训练内化模型能力 [4][25] 构建方案与场景适配 - 亚马逊云科技提供三类方案:专用Agent(Amazon Q,开箱即用)、全托管服务(Amazon Bedrock Agents,快速集成)、完全自建Agent(Strands Agents,深度定制) [1][12] - 选择依据包括任务确定性(专用Agent适合标准化流程)、灵活性需求(自建Agent满足特殊业务流程) [1] 行业应用案例与价值验证 - 金蝶国际:优化ERP系统智能提单流程,员工通过自然语言描述需求实现自动化单据提交 [1][12] - Formula 1:赛事根因分析从数周缩短至几小时,通过Agent分析日志数据提升诊断效率 [2][12] - 制造业:采购合同关键条款识别与物流单信息提取减少人工错误,金融领域:整合市场数据生成可视化决策报告 [4] 未来趋势与挑战 - 趋势:模型能力内化减少外部依赖、标准化协议推动"AgentOS"生态形成、通用与垂直场景分化(个人助理vs专业领域) [4][26] - 挑战:复杂任务推理链断裂、多Agent协同中的上下文丢失、幻觉问题需结合RAG提升输出可信度 [4][38] 市场前景 - 到2028年企业软件应用中33%将集成Agentic AI技术,技术发展推动各行业智能化变革 [26][5]
一文了解 AI Agent:创业者必看,要把AI当回事
混沌学园· 2025-07-16 17:04
AI Agent 的核心重构 - 智能系统的进化本质是对"认知-行动"闭环的迭代 [1] - 大语言模型(LLM)突破在于破解人类语言符号编码逻辑,赋予机器近似人类的语义推理能力 [2] - 当前LLM如同未开化的原始大脑:拥有海量知识但缺乏主动调用能力,能解析逻辑但无法规划连续行动 [3] 记忆系统 - 将静态"知识存储"转化为动态"认知流程"是智能体的第一重突破 [4] - 短期记忆类似工作内存,负责实时处理任务上下文(如多轮对话记忆) [10][11] - 长期记忆作为"认知基因",通过向量数据库储存用户偏好和业务规则(如电商场景的购物偏好记忆) [12] - 双重记忆机制使智能体具备学习能力,能总结经验优化未来决策(如客户投诉处理方案优化) [14][15] 工具调用能力 - 工具调用是智能体突破认知边界的关键 [17] - 相比RAG技术仅提供数据访问,智能体可将外部信息转化为可处理的符号流(如金融数据API调用) [18][19][20] - 工具多样性决定认知边界广度(数学计算器/图片识别插件等场景应用) [26][27] - 在企业办公场景可整合数据分析工具和文档编辑工具完成复杂任务 [24] 规划模块 - 规划模块破解复杂任务的"认知熵增"(如餐厅预订任务的思辨链拆解) [28] - 在项目管理中可拆解子任务、监控进度并动态调整规划 [30][31][32] - 具备自我反思优化能力,通过复盘提升复杂任务处理效率 [34][35] 商业应用前景 - 正在重塑企业软件底层逻辑,重新定义人机协作边界 [36][37] - 完成从"能思考"(LLM)到"知边界"(RAG)再到"会行动"的完整闭环 [38] - 未来可能在医疗(病历分析)、教育(个性化学习)等领域带来变革 [45] - 混沌AI创新院开发了可落地的AI Agent解决方案,已在3000+实战案例中应用 [51][52]
多模态大模型崛起:华泰证券预测应用奇点即将到来
搜狐财经· 2025-07-14 07:44
多模态大模型发展趋势 - 多模态大模型正迅速接近关键转折点,是大语言模型(LLM)演进的必然趋势 [1][5][6] - 原生多模态架构(MLLM)因全模态同步训练在性能、延时、部署上优势显著,但算力要求严苛,OpenAI和Google处于领先地位 [1][6] - 技术迭代推动图像生成转向易用性,视频生成在时长、清晰度、一致性持续突破,语音、音乐、3D领域同步拓展 [2][4] 商业化进展 - 全球商业化呈现三大趋势:海外快于国内、一级市场公司快于二级市场、多模态产品快于文本产品 [1][7] - 海外Chatbot类产品(如OpenAI、Anthropic)年化收入(ARR)超10亿美元,国内Chatbot商业化仍较初期 [1][7] - 国内年收入超1亿美元的AI公司(美图、快手、睿琪软件)均聚焦多模态产品 [1][7] 视频生成赛道表现 - 国内厂商在视频生成赛道全球化与商业化最成熟,字节Seedance 1.0、快手可灵(Kling)、MiniMax Hailuo 02位列全球榜单前列 [8] - 快手可灵上线10个月ARR突破1亿美元,标志国内视频生成从单点突破进入多点突破阶段 [2][8] 投资机会 - 算力侧:原生多模态模型及视频推理需求激增,视频Agent落地进一步催生算力需求 [9] - 应用侧:广告、零售、创作等领域AI化需求释放,国内视频生成模型领先 [9] - 推荐标的包括国产算力链(沪电股份、生益科技)及应用产业链(微软、奥多比、金山办公等) [9][14] 行业共识与未来方向 - 多模态大模型将成为行业核心发展方向,融合图像、视频、语音数据以拓宽AI应用场景 [4][15] - 原生多模态架构主流化及一级市场公司进展需重点关注,与市场认知存在差异 [5][7]
AGI没那么快降临:不能持续学习,AI没法全面取代白领
36氪· 2025-07-14 07:23
AGI发展瓶颈 - 当前大语言模型(LLM)缺乏人类持续学习能力 模型开箱即用的能力即为天花板 无法通过反复调试系统提示词达到人类经验积累的效果 [6] - 人类价值核心在于构建语境、反思失误、持续优化细节的能力 而LLM仅能通过文字说明被动学习 无法像人类通过实践主动适应 [7][8] - 强化学习微调(RL fine-tuning)存在技术局限 每项子任务需定制强化学习环境 难以实现人类编辑自主发现细节的成长路径 [8] 计算机操作智能体挑战 - 现有计算机操作智能体表现糟糕 执行链延长导致进度放缓 处理图像视频需额外算力消耗 [13] - 多模态数据先天不足 纯文本训练无法解决UI逻辑理解问题 类似用1980年文本数据训练GPT-4 [14] - DeepSeek研发案例显示 从GPT-4到o1耗时两年 计算机操作领域数据更匮乏、模态差异大 突破难度被低估 [15] AGI时间线预测 - 2028年AI或能处理小企业税务全流程 相当于GPT-4在语言模型的里程碑意义 但2026-2027年demo可能炫酷不实用 [17][18] - 2032年AI在职学习能力或媲美人类白领 七年时间跨度足以突破持续学习瓶颈 类比GPT-1到当前模型的进步速度 [19][20] - 本十年(2030年前)是AGI关键窗口期 依赖算力年增四倍的发展模式将终结 之后进展需靠算法突破 概率直线下跌 [22] 模型能力现状评估 - LLM在单次对话中展现灵光 但对偏好的理解会话结束即归零 长上下文窗口方案在非软件工程领域效果脆弱 [9] - 顶尖模型在擅长领域已展现推理能力 能拆解问题、揣摩需求、调整方向 部分场景实现零样本生成可用程序 [16] - 当前AI若停滞发展 仅能替代不到25%白领岗位 因无法持续学习适应偏好 上下文构建缺失使其难以成为真正"员工" [10]
当AI说“我懂你”,人类为何难被打动?
科技日报· 2025-07-09 09:22
你有没有试过深夜向聊天机器人倾诉烦恼,得到的却是一串精准但略显机械的安慰?现在,这些人工智 能(AI)对话助手已经越来越能"读懂人心",甚至比朋友更快给出建议,但我们却似乎难以真正被其打 动。 不久前,《自然·人类行为》上发表了一项研究,为人们揭示了这个令人深思的现象:人们确实愿意接 受来自人类的情绪支持,而不是来自AI的——哪怕这两者的回复内容几乎一样。 原标题:当AI说"我懂你",人类为何难被打动? 你是否也不相信AI能"懂"你? 50年前,美国芝加哥大学哲学家约翰·豪格兰德曾说:"AI的问题在于,计算机根本不在乎。"这个看法 至今深入人心,尤其在涉及AI和人类情感交互的领域。 这次,包括以色列希伯来大学科学家在内的团队开展了一系列实验,涉及超过6000名参与者。他们给参 与者展示了一些情绪支持的回复,这些回复都出自同一个AI生成式语言模型。只不过,科学家有时告 诉参与者这是AI写的,有时则说是人类写的。 当人们以为是在和人类交流时,他们对回复的评价更高,觉得更有同理心、更能带来情感上的共鸣;而 当他们知道是AI写的,即使内容一模一样,也会觉得这些建议缺乏温度,甚至让人有点失望。 为何我们更信任人类的情绪 ...
AI写综述,靠谱吗?
虎嗅· 2025-07-04 15:49
人工智能在科学文献综述中的应用进展 - 初创公司FutureHouse开发的人工智能系统PaperQA2能在几分钟内完成科学知识总结,准确度超过维基百科页面,并生成了约17000个人类基因的维基百科式条目 [1] - 基于人工智能的科学搜索引擎如Consensus和Elicit能通过查找、分类和总结出版物帮助撰写叙述性文献综述,但尚无法独立完成高质量的系统性综述 [2][4] - 南丹麦大学研究员Mushtaq Bilal开发的工具Research Kick和Scite系统能快速找出支持或反驳某个观点的文献并做出详细分析,显著提升文献综述效率 [4] 技术实现与挑战 - FutureHouse的PaperQA2系统通过搜索多个学术数据库并访问免费和付费论文全文来识别和总结最相关内容,但运行成本较高 [5] - Elicit和Consensus等工具只能搜索开放获取论文和摘要,无法检索付费墙后的全文,处理数百万篇全文需要极高计算成本 [5] - 系统性综述至少需要25个严谨步骤,目前人工智能工具如RobotSearch和RobotReviewer可辅助部分流程,但完全自动化仍需较长时间 [7][8] 性能评估与局限性 - FutureHouse团队测试显示,人工智能生成的文章出现"推理错误"的频率仅为人工撰写文章的一半,实现了"超人类水平科学知识综合" [6] - 人工智能科学搜索引擎的输出水平类似"赶工熬夜的本科生",建议仅用于优化综述特定环节而非独立完成 [4] - 生成式人工智能在阅读和评估论文方面表现良好,但在设计全面文献搜索等环节仍存在不足 [9] 行业发展趋势 - 国际系统性综述自动化协作组织致力于开发自动化工具,Evidence Review Accelerator网站提供多种工具以逐年缩短综述时间 [9] - 英国两家资助机构宣布投入超过7000万美元开发证据综合系统,推动非营利组织参与人工智能工具开发 [12] - 研究人员担忧人工智能可能导致更多低质量综述,但也可能通过快速检查文献提高工作水平 [10][11]
14%论文都有AI代写?Nature:每7篇就有1篇藏有ChatGPT特征词
量子位· 2025-07-04 15:02
LLM在学术写作中的使用现状 - 2024年PubMed上发表的150万篇生物医学研究摘要中,超过20万篇频繁出现LLM特征词,占比约14% [1] - 部分国家和学科中AI辅助写作比例已超过五分之一,且趋势持续上升 [3] - 自ChatGPT实现学术文本生成后,LLM被广泛融入论文写作流程,甚至出现合作撰写现象 [5] LLM的文本特征识别方法 - 研究团队分析2010-2024年1400万篇PubMed摘要,构建词汇二元矩阵计算超额使用指标 [10] - 2024年后"intricate"、"notably"等风格词超额使用,其中66%为动词(如"delving")、16%为形容词(如"crucial") [11] - 通过222个低频风格词+10个高频词组合计算,2024年论文中10%-11%摘要使用LLM,部分子库高达30% [13] 跨领域使用差异 - 计算领域和生物信息学等学科LLM使用率达20%,因技术迭代快需快速掌握新技术 [16] - 非英语国家(如中国、韩国)LLM辅助英语写作使用率15%,显著高于英语国家 [16] - 开放获取期刊《Sensors》LLM使用率24%,而《Nature》《Science》等顶刊仅6%-8% [16] 人为干预对特征词的影响 - 2024年4月起"delve"、"intricate"等ChatGPT特征词使用频率显著下降 [23] - 实验显示提示词干预可降低LLM特征词频率,但无法完全消除 [25] - Binoculars检测器对提示词修改后的文本敏感度降低,但无法准确区分真实与LLM生成文本 [27] 未来研究方向 - 需通过统计大量文本词汇频率(而非单篇检测)量化AI对学术文献的影响 [28] - 当前MGT检测器准确度受模型类型、文本类别和人为修改策略多重影响 [28] - 亟需建立AI参与学术写作的边界标准和使用规范 [28]