Workflow
多智能体协作
icon
搜索文档
还在纠结是否入门大模型?别人已经发了第一篇顶会!
自动驾驶之心· 2025-07-14 14:20
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需要关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调大模型等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受到行业重点关注 [1] 大模型优化课程介绍 - 课程系统性地探讨大模型的前沿优化方法,重点研究参数高效计算、知识动态扩展和复杂推理三大方向的关键技术 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)等动态知识注入技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等高级推理范式 [2] 课程解决的问题 - 帮助学员系统掌握大模型相关理论知识,形成清晰的体系 [3] - 解决动手能力差、无法复现论文的问题,协助开发设计新模型 [3] - 解决论文写作和投稿难题,积累写作方法论并获得投稿建议 [3] 课程收获 - 掌握大模型优化的核心算法,包括结构化剪枝、低比特量化、动态检索等关键技术 [9] - 获得Coding能力增强,在baseline代码和可用数据集上高效展开研究 [9] - 撰写出论文初稿,可能产出一篇不错的论文 [9] 课程大纲 - 大模型剪枝与稀疏化算法优化:详解让大模型体积更小、运行更快的方法 [19] - 大模型量化加速全景:从数据位宽到编译来优化大模型的加速 [19] - 参数高效微调(PEFT)革命:介绍用少量计算资源让大模型适应垂类任务的高效微调算法 [19] - 基于RAG的大模型知识动态扩展范式:解决大模型的事实性错误和知识更新滞后问题 [19] - Chain-of-Thought推理进阶:针对让大模型分步骤思考解决复杂问题的算法进行深入剖析 [19] 课程资源 - 提供Baseline代码,包括LLM-Pruner、GPTQ、LLaVA等开源项目 [16] - 必读基础论文包括GPTQ、Sheared LLaMA、TVM等 [18] - 数据集来自于公开数据集,根据具体任务选用 [13] 招生要求 - 具备深度学习/机器学习基础,熟悉Python和PyTorch [6] - 最好具备4张4090显卡或以上设备性能的机器,最低不少于2张4090显卡 [15] - 掌握基本的编程语言,熟练使用PyTorch等深度学习框架 [15]
马斯克发布“地球最强AI模型”Grok 4:横扫所有榜单,在“人类最终测试”超越人类博士”!
AI科技大本营· 2025-07-10 15:14
Grok 4发布会核心亮点 - 发布会延迟1小时引发社交媒体热议,评论数达4200条,转发超2000次,点赞破万,140万观众在线等待[1] - 马斯克团队通宵进行"最后一次大规模训练",暗示产品重大升级[3] - Grok 4被定义为"对AI能力边界的悍然宣告",超越常规模型迭代[4] 性能突破与基准测试 - **HLE测试**:文本模式得分26.9%,工具加持后飙升至41.0%,"重思考"模式达58.3%,较竞品15%-25%区间实现翻倍提升[5][6][9] - **ARC-AGI-2测试**:以15.9%得分创SOTA纪录,达商业模型两倍水平[12] - **综合指数**:Artificial Analysis智能指数73分居首,超越o3-pro、Gemini 2.5 Pro等[15] - **学科专项**:AIME 25数学赛满分100%,GPQA测试88.9%得分[16] 技术架构三大支柱 1. **多智能体协作**:采用"研讨小组"机制,多个智能体独立解题后整合最优方案,实现测试时计算精度跃升[21] 2. **第一性原理哲学**:以"最大化追求真相"为核心,强调物理法则为终极检验标准,规避模板化答案[22][23] 3. **算力投入**:20万张H100 GPU集群训练,训练量较Grok 2提升100倍,专项强化推理能力[24][26] 现实应用场景 - **代码能力**:4小时完成FPS游戏开发,自主处理3D模型与纹理贴图[29] - **科学模拟**:生成黑洞碰撞动画并解释物理原理,实现后牛顿近似法编程[27] - **商业决策**:在Vending Bench模拟中净资产达第二名模型两倍[31] - **科研加速**:生物医学机构Arc Institute用其分析百万级实验数据,将数周工作缩至分钟级[35] 商业化布局 - **订阅计划**:SuperGrok年费300美元(标准版),Heavy版3000美元/年含抢先体验权[41] - **API性能**:输出速度75 tokens/s,介于o3(188 tokens/s)与Claude 4 Opus(66 tokens/s)之间[38] - **多模态规划**:Foundation Model V7版本数周内推出,将解决图像理解"毛玻璃效应"[39] 未来展望 - 2024年目标:生成可观看的半小时AI电视节目[42] - 2025年规划:推出完整AI电影及高质量游戏[42] - 长期愿景:推动科学发现,预计年底产出新技术,2025年突破物理学边界[40][43]
师兄自己发了篇自动驾大模型,申博去TOP2了。。。
自动驾驶之心· 2025-07-09 20:56
大模型在自动驾驶领域的应用趋势 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行VLA、VLM方案 [2] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [2] - CoT方案和VLA+强化学习等高级推理范式成为行业重点 [2] 大模型优化技术研究方向 - 参数高效计算:研究剪枝稀疏化和量化加速等轻量化方法 [3] - 知识动态扩展:探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [3] - 复杂推理优化:研究链式思维(CoT)和强化学习优化(GRPO)等范式 [3] 课程核心内容 - 系统探讨大模型前沿优化方法,包括参数压缩、知识扩展和推理优化 [3] - 关键技术涵盖结构化剪枝、低比特量化、动态检索、多跳推理等 [3] - 实验平台使用主流大模型如LLaMA、GPT,结合理论讲解与实践 [3] 课程目标与收获 - 帮助学员系统掌握大模型优化理论,形成清晰知识体系 [8] - 提升Coding能力,实现论文复现与模型开发 [8] - 提供论文写作方法论、修稿指导与投稿建议 [8] 课程招生与要求 - 招生对象:大模型方向本硕博、申硕申博、AI领域从业者 [9] - 招生人数:6人/期,至多8人 [5] - 要求:具备深度学习基础,熟悉Python和PyTorch,有研究热情 [10] 课程大纲与时间安排 - 12周在线科研+2周论文指导+10周论文维护期 [9] - 每周主题涵盖大模型剪枝、量化加速、PEFT、多智能体协作等 [20] - 最终产出论文初稿,具备投稿潜力 [9] 实验与资源支持 - 提供Baseline代码,涵盖剪枝、量化、多模态推理等方向 [19] - 数据集采用公开资源或垂类自定义数据 [17] - 硬件要求最低2张4090显卡,建议4张或租赁云服务器 [15] 学术支持与成果预期 - 导师提供定制化研究idea,目标SCI 1~4区或CCF A/B/C级别论文 [22] - 课程交付价值包括科研流程、写作方法、论文初稿 [22] - 答疑周期为6个月,确保后续研究支持 [22]
大模型在自动驾驶后期的落地与研究方向有哪些?
自动驾驶之心· 2025-07-08 07:31
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受行业重点关注 [1] 大模型优化课程核心内容 - 课程系统探讨大模型前沿优化方法,聚焦参数高效计算、知识动态扩展和复杂推理三大方向 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等范式 [2] 课程技术重点 - 结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等关键技术 [2] - 使用LLaMA、GPT等主流大模型作为实验平台 [2] - 多智能体协作和多模态理解等前沿方向 [2][3] 课程安排与产出 - 12周在线小组科研+2周论文指导+10周论文维护期 [7] - 每周1-1.5小时课程,涵盖大模型剪枝、量化加速、PEFT、多智能体协作等主题 [18][20] - 最终产出包括论文初稿、写作方法论、投稿建议 [6][7] 学员收获 - 系统掌握大模型优化理论体系,解决知识零散问题 [6] - 获得导师提供的定制化研究idea和baseline代码 [7][17] - 提升Coding能力,掌握论文写作与投稿技巧 [6][7] 技术要求与资源 - 需具备PyTorch和Python基础,建议配备4张4090显卡 [13] - 提供公开数据集和Baseline代码,包括LLM-Pruner、LLaVA等开源项目 [15][16][17] - 必读论文涵盖GPTQ量化、Sheared LLaMA剪枝等前沿研究 [17][19]
MCP 已经起飞了,A2A 才开始追赶
AI前线· 2025-07-07 14:57
谷歌云捐赠A2A协议 - 谷歌云将A2A协议捐赠给Linux基金会 包含智能体交互协议、SDK和开发者工具的开源礼包 [1] - 捐赠决策被解读为对Anthropic MCP协议和OpenAI函数的战略应对 同时反映行业对共建智能体经济底层规则的共识 [1] - 部分观点认为A2A协议起步较晚 正在追赶已经成熟的MCP协议 [2][3] MCP协议技术解析 - MCP协议解决AI模型安全高效调用现实世界工具和服务的基础问题 不同于A2A侧重智能体间通信 [4] - 开发MCP Server最关键环节在于工具描述 需详细说明功能、参数及输入输出内容 [6][7] - 现有API系统改造和从零开发是两种典型实施路径 前者关注协议转换 后者需构建完整业务逻辑 [7][8] - 接入客户现有技术体系时应尽量减少干预内部治理生态 重点优化对外接口的工具描述 [9] 模型兼容性与优化 - 国内外大模型存在兼容性问题 中文描述适合国内模型 英文描述更适合国外模型 [10] - 通过多轮测试优化工具描述清晰度 是提升模型调用准确性的关键手段 [11][12] - API设计应遵循正交原则 功能独立且高内聚 描述需明确使用场景和预期输出 [12] 协议性能与安全 - Streamable HTTP协议支持有状态通信、服务端主动通知和流式输出 优化金融等高实时性场景 [15] - 敏感数据应避免通过MCP提供 非敏感数据授权可使用OAuth 2.0等现有验证机制 [28] - 行业需要建立安全标准应对MCP服务潜在的黑盒风险 确保生态健康发展 [43] MCP与A2A对比 - MCP解决工具层面问题 A2A构建Agent间通信和协作的生态层 [32] - MCP类似专用工具 A2A提供通用协议使不同框架的Agent能够相互发现和协作 [33] - 腾讯计划在产品研发流程中接入A2A协议 实现多Agent协作 [34][35] 未来发展趋势 - 预计80%核心软件将推出自有MCP 形成多样化工具端口 [40] - 多Agent架构将向主从模式发展 人类角色需明确界定和验证关键节点 [41] - MCP协议完善将加速企业SaaS能力释放 安全可信问题成为发展重点 [42]
大模型这个坑,还有哪些可以发论文的点?
具身智能之心· 2025-07-05 10:25
大模型优化课程核心内容 - 课程聚焦大语言模型(LLM)和多模态模型的前沿优化技术,涵盖参数高效计算、知识动态扩展和复杂推理三大方向 [1] - 关键技术包括结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等,实验平台采用LLaMA、GPT等主流模型 [1] - 重点解决参数压缩(剪枝稀疏化/量化加速)、知识扩展(RAG/PEFT)和推理优化(CoT/GRPO)等核心挑战 [1] 课程结构与招生信息 - 采用12周在线科研+2周论文指导+10周维护期的教学模式,每期限招6-8人 [3][10] - 目标学员包括大模型方向本硕博学生、科研人员及AI从业者,需具备PyTorch和Python基础 [4][5] - 硬件要求最低配置2张NVIDIA 4090显卡,推荐4张或使用云服务器 [11] 课程产出与学术支持 - 学员将获得定制化研究idea、baseline代码及公开数据集,最终完成论文初稿 [10][13][14] - 论文指导覆盖SCI 1-4区和CCF A/B/C类会议,提供从选题到投稿的全流程方法论 [18] - 必读论文包括GPTQ量化(NeurIPS 2023)、Sheared LLaMA剪枝(ICML 2024)等前沿成果 [15][17] 课程技术模块 - 剪枝量化模块:涵盖结构化剪枝算法、GPTQ量化技术及TVM编译器优化 [15] - 知识扩展模块:通过RAG解决幻觉问题,采用PEFT实现垂类任务高效微调 [16] - 推理增强模块:包含Chain-of-Thought多步推理和GRPO强化学习优化 [16][17] - 多模态扩展:涉及LLaVA视觉语言模型和Flamingo多模态学习框架 [15][17] 教学安排与服务 - 每周1-1.5小时专题授课,包含多智能体协作、动态知识扩展等14个核心模块 [16][18] - 采用腾讯会议直播+小鹅通回放形式,提供6个月答疑周期和学术诚信监督 [18] - 课程产出包括顶会论文模板应用、动机凝练方法和选刊投稿策略 [18]
下一代大模型高效计算:参数压缩、硬件适配与多模态推理、CoT等方向论文指导班来啦!
自动驾驶之心· 2025-07-04 15:13
大模型优化课程核心内容 课程简介与目标 - 聚焦大语言模型(LLM)和多模态模型的前沿优化技术,涵盖参数高效计算、知识动态扩展、复杂推理三大方向[1] - 关键技术包括结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等[1] - 采用LLaMA、GPT等主流模型作为实验平台,结合理论讲解与实验实践[1] 课程结构与内容 - 12周在线科研+2周论文指导+10周论文维护期的完整科研周期[11] - 每周1-1.5小时课程,覆盖剪枝稀疏化、量化加速、PEFT微调、RAG知识扩展、CoT推理等核心技术[16][18] - 提供公开数据集和Baseline代码,包括LLM-Pruner、GPTQ、LLaVA等开源项目[15] 学员收获与产出 - 系统掌握大模型优化知识体系,解决零散知识整合问题[5] - 获得定制化研究idea,完成论文初稿并掌握顶会论文写作方法论[11][18] - 提升coding能力,在baseline代码基础上开展创新实验[11] 招生要求与资源配置 - 每期限招6-8人,要求具备PyTorch和Python基础,熟悉深度学习框架[3][7] - 硬件建议配置4张4090显卡,最低要求2张4090[12] - 需完成Linux开发环境搭建,掌握CUDA基础语法和代码辅助工具[12] 核心技术与参考文献 - 重点论文包括GPTQ量化(NeurIPS 2023)、Sheared LLaMA剪枝(ICML 2024)、LLaVA多模态(NeurIPS 2023)等[15][17] - 涉及TVM编译器优化(OSDI 2018)、PagedAttention内存管理(SOSP 2023)等系统级优化技术[17] - 涵盖Flamingo多模态学习(NeurIPS 2022)、CoT推理(NeurIPS 2022)等前沿算法[17]
智能体不断进化,协作风险升高:五大安全问题扫描
21世纪经济报道· 2025-07-03 08:36
智能体发展现状 - 2025年被称为"智能体元年" 标志着AI从对话生成跃迁到自动执行阶段 智能体成为下一代人机交互范式和商业化锚点 [1] - 国产手机厂商华为 荣耀 OPPO vivo 小米 三星在2024年下半年推出AI手机 智能体可跨App完成订票 点餐等复杂任务 [3] - 行业普遍共识认为智能体可控性和可信度是关键指标 安全合规问题是重要考量因素 [2] 技术实现路径 - 手机智能体采用两种技术路线:基于API接口的"意图框架"和依赖系统级权限的"视觉路线" [4] - 视觉路线通过无障碍服务实现"读屏+模拟操作" 但存在权限滥用风险 多家厂商智能体结束任务后仍保持权限开启 [5] - 微软Copilot的"Recall"功能因安全漏洞被英国监管机构调查 显示PC端同样存在隐私风险 [5] 安全风险分类 - 风险分为内在安全(核心组件漏洞)和外在安全(外部交互风险) 大模型作为"大脑"其漏洞在动态环境中会被放大 [2] - 70%受访者担忧AI幻觉和错误决策 医疗领域3%误诊率在千万用户中可导致数十万例误诊 [2] - 加拿大航空AI客服错误决策导致法律纠纷 成为企业承担AI责任的标志性案例 [3] 行业合规进展 - 2025年3-6月密集出台多项规则:《智能体任务执行安全要求》《移动互联网服务可访问性安全要求》等 强调用户授权和最小必要原则 [5][6] - 中国信通院联合七大厂商发布生态倡议 重点推进智能体与三方应用的接口打通工作 [5] - 广东省标准严格禁止通过无障碍权限操作第三方App 要求API接口协作和"双重授权"机制 [6] 提示词注入攻击 - 攻击分为直接提示词注入(诱导输出敏感内容)和间接提示词注入(通过外部数据隐藏指令) 在OWASP十大风险中排名第一 [7][8] - MCP协议成为间接注入主要入口 瑞士公司测试显示可通过恶意MCP劫持WhatsApp聊天记录 [9] - 腾讯发现Fetch服务是最大攻击入口 智能体读取恶意网页内容后可能被劫持 [10] MCP协议生态 - 魔搭开源社区有4052款MCP服务 开发者工具占比1196款 独立导航网站mcp.so收录超15000款服务 [11] - 阿里云百炼实施功能合理性 稳定性等审核 而Dify等平台审核较宽松 仅依赖用户协议约束 [11] - OpenAI Google 阿里 腾讯加入MCP生态 推动智能体互联互通 但缺乏统一安全认证标准 [11][12] 多智能体协作 - 行业正在推进ASL(Agent Security Link)技术 为智能体互连提供权限 数据等安全保障 [14] - IIFAA联盟成立工作组 致力于制定跨智能体交互安全规范 目前该领域安全机制仍属空白 [14] - 互联网大厂产品已开始强调多智能体协作机制 预示个人拥有多个智能体的趋势 [13]
从 OpenAI 回清华,吴翼揭秘强化学习之路:随机选的、笑谈“当年不懂股权的我” | AGI 技术 50 人
AI科技大本营· 2025-06-19 09:41
吴翼的职业发展路径 - 高中时期获得全国青少年信息学奥林匹克竞赛金牌并代表中国参加国际竞赛[2] - 保送清华大学交叉信息研究院姚班,师从图灵奖得主姚期智[2] - 本科期间在微软亚洲研究院和Facebook实习[2] - 2014年赴加州大学伯克利分校攻读人工智能博士学位,师从Stuart Russell[4] - 博士毕业后加入OpenAI担任研究员,参与多智能体捉迷藏项目[4][5] - 2020年回国任清华大学交叉信息研究院助理教授[5] - 2023年创办边塞科技,探索大语言模型与强化学习结合[6] - 2024年与蚂蚁技术研究院合作推出开源强化学习系统AReaL[6] 强化学习技术发展 - OpenAI多智能体捉迷藏项目展示复杂行为通过简单规则自发涌现,成为观看量最高的研究视频之一[5] - AReaL系统专为大规模推理模型设计,优化强化学习训练效率与灵活性[6][18] - 推理模型通过"thinking token"机制提升准确性,强化学习成为关键训练工具[18] - 与RLHF相比,AReaL更关注提升模型推理能力而非行为调优[21] - 大模型时代强化学习面临新挑战:模型规模增长1000倍,计算需求剧增[23] - 训练系统效率成为关键瓶颈,开源系统价值可能超过开源模型[32] AI行业趋势与挑战 - 创业公司面临极短时间窗口,错过关键节点可能导致失败[12] - 模型分化趋势:大而强的高成本模型与轻量化高效小模型并存[31] - 强化学习三要素中系统门槛最高,数据质量次之,算法相对次要[30] - 多智能体系统发展缓慢,部分任务仍需多模型协作[42] - 个性化交互成为AI产品核心竞争力,需适配不同用户类型[37] - 模型"幻觉"问题亟待解决,需建立不确定性认知机制[38][39] 技术突破方向 - 记忆表达与个性化交互是未来重要发展方向[40] - 强化学习Scaling Law仍将持续,后训练阶段提升空间显著[26] - 垂类模型在细分领域深度优化,如代码生成等场景表现突出[26] - 产品+强化学习组合仍是重要方向,生态可能呈现多层次结构[28] - 人机协作场景需AI更好理解人类意图,减少主动打扰[37]
百度心响上线iOS版,多智能体协作应用终于卷对地方了
量子位· 2025-05-27 11:53
产品发布与更新 - iOS版心响APP正式上线 苹果用户可通过APP Store搜索下载[2] - 安卓与iOS版本均实现完全免费且不限次数使用[3][4] - 新增网页生成功能 可自动将长文本转化为图文并茂的模块化网页[10] 核心功能与用户体验 - 支持多场景智能体协作 包括旅游攻略生成 深度研究 法律咨询 试题讲解等[14] - 旅游攻略功能可自动拆解任务 调用221篇攻略数据 节省用户37小时20分钟规划时间[17] - 深度研究功能可生成专业级分析报告 如小米3nm芯片报告包含技术解析 竞品对比 战略意义等模块[40] - 健康咨询功能集成多位医生AI分身 可逐步询问症状并生成综合诊断建议 覆盖100+检查报告类型[46][48] - 工伤赔偿计算功能依据地区法规自动生成赔偿方案 显示具体计算过程与法律依据[58][61] 技术架构与创新 - 采用1个主智能体+多领域智能体架构 主智能体负责任务拆解与调度[66] - 支持MCP Server接入 开发者可扩展智能体能力[66] - 实现完全自主执行 用户确认需求后可在后台自动运行并交付结果[62][69] - 当前覆盖10大场景200+任务类型 计划扩展至10万+任务类型[65] 市场竞争与行业趋势 - 智能体应用成为行业焦点 谷歌 Claude等厂商均重点布局[72][73] - 产品差异化体现在零门槛交互 无需邀请码/提示词工程 直接解决实际问题[69][79] - 未来将上线图片/文件输入功能 首页改版为个性化模式[70]