Workflow
多智能体协作
icon
搜索文档
4个月,创建20万个应用,这是背后的产品|对话百度秒哒
量子位· 2025-08-09 15:01
产品核心数据与市场定位 - 百度秒哒平台4个月内用户创建20万个无代码应用 [1] - 该数据在国内零代码领域处于TOP级别 [3] - 平台支持多智能体协作开发架构 集成百度地图 搜索 语音等生态能力 [8][19] - 后端支持一键部署数据库 实现长期数据存储功能 [24] 零代码产品定义与用户定位 - 零代码指应用生成 调试 部署 运维全流程脱离编码 [9] - 目标用户为无编程经验的群体 重点释放80亿非程序员人群的创意潜力 [11][13] - 3000万程序员与80亿非程序员创意潜力存在数量级差距 [13] - 典型用户包括文科生 艺术生及各行业从业者 其创意更贴近实际场景需求 [13] 交互设计与技术实现 - 采用LUI自然语言交互与GUI图形界面结合的混合模式 [15] - 初始创建阶段以对话式交互为主 后续迭代支持图形化微调 [15] - 智能体可调用百度生态工具 如地图API 短信服务等云能力 [19][21] - 系统自动匹配UI组件库 生成结果具备随机性差异 [22] 产品迭代与用户反馈 - 3月上线后新增数据库存储功能 解决用户数据持久化需求 [24] - 正在开发智能体行为可视化功能 展示PRD撰写 代码生成等过程 [24] - 通过"指令优化"功能辅助用户结构化表达需求 [28] - 支持多模态输入 允许上传图片草图生成应用 [28] 典型用户案例与生态建设 - 平台涌现"上班摸鱼神器"等创意应用 含蓝屏模拟 病毒警报等功能 [40][41] - 50岁医生成功搭建医院官网并上线百度搜索 [42] - 应用广场支持作品复制与二次开发 形成创意滚雪球效应 [43] - 设立用户社群与共创计划 功能迭代采纳用户投票建议 [52] 未来发展规划 - 分三阶段推进:C端工具→小B端商业支持→企业级系统建设 [46][48] - 2023年完成C端与小B端功能交付 启动企业级开发 [49] - 将提供源码下载功能保留底层调整灵活性 [45] - 实现域名购买 云部署等一站式服务 简化运维流程 [45]
这群95后,要为30亿人重造上网入口
混沌学园· 2025-08-09 12:08
核心观点 - 传统浏览器存在"价值错位",用户沦为浏览器的"操作奴隶",平均每天打开40个网站、切换26个标签页、手动填写20张表单[8][9][11] - Fellou浏览器通过引入"自主行动维度",将浏览器从"信息工具"重构为"任务执行者",实现"意图直达结果"[4][11][21] - 公司采用跨界思维整合RPA、多智能体协作和沙箱技术,实现浏览器能力的根本性重构[17][18][19] - 产品在效率层面实现数量级提升,复杂任务平均耗时3.7分钟,最快案例将3天工作量压缩至7分49秒[24] - 开创全新赛道而非简单叠加AI功能,在任务链完整性和多任务并行能力上表现突出,执行速度比同类快3倍[30][31] 诊断价值失洽 - 浏览器停留在"信息搬运工"阶段,用户期望直接获得结果却需要自行操作[3][9] - 典型矛盾:技术进步应使工具更智能,但用户反而成为"操作奴隶"[11] - 市场调研等场景存在大量重复劳动,消耗认知精力[10] 跨界寻药 - 整合企业级RPA技术,创造"浏览器级RPA"降低使用门槛[17] - 引入多智能体协作理念,在浏览器内核嵌入各司其职的Agent[17] - 采用操作系统沙箱技术创建"影子空间",实现后台任务隔离执行[18] 产品重构 - 角色定位从"信息工具"升级为"任务执行者",融合浏览器、Agent和工作流[21] - 选择独立浏览器而非插件形式,实现底层控制最大化[23] - 示例任务:自动收集用户反馈推文并生成结构化表格[23] 价值论证 - 效率提升达数量级:3天vs7分49秒的项目信息整理[24] - 产出质量超越竞品,60名内测用户认可其准确性和可读性[24] - 用户角色从执行者转变为策略制定者,实现并行任务处理[25] 对标验证 - 信息搜索维度:自动生成带引用的知识摘要而非链接列表[28] - 任务执行维度:智能规划完整流程并设计Hook机制应对中断[28] - 区别于对话式AI浏览器(如Edge Copilot)和搜索增强型产品(如Perplexity)[29]
喝点VC|BV百度风投:数据治理即生产力,现在是Data Agent的时刻
Z Potentials· 2025-07-30 11:37
编者荐语: 生成式 AI 下,数据治理已成为最快商业闭环。BV百度风投的本篇研究揭示 Data Agent 如何把"数据→洞察→行动"压缩到分钟级,带来 60%+ 效率跃迁与百 万美元级成本节约 以下文章来源于BV百度风投 ,作者探索明日的 BV百度风投 . BV百度风投官方公众号 作者| BV 软件组 引言|全文速览 生成式AI正把数据从静态资产推向实时决策的前台。 数据不再是 沉睡在表格里的行列,而是能被语义标注、即时调度、参与推理链路的数字化资源。当全球 数据量以每年十数ZB的速度膨胀,企业若仍停留在"人工找数+手动分析"的旧范式,就注定被压缩到边际。此刻崛起的Data Agent,本质上是一层嵌入模型、 工具与业务流程之间的新操作系统:它以自然语言驱动全栈数据管线,把"结构化读写 + 自动推理"变成分钟级的闭环,并直接映射到财务、营销、R&D等核 心KPI。 技术成本骤降、用户心智觉醒与资本加速下注正在同步发生。 三年前生成式推理百万token还要花60美元,如今降到不足一毛;AI搜索已占美国桌面端查询的 5%以上,表明市场已接受"问一句话,直接拿答案"的交互模式;而Databricks、Snowfl ...
Multi-Agent 协作兴起,RAG 注定只是过渡方案?
机器之心· 2025-07-19 09:31
从 RAG 检索增强到多层级状态演化,AI memory 系统崛起 - AI memory 系统正从短期响应向长期交互演进,为智能体注入持续经验能力 [2] - MemoryOS 采用层次化存储架构,将对话 memory 分为短期、中期和长期三层,通过 FIFO 和分段分页机制实现动态迁移 [2] - MemGPT 借鉴操作系统思想,将固定长度上下文视为主内存,通过函数调用在主上下文和外部存储间分页调度,支持大文档分析和多轮会话 [2] - ChatGPT Memory 采用检索增强生成(RAG)方式,通过向量索引检索用户相关信息并注入模型输入,实现对用户偏好和历史信息的记忆 [2] - RAG 侧重外部知识库检索和静态知识注入,依赖向量索引 [2] - AI Memory 注重状态持续性,需维护多层级 memory 架构并管理时序与优先级,结合删除或压缩机制调度有限资源 [3] - RAG 与 Memory 可互补,RAG 增强知识性,Memory 固化对话经验和连贯性 [3] 从模态融合到隐私权限,AI memory 正面临哪些挑战 - AI memory 系统面临静态存储无法演化、多模态多 Agent 协同混乱、检索扩容冲突等技术挑战 [4] - 需解决层级和状态过滤缺失、企业级多任务权限控制、隐私可控性弱等问题 [4] - 挑战驱动 memory 系统向更智能、更安全、更高效方向演进 [4]
AI Day直播 | LangCoop:自动驾驶首次以“人类语言”的范式思考
自动驾驶之心· 2025-07-18 18:32
多智能体协作自动驾驶 - 多智能体协作通过信息共享提升自动驾驶系统的安全性、可靠性和机动性,但现有通信方法受限于高带宽需求、智能体异构性和信息丢失等问题 [3] - LangCoop提出利用自然语言作为智能体间通信媒介,显著降低通信带宽达96%(每条消息<2KB),同时保持驾驶性能竞争力 [3] - 实验在CARLA仿真环境中进行,验证了LangCoop相比基于图像通信的优越性 [3] 技术方案与创新 - LangCoop包含两项关键创新(具体未展开),但明确其通过语言封装实现高效信息传递 [3] - 自然语言信息封装(LangPack)技术可将丰富信息打包为简洁的基于语言的消息 [4] 相关研究与资源 - 论文《LangCoop: Collaborative Driving with Language》已发布在arXiv,提供详细技术方案 [4] - 项目开源在GitHub,包含代码实现和仿真环境 [5] - 清华与博世合作开发Impromptu-VLA框架,实现SOTA性能的视觉语言模型 [6] - 清华与吉利推出Challenger框架,专注于自动驾驶对抗场景生成 [6] 行业动态与资源获取 - 自动驾驶之心知识星球提供技术细节、QA及未公开内容,包括复旦BezierGS驾驶场景重建方案 [4] - 混合模型模块化思维链(M³CoT)技术应用于零样本视觉-语言推理 [4]
Google截胡Windsurf,布局AI编程
海通国际证券· 2025-07-16 12:31
报告行业投资评级 未提及 报告的核心观点 - AI编程明星公司Windsurf原接近被OpenAI以30亿美元收购,后因与微软的合作条款致收购搁浅,转而加入Google DeepMind,交易估值约24亿美元,重心转向代理式编码[1][2] - Windsurf核心产品Agent IDE有多智能体协作机制、自研模型SWE - 1、深度嵌入工作流、多模型兼容策略等优势,为平台对冲风险奠定基础[3][6] - 平台绑定风险加剧,独立AI工具商生存空间被压缩,Windsurf因Claude断供及对平台合作丧失信心,凸显对单一模型的依赖风险及AI平台间的竞争态势[4][9] - 独立AI工具商面临保持中立服务更广泛客户或绑定平台获取资源支持的抉择,平台整合虽减少多样性,但可加速AI生态标准化和创新[11][12] 根据相关目录分别进行总结 事件 - AI编程初创公司Windsurf原接近被OpenAI以30亿美元收购,后选择加入Google DeepMind,Google通过非独家技术许可 + 人才吸纳实现软并购,核心团队入驻DeepMind,转向代理式编码[1][7] 点评 - OpenAI收购Windsurf因与微软的IP可访问条款引发Windsurf高管对核心技术授权风险的担忧而搁浅,Google DeepMind以非股权方式完成软并购[2][8] - Windsurf遭遇Claude断供,五天内失去主力模型调用能力,凸显对单一模型的依赖风险,其对平台合作丧失信心,拒绝OpenAI收购[4][9] 核心产品优势 - Agent IDE的多智能体协作机制可实现AI编程助手间的任务分配、上下文共享和状态持久化,是代理式编码典型的底座工具[6][14] - 自研模型SWE - 1在基准测试中略逊于Claude 3.7,但以低成本实现媲美性能,支持细粒度企业集成与自定义[6][14] - Agent IDE架构支持调试、测试、依赖分析、版本追踪等工程环节,远胜Copilot式提示类工具[6][14] - Agent IDE支持接入主流模型,具备模型切换与混合调用能力,为平台对冲风险奠定基础[6][14] 行业影响 - 独立AI工具商面临保持中立服务更广泛客户或绑定平台获取资源支持的抉择,类似担忧在Meta rumored to acquire Scale AI时也出现过[11] - 虽中立性有价值,但平台整合可加速AI生态标准化和创新[12]
走进“大国重器”心脏!IRCTC 2025重磅参观——齐二机床产线深度开放日
机器人圈· 2025-07-14 21:51
公司背景与行业地位 - 齐齐哈尔二机床(集团)有限责任公司是我国重型机床及锻压设备的著名生产基地,国家"十一五"发展数控机床产业化专项重点扶持企业,国家大型工业企业,机床行业"十佳企业"[2] - 公司是国内重型数控机床行业生产规模和市场占有率最大、品种规格最全、产品代表国家水平的制造研发基地,累计生产各种机床6万余台,其中单机重量超百吨重型金切机床、锻压机械达1000余台[2] - 公司历史上创造了共和国多项第一,包括1958年研制我国第一台数控立铣,1975年研制第一台数控龙门铣,1993年研制第一台重型数控落地铣镗加工中心,1994年研制第一条重型数控多连杆压力机生产线[2] 产品与技术优势 - 公司主要产品包括数控落地铣镗床系列、数控龙门镗铣床系列、数控立式车床系列、数控铣床及加工中心、机械压力机及自动锻压设备,以及大型数控缠绕机、五轴联动混联机床等大型数控专机[3] - 产品突出"重"字,重型、超重型类机床产品产值率达到80%,重型金切机床产值位居国内同行业第一[3] 参观活动亮点 - 考察国家战略装备智造现场:深入国家级智能制造示范车间,实地观摩应用于航天、核电领域的TK6963型超重型数控铣镗床总装产线,见证承载200吨吊装能力的工业级制造场景[4] - 探索技术融合创新实践:聚焦企业自主研发的落地铣镗加工中心、智能柔性齿轮生产线及五轴联动混联机床,解析机器人运动控制、多智能体协作等前沿技术在高端装备中的工程化应用[5] - 对接产业关键需求:齐二机床技术团队将现场发布三大合作方向,包括重型机床装配工序的机器人高精度作业技术、大型工件多模态在线检测系统开发、高端装备核心部件国产化替代方案[6] 会议注册信息 - 注册类别及费用:学生参会1500元,普通参会2800元,企业代表3800元,《机器人技术与应用》理事会成员2100元[7] - 参会人员可通过扫描二维码或PC端"机器人科学网"进行注册报名,注册成功并完成缴费后需填写回执发送至指定邮箱[8][10] - 报名截止时间为2025年07月21日17:00,名额限制50人[6][10]
还在纠结是否入门大模型?别人已经发了第一篇顶会!
自动驾驶之心· 2025-07-14 14:20
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需要关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调大模型等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受到行业重点关注 [1] 大模型优化课程介绍 - 课程系统性地探讨大模型的前沿优化方法,重点研究参数高效计算、知识动态扩展和复杂推理三大方向的关键技术 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)等动态知识注入技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等高级推理范式 [2] 课程解决的问题 - 帮助学员系统掌握大模型相关理论知识,形成清晰的体系 [3] - 解决动手能力差、无法复现论文的问题,协助开发设计新模型 [3] - 解决论文写作和投稿难题,积累写作方法论并获得投稿建议 [3] 课程收获 - 掌握大模型优化的核心算法,包括结构化剪枝、低比特量化、动态检索等关键技术 [9] - 获得Coding能力增强,在baseline代码和可用数据集上高效展开研究 [9] - 撰写出论文初稿,可能产出一篇不错的论文 [9] 课程大纲 - 大模型剪枝与稀疏化算法优化:详解让大模型体积更小、运行更快的方法 [19] - 大模型量化加速全景:从数据位宽到编译来优化大模型的加速 [19] - 参数高效微调(PEFT)革命:介绍用少量计算资源让大模型适应垂类任务的高效微调算法 [19] - 基于RAG的大模型知识动态扩展范式:解决大模型的事实性错误和知识更新滞后问题 [19] - Chain-of-Thought推理进阶:针对让大模型分步骤思考解决复杂问题的算法进行深入剖析 [19] 课程资源 - 提供Baseline代码,包括LLM-Pruner、GPTQ、LLaVA等开源项目 [16] - 必读基础论文包括GPTQ、Sheared LLaMA、TVM等 [18] - 数据集来自于公开数据集,根据具体任务选用 [13] 招生要求 - 具备深度学习/机器学习基础,熟悉Python和PyTorch [6] - 最好具备4张4090显卡或以上设备性能的机器,最低不少于2张4090显卡 [15] - 掌握基本的编程语言,熟练使用PyTorch等深度学习框架 [15]
马斯克发布“地球最强AI模型”Grok 4:横扫所有榜单,在“人类最终测试”超越人类博士”!
AI科技大本营· 2025-07-10 15:14
Grok 4发布会核心亮点 - 发布会延迟1小时引发社交媒体热议,评论数达4200条,转发超2000次,点赞破万,140万观众在线等待[1] - 马斯克团队通宵进行"最后一次大规模训练",暗示产品重大升级[3] - Grok 4被定义为"对AI能力边界的悍然宣告",超越常规模型迭代[4] 性能突破与基准测试 - **HLE测试**:文本模式得分26.9%,工具加持后飙升至41.0%,"重思考"模式达58.3%,较竞品15%-25%区间实现翻倍提升[5][6][9] - **ARC-AGI-2测试**:以15.9%得分创SOTA纪录,达商业模型两倍水平[12] - **综合指数**:Artificial Analysis智能指数73分居首,超越o3-pro、Gemini 2.5 Pro等[15] - **学科专项**:AIME 25数学赛满分100%,GPQA测试88.9%得分[16] 技术架构三大支柱 1. **多智能体协作**:采用"研讨小组"机制,多个智能体独立解题后整合最优方案,实现测试时计算精度跃升[21] 2. **第一性原理哲学**:以"最大化追求真相"为核心,强调物理法则为终极检验标准,规避模板化答案[22][23] 3. **算力投入**:20万张H100 GPU集群训练,训练量较Grok 2提升100倍,专项强化推理能力[24][26] 现实应用场景 - **代码能力**:4小时完成FPS游戏开发,自主处理3D模型与纹理贴图[29] - **科学模拟**:生成黑洞碰撞动画并解释物理原理,实现后牛顿近似法编程[27] - **商业决策**:在Vending Bench模拟中净资产达第二名模型两倍[31] - **科研加速**:生物医学机构Arc Institute用其分析百万级实验数据,将数周工作缩至分钟级[35] 商业化布局 - **订阅计划**:SuperGrok年费300美元(标准版),Heavy版3000美元/年含抢先体验权[41] - **API性能**:输出速度75 tokens/s,介于o3(188 tokens/s)与Claude 4 Opus(66 tokens/s)之间[38] - **多模态规划**:Foundation Model V7版本数周内推出,将解决图像理解"毛玻璃效应"[39] 未来展望 - 2024年目标:生成可观看的半小时AI电视节目[42] - 2025年规划:推出完整AI电影及高质量游戏[42] - 长期愿景:推动科学发现,预计年底产出新技术,2025年突破物理学边界[40][43]
师兄自己发了篇自动驾大模型,申博去TOP2了。。。
自动驾驶之心· 2025-07-09 20:56
大模型在自动驾驶领域的应用趋势 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行VLA、VLM方案 [2] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [2] - CoT方案和VLA+强化学习等高级推理范式成为行业重点 [2] 大模型优化技术研究方向 - 参数高效计算:研究剪枝稀疏化和量化加速等轻量化方法 [3] - 知识动态扩展:探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [3] - 复杂推理优化:研究链式思维(CoT)和强化学习优化(GRPO)等范式 [3] 课程核心内容 - 系统探讨大模型前沿优化方法,包括参数压缩、知识扩展和推理优化 [3] - 关键技术涵盖结构化剪枝、低比特量化、动态检索、多跳推理等 [3] - 实验平台使用主流大模型如LLaMA、GPT,结合理论讲解与实践 [3] 课程目标与收获 - 帮助学员系统掌握大模型优化理论,形成清晰知识体系 [8] - 提升Coding能力,实现论文复现与模型开发 [8] - 提供论文写作方法论、修稿指导与投稿建议 [8] 课程招生与要求 - 招生对象:大模型方向本硕博、申硕申博、AI领域从业者 [9] - 招生人数:6人/期,至多8人 [5] - 要求:具备深度学习基础,熟悉Python和PyTorch,有研究热情 [10] 课程大纲与时间安排 - 12周在线科研+2周论文指导+10周论文维护期 [9] - 每周主题涵盖大模型剪枝、量化加速、PEFT、多智能体协作等 [20] - 最终产出论文初稿,具备投稿潜力 [9] 实验与资源支持 - 提供Baseline代码,涵盖剪枝、量化、多模态推理等方向 [19] - 数据集采用公开资源或垂类自定义数据 [17] - 硬件要求最低2张4090显卡,建议4张或租赁云服务器 [15] 学术支持与成果预期 - 导师提供定制化研究idea,目标SCI 1~4区或CCF A/B/C级别论文 [22] - 课程交付价值包括科研流程、写作方法、论文初稿 [22] - 答疑周期为6个月,确保后续研究支持 [22]