大模型算法

搜索文档
中国石油长庆油田:井下作业“智变”带来“质变”
中国经营报· 2025-06-24 19:15
技术突破 - 公司开发了"页岩油智脑"井下作业智能体系统,可实现10秒内查询井的历史数据、故障诊断与处置方案 [1] - 系统将技术人员方案编制时间从小时级缩短至分钟级,数据查询响应从40多分钟降至10秒,故障识别准确率达90% [3] - 系统通过AI算法优化整体作业方案,实现从"经验驱动"向"数据智能驱动"跨越,预判工况并自主学习编辑方案内容 [6] 效率提升 - 系统实现井下作业决策响应速度零时间、协同协作效率零延误、故障处置效果零盲区、评价体系建设零偏差 [3] - 井筒诊断响应速度从小时级缩短至秒级,将"修井后分析"转变为"修井前预警" [4] - 故障处理平均耗时从3天以上大幅缩短,单井年均维护成本将明显下降 [6] 行业背景 - 页岩油作为非常规油气资源重要组成部分,其高效开发是保障国家能源安全的关键 [3] - 长庆油田页岩油年产量占全国50%以上,但面临作业效率不高、效益管控不细等挑战 [3] - 行业需通过数智化技术推动业务模式重构,实现产业结构优化 [4] 系统功能 - 系统集成井下压力、温度、流量等20多项参数动态感知,能监测油藏中流体变化 [4] - 以昆仑大模型平台为底座,应用多模态数据与大模型算法,形成诊断专家知识库 [4] - 打通井下作业"感知-诊断-决策-执行-评价"全链路,实现全过程化管控 [4] 研发合作 - 公司联合专业数智公司,充分发挥产学研用一体化优势开发该系统 [4] - 通过7个月技术攻关和现场试验应用实现系统功能 [3]
深圳机器人公司冲刺IPO,年营收4.7亿,阿里CEO吴泳铭也投了
36氪· 2025-06-03 20:47
公司概况 - 乐动机器人是一家以感知智能为基础的全栈式智能机器人公司,成立于2017年,业务涵盖智能机器人视觉感知产品及配套解决方案(基础业务)和整机产品(延伸业务)[2] - 公司2024年营收4.67亿元人民币,净亏损0.6亿元,已成为全球最大以视觉感知技术为核心的智能机器人公司[5] - 2022-2024年营收年复合增长率超41%,分别为2.34亿、2.77亿、4.67亿元人民币[5][6] 技术优势与市场地位 - 2024年搭载公司视觉感知技术的智能机器人达600万台,全球前十家用服务型机器人中七家为其客户[2] - 2018年推出首代激光雷达及SLAM算法,后续开发全球首款消费级Mini DTOF雷达[2] - 视觉感知产品收入占比从2022年44.3%提升至2024年72.9%,三年收入分别为1.04亿、1.67亿、3.41亿元人民币[6][8] 业务发展 - 延伸业务智能割草机器人2024年销量突破10000台,2025年第二代产品融合AI大模型算法,截至5月23日销量超15000台[4] - 智能割草机器人2024年收入2327万元人民币,占总收入5%,成为第二增长曲线[7] 财务表现 - 毛利率持续下滑:2022年27.3%、2023年25.7%、2024年19.5%[5][8] - 净亏损逐年收窄:2022年7313.2万元、2023年6849.1万元、2024年5648.3万元人民币[5] - 研发费用占比稳定在20%-25%,销售及营销开支从2022年1391万元增至2024年3143万元人民币[6][9] 竞争环境 - 视觉感知技术市场竞争激烈导致价格战[9] - 智能割草机器人面临九号公司、库犸动力、科沃斯等竞争对手压力[9] 创始团队与股东结构 - 创始人周伟为连续创业者,曾创立平衡车企业乐行天下,现任公司董事长[10] - 联合创始人郭盖华负责研发管理,与周伟共同创办乐行天下[10] - 控股股东集团(周伟、郭盖华等)合计持股39.61%,其他股东包括华业天成、源码资本及阿里CEO吴泳铭个人持股实体[11]
DeepSeekGRM带来新的推理Scaling路径
华泰证券· 2025-05-07 15:25
报告行业投资评级 - 计算机行业投资评级为增持(维持) [8] 报告的核心观点 - DeepSeek团队新论文引入SPCT方法,推出DeepSeek GRM模型,带来推理阶段新Scaling方法,或暗示DeepSeek R2技术路径,模型迭代加速可期 [2] - SPCT方法拓展推理Scaling路径,提高强化学习质量,为大模型算法迭代提供启发 [3] - DeepSeek GRM-27B以27B参数媲美621B参数R1的性能,证明推理阶段新探索有望拓展模型边界 [4] - DeepSeek GRM模型压缩硬件需求,降低本地化部署成本,利好端侧部署与端侧AI进展 [5] - DeepSeek R2有望近1 - 2月内发布,GRM模型发布或是其算法创新雏形,建议关注算法创新带来的模型迭代加速 [6] 根据相关目录分别进行总结 DeepSeek新论文及模型情况 - DeepSeek团队新论文《Inference-Time Scaling for Generalist Reward Modeling》发布,引入SPCT方法,推出DeepSeek GRM模型,27B参数能跑出目前R1模型671B参数相当性能 [2] SPCT方法优势 - 强化学习在一般领域难获LLMs准确奖励信号,SPCT方法可自适应生成评判原则并评价,提高强化学习质量,拓展推理Scaling路径 [3] DeepSeek GRM模型性能 - DeepSeek GRM-27B在多个综合奖励模型基准测试中优于现有方法和模型,达到与DeepSeek R1(621B参数)、GPT - 4o相当效果;SPCT采用双循环结构,R1单一线性模式会积累错误;推理阶段应用SPCT方法扩展策略性能更优 [4] 硬件消耗与部署情况 - DeepSeek GRM模型采用128块A100 - 80G GPU训练,成本为R1的1/6;推理阶段降低算力与显存需求,能耗为R1模型的17%左右;有望在端侧设备部署,精度优化后显存需求理论上可被消费级显卡满足 [5] R2模型展望 - 预训练阶段Scaling Law放缓,算法优化成各大厂追求方向;DeepSeek R2有望近1 - 2月内发布,GRM模型发布或是其算法创新雏形 [6]