Workflow
大模型算法
icon
搜索文档
道通科技:持续对包括ChatGPT、DeepSeek等国内外前沿基础大模型算法进行合作应用
证券日报· 2025-09-10 22:07
证券日报网讯道通科技9月10日在互动平台回答投资者提问时表示,在模型能力方面,公司持续对包括 ChatGPT、DeepSeek、Llama、Qwen等国内外前沿基础大模型算法进行合作应用,依据业务需求进行针 对性垂域模型训练,并开展深入的算法创新与应用开发。 (文章来源:证券日报) ...
Z Event|大厂的同学下班一起聊AI?8.28北京和新加坡线下开饭
Z Potentials· 2025-08-26 12:16
活动安排 - 北京场活动于2025年8月28日周四晚7点举行 主题为大模型算法 面向大厂及创业公司产品技术人群和创业者 规模8-10人 [1] - 新加坡场同期举行 主题为AI Agent 面向相同人群 规模6-8人 [1] - 报名截止时间为活动前一日晚8点 采用背景匹配机制确保交流质量 [3] 人才招募 - 公司正在招募新一期实习生 [6] - 重点寻找00后创业者群体 强调创造力要求 [7][8] - 通过Z Combinator项目定位为AI时代中国年轻版YC 聚焦新生代创业者培养 [8] 业务布局 - 业务矩阵包含Z Potentials、Z Finance、Z Lives等多条产品线 [7] - 战略方向聚焦AI领域 特别是大模型算法与AI Agent技术应用 [1][8]
Z Event|大厂的同学下班一起聊AI?8.28北京和新加坡线下开饭
Z Potentials· 2025-08-24 19:51
活动安排 - 北京活动于2025年8月28日周四晚7点举行 主题为大模型算法 面向大厂 创业公司产品/技术及创业者 人数限制8-10人 [1] - 新加坡活动于同一时间举行 主题为AI Agent 面向相同人群 人数限制6-8人 [1] - 活动报名截止时间为活动前一日晚8点 名额有限 公司会根据参与者背景进行组合安排 [3] 人才招募 - 公司正在招募新一期实习生 [6] - 公司寻找有创造力的00后创业者 项目名称为Z Combinator 定位为AI时代中国年轻版YC [7][8] - 招募涉及多个领域 包括ZL ZP Potentials TH等方向 [7] 业务定位 - Z Combinator明确聚焦AI时代 专注于发掘年轻创业者潜力 [8] - 公司业务范围涵盖Z Finance Z Lives等多个垂直领域 [7]
中国石油长庆油田:井下作业“智变”带来“质变”
中国经营报· 2025-06-24 19:15
技术突破 - 公司开发了"页岩油智脑"井下作业智能体系统,可实现10秒内查询井的历史数据、故障诊断与处置方案 [1] - 系统将技术人员方案编制时间从小时级缩短至分钟级,数据查询响应从40多分钟降至10秒,故障识别准确率达90% [3] - 系统通过AI算法优化整体作业方案,实现从"经验驱动"向"数据智能驱动"跨越,预判工况并自主学习编辑方案内容 [6] 效率提升 - 系统实现井下作业决策响应速度零时间、协同协作效率零延误、故障处置效果零盲区、评价体系建设零偏差 [3] - 井筒诊断响应速度从小时级缩短至秒级,将"修井后分析"转变为"修井前预警" [4] - 故障处理平均耗时从3天以上大幅缩短,单井年均维护成本将明显下降 [6] 行业背景 - 页岩油作为非常规油气资源重要组成部分,其高效开发是保障国家能源安全的关键 [3] - 长庆油田页岩油年产量占全国50%以上,但面临作业效率不高、效益管控不细等挑战 [3] - 行业需通过数智化技术推动业务模式重构,实现产业结构优化 [4] 系统功能 - 系统集成井下压力、温度、流量等20多项参数动态感知,能监测油藏中流体变化 [4] - 以昆仑大模型平台为底座,应用多模态数据与大模型算法,形成诊断专家知识库 [4] - 打通井下作业"感知-诊断-决策-执行-评价"全链路,实现全过程化管控 [4] 研发合作 - 公司联合专业数智公司,充分发挥产学研用一体化优势开发该系统 [4] - 通过7个月技术攻关和现场试验应用实现系统功能 [3]
DeepSeekGRM带来新的推理Scaling路径
华泰证券· 2025-05-07 15:25
报告行业投资评级 - 计算机行业投资评级为增持(维持) [8] 报告的核心观点 - DeepSeek团队新论文引入SPCT方法,推出DeepSeek GRM模型,带来推理阶段新Scaling方法,或暗示DeepSeek R2技术路径,模型迭代加速可期 [2] - SPCT方法拓展推理Scaling路径,提高强化学习质量,为大模型算法迭代提供启发 [3] - DeepSeek GRM-27B以27B参数媲美621B参数R1的性能,证明推理阶段新探索有望拓展模型边界 [4] - DeepSeek GRM模型压缩硬件需求,降低本地化部署成本,利好端侧部署与端侧AI进展 [5] - DeepSeek R2有望近1 - 2月内发布,GRM模型发布或是其算法创新雏形,建议关注算法创新带来的模型迭代加速 [6] 根据相关目录分别进行总结 DeepSeek新论文及模型情况 - DeepSeek团队新论文《Inference-Time Scaling for Generalist Reward Modeling》发布,引入SPCT方法,推出DeepSeek GRM模型,27B参数能跑出目前R1模型671B参数相当性能 [2] SPCT方法优势 - 强化学习在一般领域难获LLMs准确奖励信号,SPCT方法可自适应生成评判原则并评价,提高强化学习质量,拓展推理Scaling路径 [3] DeepSeek GRM模型性能 - DeepSeek GRM-27B在多个综合奖励模型基准测试中优于现有方法和模型,达到与DeepSeek R1(621B参数)、GPT - 4o相当效果;SPCT采用双循环结构,R1单一线性模式会积累错误;推理阶段应用SPCT方法扩展策略性能更优 [4] 硬件消耗与部署情况 - DeepSeek GRM模型采用128块A100 - 80G GPU训练,成本为R1的1/6;推理阶段降低算力与显存需求,能耗为R1模型的17%左右;有望在端侧设备部署,精度优化后显存需求理论上可被消费级显卡满足 [5] R2模型展望 - 预训练阶段Scaling Law放缓,算法优化成各大厂追求方向;DeepSeek R2有望近1 - 2月内发布,GRM模型发布或是其算法创新雏形 [6]