Workflow
机器人感知
icon
搜索文档
奥普特(688686):机器视觉龙头多行业景气向好
华泰证券· 2025-08-24 15:35
投资评级 - 维持"增持"评级 目标价132.00元人民币[1] 核心观点 - 机器视觉龙头企业受益于下游锂电与3C行业复苏 工业AI技术落地推动需求增长[1][3] - 2025年上半年营收同比增长30.68%至6.83亿元 归母净利润同比增长28.80%至1.46亿元[1] - 经营活动现金流净额同比增长1123.58% 主要因回款增加[2] - 公司战略布局机器人业务 成立机器人事业部并收购东莞泰莱切入直线电机领域[4] - 给予2025年80倍PE估值 基于较可比公司更快的业绩增长预期[5] 财务表现 - Q2单季营收4.15亿元 同比增长40.34% 环比增长54.94%[1] - Q2归母净利润8813.96万元 同比增长57.24% 环比增长52.34%[1] - 毛利率65.47% 同比微降0.53个百分点[2] - 期间费用率整体略降 研发费用率18.93%同比下降2.12个百分点[2] - 扣非净利润1.32亿元 同比增长36.26%[1] 业务板块分析 - 3C行业收入4.39亿元 同比增长23.82% 受益于工业AI技术落地[3] - 锂电行业收入1.67亿元 同比增长49.35% 因行业复苏及海外市场拓展[3] - 半导体行业收入0.31亿元 同比增长25.51% 具国产替代潜力[3] - 汽车行业收入0.14亿元 同比增长65.67%[3] - 东莞泰莱贡献营收0.37亿元[4] 行业前景 - 中国机器视觉市场2025年预计突破210亿元 未来五年年均增速约20%[3] - 高精度成像技术应用深化 智能分析算法持续优化[3] - 政策推动国产化进程加速 标准化和平台化方案成为主流[3] 战略布局 - 成立机器人事业部 布局dToF相机、iToF相机、双目结构光和激光雷达四大产品方向[4] - 境外资产0.85亿元 占总资产2.35% 在东南亚、欧洲布局营销网络[4] - 技术迁移应用至机器人场景 覆盖环境感知、定位导航和人机交互需求[4] 盈利预测 - 下调2025-2027年归母净利润预测至2.02/2.47/3.04亿元[5] - 对应EPS预测为1.65/2.02/2.49元[5] - 营收预测调整为2025年11.72亿元(原11.17亿元) 2026年13.79亿元(原12.84亿元)[17] - 新能源行业毛利率上调2个百分点至52% 3C行业毛利率下调1.3个百分点至73.5%[17]
商道创投网·会员动态|环视智能·完成千万级天使轮融资
搜狐财经· 2025-08-06 00:05
公司融资情况 - 环视智能完成千万级天使轮融资 由天润嘉诚和成都高投联合投资 帕累托森林担任独家融资财务顾问 [2] - 公司成立于2024年 核心团队来自天津大学 专注视觉感知、机器人控制与大模型融合技术 [2] 技术研发方向 - 融资资金将用于在六个月内将10米内深度误差压缩至2厘米 提升家用与工业场景操作精度 [3] - 同时构建"空间智能+世界模型"框架 使机器人具备预判老人跌倒、设备异常等动态风险的能力 [3] 投资逻辑 - 投资方看好公司以硬件加速破解低成本感知难题的能力 团队具备从芯片模组到场景落地的完整执行力 [4] - 公司技术路径稀缺 精准切入机器人"感知成本高"痛点 市场空间巨大 [4] 行业政策背景 - 工信部近期连续发布"机器人+"应用行动方案 地方政府同步出台算力补贴与场景开放政策 [5] - 公司以高校原创技术快速商品化 既响应政策号召 又满足基金出资人对硬科技的回报预期 [5]
RoboSense 2025 机器感知挑战赛正式启动
具身智能之心· 2025-06-25 21:52
RoboSense Challenge 2025概述 - 核心目标为系统性评估机器人在真实场景下的感知与理解能力,推动多模态感知模型的稳健性研究[1] - 聚焦动态人群、恶劣天气、传感器故障等复杂环境条件下的感知算法性能挑战[1] - 由新加坡国立大学、南洋理工大学等全球7所顶尖研究机构联合主办,并获得IROS 2025官方认证[5] 赛事时间安排 - 注册开放时间为2025年6月[3] - 第一阶段提交截止2025年8月15日,第二阶段截止9月15日[3] - 颁奖典礼于2025年10月19日在IROS 2025杭州主会场举行[3][46] 五大核心挑战任务 语言驱动的自动驾驶 - 要求构建端到端多模态驾驶模型,实现语言指令到规划轨迹的闭环控制[6][7] - Baseline模型Qwen2.5-VL需4块A100 GPU训练12小时,感知准确率75.5%[13] - 关键技术难点包括多模态时序融合、语言指令泛化及弱感知条件下的决策[13] 社交导航 - 基于RGB-D输入实现符合人类社交规范的动态路径规划[14][15] - Baseline模型Falcon成功率55.84%,需4块RTX 3090训练48小时[19] - 需解决动态行为建模与隐式社交规则编码问题[17] 传感器布局优化 - 评估3D感知模型对不同LiDAR安装配置的适应性[20][21] - Baseline模型BEVFusion-L的mAP为48.8%,单卡RTX 4090需16小时训练[26] - 关键技术包括视角差异建模与结构对齐模块设计[27] 跨模态无人机导航 - 建立语言描述与空地视角图像的语义映射关系[28][29] - Baseline模型GeoText-1652的R@1为13.6,需2块RTX 4090训练12小时[34] - 需解决视角转换带来的纹理缩放与空间反转问题[33] 跨平台3D目标检测 - 要求模型在车辆/无人机/四足机器人等平台保持检测一致性[34][35] - Baseline模型ST3D++的Car AP@0.5为33.7%,单卡RTX 3090训练24小时[39] - 核心挑战为跨平台Domain Gap与视角仿射变化适应[39] 赛事资源与评测 - 提供多源多模态真实场景数据支持研究复现[9] - 采用统一评测平台确保公正性,如codabench.org/eval.ai等[14][19][26][34][39] - 开放Toolkit与代码资源库github.com/robosense2025[8] 奖项设置 - 总奖金池超10,000美元,一等奖奖金5,000美元[40][41] - 设立创新奖(每赛道2项)及参与奖(完成有效提交即可获证明)[40]