融合感知

搜索文档
新股速递|从累计亏损10亿到市占率37.7%:希迪智驾如何领跑自动驾驶矿卡赛道?
贝塔投资智库· 2025-07-02 12:04
公司简介 - 公司为专注于商用车自动驾驶技术的高科技企业,成立于2017年,总部位于湖南长沙 [1] - 主要产品包括自动驾驶矿卡解决方案(如"元矿山"系统)、V2X车联网技术及高性能智能感知系统(如TAPS) [1] - 产品应用于矿山、港口、物流园区等封闭或半封闭场景 [1] 财务状况 收入 - 2022-2024年收入分别为0.31亿、1.33亿、4.10亿人民币,两年复合增速达268% [4][5] - 自动驾驶矿卡业务收入分别为2799.8万、7441.8万、2.47亿人民币,2024年占比60.1% [4][5] - V2X业务收入分别为305.8万、3681.2万、1.02亿人民币,2024年占比24.8% [4][5] - 客户数量从2022年44名增至2024年131名,单客户贡献收入从70.6万增至312.9万人民币 [5] - 2024年底积压订单总价值8.31亿人民币,较2023年3.45亿显著增长 [5] 利润和毛利 - 2022-2024年净亏损分别为2.63亿、2.55亿、5.81亿人民币 [5] - 研发支出分别为1.11亿、0.9亿、1.93亿人民币 [5] - 销售成本从2022年0.37亿增至2024年3.09亿,占收入比例从119.3%降至75.3% [5] - 行政开支从2022年0.69亿激增至2024年3.01亿 [5] - 综合毛利率逐年改善,分别为19.3%、20.2%、24.7% [6] - 自动驾驶业务毛利率从2022年-25.1%提升至2024年23.1% [6] 偿债能力 - 2024年底现金储备3.06亿人民币,增长30% [7] - 经营性现金流为负(-1.48亿人民币) [7] - 存货周转天数从2023年513.6天改善至2024年121.8天 [7] - 应收账款周转天数147天,占营收33.4% [7] - 流动比率1.8x,低于行业平均水平2.0x-2.3x [7] 公司优势 市场份额与商业化能力 - 中国最大商用车自动驾驶公司,2024年市场份额16.8% [7] - 自动驾驶矿卡市场排名第一,市占率37.7%,预计2025年提升至46% [7] - 2018年实现商业化,中国最早落地自动驾驶矿卡企业之一 [7] - 全球最大混编矿卡车队,效率达人工驾驶的104% [8] 技术壁垒 - 全球少数实现零事故运营的矿区自动驾驶方案 [8] - "多传感器融合感知+车路协同"方案成本3-6万元/车,比激光雷达方案低30%以上 [8] - "元矿山"系统覆盖车端+路端+云端,竞品仅提供单一车辆自动驾驶方案 [8] - 2024年积压订单包括446辆自动驾驶矿卡及230套独立系统,总价值8.31亿人民币 [8] 政府背书与标杆项目 - 与阿联酋、沙特达成合作,中国首批自动驾驶出海企业之一 [8] - 参与中国7个国家级车联网先导区中的5个,V2X业务收入3年增长1103% [8] 资本与创始人优势 - 创始人李泽湘曾孵化大疆科技(估值1250亿)和固高科技(市值116亿) [9] - 股东包括红杉(10.61%)、百度(2.39%)、联想(3.49%)等 [9] - 2024年C+轮融资后估值90亿人民币,较2022年增长9% [9] 财务增长潜力 - 2022-2024年收入年复合增速263%,远超行业平均50% [9] - 积压订单8.31亿人民币可支撑未来1-2年收入 [9] - 毛利率从2022年-19.3%提升至2024年24.7% [9] 行业现状 - 2025年中国矿山智能化改造需求超600亿人民币,自动驾驶矿卡仅占13亿(2%) [12] - 2030年自动驾驶矿卡市场规模预计50亿人民币(CAGR 31%) [12] - 矿卡寿命长(8-15年),更新换代慢 [12] - 矿区改造投资回报周期超3年,客户采购意愿低 [12]
割草机器人激光雷达怎么选?
机器人大讲堂· 2025-06-30 15:22
激光雷达在割草机器人领域的应用趋势 - 激光雷达融合感知方案正取代RTK/UWB+视觉传感器方案成为主流 其3D建图和避障能力更契合消费者对轻量化、便捷部署及高可靠性的需求 [1] 割草机器人对激光雷达的核心需求 性能需求 - 高分辨率是关键 垂直角分辨率决定探测能力 144线和192线激光雷达可清晰识别小刺猬等微型障碍物 而16线雷达则无法有效检测 [15] - 需适应多样地形 包括山坡、坑洼、水坑等 对分辨率和清晰度要求高 [5] - 需支持全天候作业 高线数激光雷达(20线以上)在夜间仍可精准识别障碍物和地形变化 低线数雷达夜间性能不足 [6] 可靠性需求 - 需满足防水、防尘、高低温适应性(-40°C至+85°C)等车规级标准 并通过60余项可靠性测试 [19] - 需抗冲击振动 如库犸E1R固态激光雷达可承受50倍重力加速度振动 崎岖地面稳定性提升3倍 [19] - 需防刮擦设计 平面玻璃窗口片通过碎石冲击测试 优于塑胶材质 [22] 寿命需求 - 使用寿命需达数年 高端产品如库犸LUBA mini AWD LiDAR固态激光雷达设计寿命达8年 接近车规10年标准 [11][22] 技术参数差异化 - 测距(30米以上)和视场角(100°×40°以上)为基础需求 无法区分产品档次 [12] - 固态激光雷达因无旋转电机结构 在抗冲击性和可靠性上显著优于机械旋转式雷达 [19]
清华大学最新综述!具身AI中多传感器融合感知:背景、方法、挑战
具身智能之心· 2025-06-27 16:36
具身AI与多传感器融合感知 - 具身AI以物理实体为载体,通过动态环境实时感知实现自主决策和行动能力,是突破AI发展瓶颈、实现通用人工智能(AGI)的关键路径[3] - 多传感器融合感知(MSFP)对实现具身AI的稳健感知和准确决策能力至关重要,需融合视觉相机、毫米波雷达、激光雷达等多模态传感器数据[3] - 当前MSFP方法面临跨模态数据异质性、时空异步和传感器故障等固有挑战[4] 传感器数据与数据集 - 相机数据捕捉丰富外观特征但对光照敏感,激光雷达提供高精度3D点云但对天气敏感,毫米波雷达在恶劣天气性能良好[10] - KITTI数据集包含14,999张图像及相应点云,采集于德国卡尔斯鲁厄及附近城市[13] - nuScenes数据集在波士顿和新加坡采集,包含140万张相机图像、39万次LiDAR扫描和140万次雷达扫描[13] - Waymo Open数据集包括126万个3D边界框和118万个2D边界框,涵盖白天、夜间、黎明、黄昏和雨天场景[14] 感知任务 - 目标检测任务需准确定位和识别物体,2D检测输出类别和2D边界框,3D检测包括3D位置坐标、尺寸和航向角[16] - 语义分割任务将场景中的每个基本单元分类为语义类别[17] - 深度估计任务从传感器数据获取场景深度信息,为具身智能体提供3D几何理解[17] - 占用预测任务提供对3D空间的密集语义理解,通过离散化3D空间为体素预测占用状态和语义类别[17] 多模态融合方法 - 点级融合方法集成点云几何坐标信息与图像语义细节,如PointFusion、PointPainting等方法[23][24] - 体素级融合方法将LiDAR点云转换为规则网格,如CenterFusion、VPFNet等方法[25][26] - 区域级融合方法从2D图像和其他模态聚合特定区域信息,如AVOD、RoarNet等方法[28][29] - 多级融合方法从不同级别集成多模态信息,如MVX-Net、EPNet等方法[30][31] 多智能体融合方法 - 协作感知技术可集成多个智能体和基础设施的感知数据,解决遮挡和传感器故障问题[35] - CoBEVT通过稀疏Transformer生成BEV分割预测进行协作处理[35] - V2VNet基于图神经网络融合多辆车的中间特征表示[36] - When2Com框架学习构建通信组和通信时机,减少带宽使用[37] 时间序列融合方法 - 密集查询方法为高分辨率3D或BEV空间中的每个查询点分配固定位置,如BEVFormer、BEVFormer v2[40][41] - 稀疏查询方法因其效率、准确性和适用于稀疏感知任务而受欢迎,如StreamPETR、Sparse4D系列[42][43] - 混合查询方法结合密集和稀疏查询范式,如UniAD、FusionAD等方法[45][46] 多模态LLM融合方法 - 视觉-语言方法结合视觉和文本数据进行语义对齐,如X-Driver、Mpdrive等方法[50] - 视觉-LiDAR-语言方法集成视觉、LiDAR和语言数据进行3D空间理解,如DriveMLM、MAPLM等方法[51][52]
清华大学最新综述!当下智能驾驶中多传感器融合如何发展?
自动驾驶之心· 2025-06-26 20:56
具身AI与多传感器融合感知的重要性 - 具身AI是以物理实体为载体,通过实时感知实现自主决策和行动能力的智能形式,在自动驾驶、机器人群体智能等领域有广泛应用,是突破AI发展瓶颈、实现通用人工智能(AGI)的关键路径 [2] - 传感器数据理解是连接物理世界与数字智能的核心环节,具身智能体需要融合视觉相机、毫米波雷达、激光雷达(LiDAR)、红外相机和IMU等多模态传感器数据以实现全景感知 [2] - 多传感器融合感知(MSFP)对实现具身AI的稳健感知和准确决策能力至关重要,例如视觉相机易受光照变化干扰,而激光雷达在雨雾天气性能会大幅衰减 [2] 现有研究的局限性 - 当前基于AI的MSFP方法在具身AI中面临跨模态数据的异质性使得特征空间难以统一的挑战 [3] - 不同传感器之间的时空异步可能导致融合误差,传感器故障(如镜头污染、信号遮挡)可能导致多模态信息的动态丢失 [3][4] - 现有综述大多面向单一任务或研究领域,如3D目标检测或自动驾驶,缺乏对多智能体融合、时间序列融合等MSFP方法多样性的考虑 [4] 传感器数据 - 相机数据可捕捉物体的颜色、形状和纹理等丰富外观特征,但对光照条件敏感,在夜间和恶劣天气下图像质量显著下降 [7] - 激光雷达(LiDAR)数据直接输出包含空间几何信息的高精度3D点云,在3D感知中具有独特优势,但对天气敏感且点云数据稀疏不均匀 [7] - 毫米波雷达数据在恶劣天气下性能良好,可直接测量物体速度,但点云更稀疏难以准确描述物体轮廓 [10] 数据集 - KITTI包含14,999张图像及相应点云,数据采集车辆配备两台灰度相机、两台彩色相机、一个Velodyne 64线LiDAR等设备 [13] - nuScenes包括700个训练场景、150个验证场景和150个测试场景,总计5.5小时,包含140万张相机图像、39万次LiDAR扫描 [13] - Waymo Open包括感知和运动数据集,感知数据集中的注释包括126万个3D边界框、118万个2D边界框 [14] 感知任务 - 目标检测是通过传感器获取的数据准确定位和识别各种类型的物体,在3D目标检测场景中需包括目标的3D位置坐标、尺寸信息和航向角 [16] - 语义分割任务旨在将场景中的每个基本单元分类为语义类别,分割模型需要为每个基本单元分配相应的语义标签或类别概率分布 [16] - 深度估计旨在从传感器数据中获取场景的深度信息,为具身智能体提供3D几何理解,对路径规划和决策控制等下游任务至关重要 [16] 多模态融合方法 - 点级融合方法实现LiDAR点云与图像数据在单个点级别的特征融合,通过集成点云的几何坐标信息与图像的语义细节提高多模态感知精度 [21] - 体素级融合方法将不规则的LiDAR点云转换为规则网格,在保留几何信息的同时实现高效处理,相机图像被集成到基于体素的方法中以获得更好的感知能力 [23] - 区域级融合方法侧重于从2D图像和其他模态聚合特定区域的信息,在模态之间的空间对齐更容易实现的场景中特别有效 [28] 多智能体融合方法 - 协作感知技术可以集成来自多个智能体和基础设施的感知数据,对解决遮挡和传感器故障问题至关重要 [34] - CoBEVT是第一个通用的多智能体多相机感知框架,通过稀疏Transformer生成BEV分割预测以进行协作处理 [34] - V2VNet引入了一个基于图神经网络的框架,用于融合来自多辆车的中间特征表示 [35] 时间序列融合 - 密集查询方法为高分辨率3D空间或BEV空间中的每个查询点分配固定的光栅化空间位置,BEVFormer通过可变形注意力机制实现多个相机视图中的自适应特征交互 [44] - 稀疏查询方法因其效率、准确性和适用于稀疏感知任务而在行业中越来越受欢迎,StreamPETR通过对象查询系统地在帧间传播长期信息 [47] - 混合查询方法结合密集和稀疏查询范式,以平衡计算效率和全面的场景理解,UniAD将感知、预测和规划集成在一个统一的框架中 [51] MM-LLM融合方法 - 视觉-语言方法结合视觉和文本数据进行语义对齐,X-Driver利用具有思维链推理和自回归建模的多模态大型语言模型实现卓越的闭环自动驾驶性能 [57] - 视觉-LiDAR-语言方法将点云特征与文本特征对齐,DriveMLM采用时间QFormer处理多视图图像,有效捕捉不同视角之间的时间动态和空间关系 [59] - MAPLM将3D LiDAR点云数据投影到BEV图像,并通过视觉编码器提取特征,使强大的视觉模型的使用成为可能 [60]
都市车界|小米汽车带头“改口”,智驾标签褪去光环
齐鲁晚报· 2025-05-06 12:17
政策监管与行业调整 - 小米汽车将官网及App中的"智驾"一词全面替换为"辅助驾驶",SU7标准版的Xiaomi Pilot Pro更名为"小米辅助驾驶Pro",SU7 Pro/Max的Xiaomi HAD更名为"小米端到端辅助驾驶" [1] - 理想、蔚来、小鹏等新势力车企也调整宣传话术,门店销售人员不再主动提及"智驾",转而强调空间、舒适性等卖点 [1] - 2024年4月工信部发布《智能网联汽车功能安全标准(征求意见稿)》,明确禁止车企使用"自动驾驶""智驾"等模糊表述,要求统一为"辅助驾驶"或"组合辅助驾驶" [1] - 2025年4月工信部在智能网联汽车产品准入会议上要求车企不得对L2级辅助驾驶功能进行"自动驾驶"或"全场景智驾"等夸大宣传,并加强对OTA升级的监管 [3] 事故与安全风险 - 2025年3月29日一辆启用智能辅助驾驶功能的小米SU7发生严重事故,导致3人死亡 [2] - 调查显示62%的消费者误将L2级辅助驾驶视为"完全自动驾驶",而实际技术对静态障碍物的识别率不足30% [2] - 部分车企曾以"零接管""车内睡觉"等危险场景作为卖点,用户通过"方向盘配重块"等手段欺骗系统,放大风险 [2] - 特斯拉Autopilot事故频发,部分用户误以为车辆可完全自主驾驶,国内某新势力品牌曾因宣传"城市NOA通勤模式"被消费者投诉误导 [3] 技术路线与局限性 - 小米SU7标准版采用纯视觉方案,在极端天气或复杂路口的识别能力存在争议,Pro/Max版本配备激光雷达,但"端到端"技术仍面临"长尾问题"挑战 [2] - 某头部高精地图企业负责人表示纯视觉方案在夜晚或极端天气下难以保证安全行驶,激光雷达虽能弥补短板却面临成本与算力的双重压力 [4] - 华为乾崑智驾ADS 4已支持有条件L3级功能,但仍强调"手不能离方向盘" [7] 消费者教育与责任划分 - 车企开始强调"人机共驾"原则,在系统激活时强制要求驾驶员保持注意力,并通过DMS实时监测疲劳状态 [6] - 小米要求用户首次激活功能前完成15分钟AR模拟训练,涵盖紧急接管等场景,并生成个性化评估报告,用户手册以12页篇幅详述8类失效场景 [6] - 小鹏推出"智驾险",在系统退出后5秒内仍提供理赔保障,鸿蒙智行明确事故责任归属,强调"辅助功能不可替代驾驶员" [6] 行业未来发展趋势 - 短期内车企需在技术宣传与合规风险间寻找平衡点,长期来看行业将加速向L3级及以上自动驾驶演进 [7] - 工信部将OTA升级纳入召回管理,要求企业减少升级频次并加强验证,激光雷达与纯视觉的融合将成为主流,"安全冗余"设计将成为标配 [7] - 消费者对智能驾驶的接受度将逐步提升,但前提是车企能建立"技术诚实"的品牌形象 [7]