Workflow
计算机视觉
icon
搜索文档
实验室10篇论文被ICCV 2025录用
自动驾驶之心· 2025-07-02 21:54
论文研究成果总结 论文1 - 提出类别级几何学习框架用于三维点云分割的域泛化问题 通过几何嵌入感知点云细粒度属性并构建类别级几何属性 耦合几何嵌入与语义学习提升泛化能力 [1] - 引入几何一致性学习模拟潜在三维分布并对齐类别级几何嵌入 使模型关注几何不变信息 实验验证该方法在域泛化三维分割中具有竞争力 [1] 论文2 - 开发分层变分测试时提示生成方法 通过Hyper Transformer动态生成文本/视觉提示 解决传统方法提示模板固定导致的领域适应性问题 [3] - 采用变分推理减轻提示模板敏感性和分布偏移 通过分层条件提示捕捉深层上下文依赖 实验显示该方法在零样本准确率上达到SOTA [3] 论文3 - 提出知识引导部件分割框架(KPS) 利用大语言模型构建部件结构知识图谱 通过结构知识引导模块将关系信息嵌入视觉特征 [5][6] - 设计粗粒度物体引导模块增强整体类别感知 实现复杂场景下的精细部件分割 突破传统方法忽视部件结构联系的局限 [5][6] 论文4 - 构建TopicGeo统一检索匹配框架 通过CLIP提示学习嵌入文本语义主题 消除多时相遥感图像的类内/类间分布差异 [9] - 采用中心自适应标签分配与离群点剔除机制优化检索匹配流程 实验表明该方法在召回率和匹配精度上均优于分离范式 [9] 论文5 - 提出视觉语言交互关系挖掘模型(VL-IRM) 通过多模态交互学习解决开放词汇场景图生成中的关系感知缺失问题 [11] - 开发关系生成模型增强文本模态的开放式关系探索能力 利用视觉引导扩展关系文本空间语义 实验验证其广义关系表征优势 [11] 论文6 - 设计VGMamba网络实现三维视觉定位 包含属性Mamba、位置Mamba和多模态融合Mamba三模块 通过SVD分解与滑动窗口捕获属性特征 [13] - 提出属性到位置线索推理机制 融合语言查询与点云空间信息精准定位目标物体 在复杂语义查询场景下表现优异 [13] 论文7 - 创新动态中心距离(DCD)度量 通过元学习框架计算特征空间样本难度 解决噪声标签学习中简单样本主导问题 [15] - 结合DCD与半监督训练策略 聚焦硬样本优化分类损失 在合成/真实噪声数据集及医学图像中验证鲁棒性 [15] 论文8 - 提出BuCSFR方法实现粗标签到细粒度表征学习 通过自底向上构建树状图适应动态类别变化 无需预定义类别数量 [17] - 基于最小信息损失准则迭代合并实例 利用EM框架协同优化树状图构建与特征可分性 在物种识别等任务中表现突出 [17] 论文9 - 开发类别特异选择性特征增强模型 针对长尾多标签分类中样本稀缺类别敏感性丧失问题 利用类激活图定位关键区域 [19][20] - 设计渐进式注意力增强机制 按头部-中部-尾部类别顺序提升低置信度响应 实验显示其在标签不平衡场景下的泛化优势 [19][20] 论文10 - 建立部分匹配子图定位框架 通过高斯分布建模跨模态歧义性 放宽指令文本与点云地图严格对齐假设 [22][23] - 提出不确定性感知相似性度量 将定位阶段的不确定性传播至场景识别阶段 提升真实噪声场景下的任务协同性 [22][23] 学术会议背景 - ICCV 2025为计算机视觉A类顶会 本届收到11239份投稿 录用率24% 将于10月19-25日在夏威夷举办 [25] 技术社区资源 - 具身智能之心知识星球聚集近1500名开发者 覆盖40+开源项目与60+数据集 涉及VLA、VLN、Diffusion Policy等前沿方向 [29][30] - 3D视觉之心社区聚焦三维重建、NeRF、SLAM等技术 提供行业交流与求职对接服务 [26][27]
极智嘉 全栈技术筑壁垒掘金仓储自动化黄金赛道
搜狐财经· 2025-07-02 17:30
公司上市与募资 - 极智嘉计划于2025年7月9日在港交所主板挂牌上市,发行140,353,000股H股,其中香港公开发售14,035,400股,国际发售126,317,600股 [2] - 发行价为每股16.80港元,预计募集资金23.58亿港元 [2] - 引入4名基石投资者,累计认购9130万美元(约7.167亿港元),包括雄安机器人、Arc Avenue、保诚旗下Eastspring Investments和纵腾集团持有的亿格 [2] 核心技术 - 公司构建了覆盖硬件、软件、算法的全栈技术体系,形成显著技术护城河 [3] - 激光视觉融合SLAM技术定位精度平均低于±10mm(±1°),处于行业领先地位 [4] - Hyper+核心算法平台支持25种仓储任务算法,单仓可协调超5000台机器人协同作业,拣选效率达每工位每小时400件(货架到人)和300件(货箱到人) [5] - 全球首个机器人通用技术平台Robot Matrix支持全品类机器人开发,研发效率提升30%以上 [6][7] - 全栈软件系统包括仓库执行系统(WES)、机器人管理系统(RMS)和智能运营平台(IOP),系统可用率99.99%,故障恢复时间<10分钟 [8] 专利与技术积累 - 截至2024年累计申请专利超2000项,覆盖路径规划、多机调度、传感器融合等关键领域 [8] - PopPick货箱到人拣选方案可降低客户50%仓储成本,分拣准确率达99.9987% [8] 行业前景 - 全球AMR市场规模预计从2024年的387亿元增至2029年的1621亿元,年复合增长率33.1% [10] - AMR在仓储自动化中的渗透率将从2020年的4.4%提升至2029年的20.2% [10] - 电商、3PL及制造业升级是主要增长动力 [13] - 中国"十四五"规划明确提出"智能制造"战略,地方政府对自动化仓储项目提供补贴 [15] 竞争优势 - 连续6年全球仓储履约AMR市占率第一(2024年:9.0%),收入超国内最大竞品海柔创新(2023年极智嘉营收21.4亿元vs海柔约10亿元) [23] - 2021-2024年营收从7.9亿元增至24.1亿元,复合增长率45% [23] - 2024年订单金额31.4亿元,同比增长16.6% [23] - 毛利率提升至34.8%(仓储履约AMR毛利率39.2%,海外业务毛利率46.5%) [23] - 全球48个服务站点+13个备件中心,7×24小时响应,客户复购率74.6%(关键客户84.3%) [24] - 覆盖63家财富500强企业,包括沃尔玛、西门子、顺丰等 [24]
重磅直播!清华&博世开源SOTA性能纯血VLA:Impromptu-VLA告别双系统~
自动驾驶之心· 2025-07-01 20:58
自动驾驶技术进展 - 当前自动驾驶系统在结构化环境(如城市和高速公路)中取得显著进展,但在非结构化场景(如乡村小路、临时施工区、恶劣路况)中仍面临鲁棒性和安全性挑战 [1] - 现有大规模自动驾驶数据集主要关注常规交通状况,缺乏针对非结构化环境的专门、大规模且精细标注的数据 [1] Impromptu VLA框架 - 清华AIR联合博世中央研究院提出Impromptu VLA框架,旨在提供开放权重和开放数据的驾驶视觉-语言-动作模型 [1] - 该框架是完全端到端、无中间感知表征的"纯血VLA"系统,直接从驾驶视频片段提取多模态特征并生成自然语言格式的驾驶命令 [1] - 系统无需手工设计感知模块、行为先验或中间BEV表达 [1] - 在NeuroNCAP闭环安全评测中表现优异,得分2.15,显著超越CVPR 2025最新提出的BridgeAD系统(1.60) [1] 技术资源与分享 - 论文已发布于arXiv(编号2505.23757v1) [2] - 项目主页在GitHub(ahydchh/Impromptu-VLA) [2] - 清华大学计算机系本科生迟浩瀚将分享该VLA框架 [2] 学习建议 - 建议入门者扎实深度学习和计算机视觉基础,逐步了解自动驾驶各模块 [2] - 推荐通过阅读前沿论文和参与开源项目实践来熟悉数据处理和模型训练流程 [2]
暑假打打比赛!PRCV 2025空间智能与具身智能视觉感知挑战赛正式启动~
自动驾驶之心· 2025-06-30 20:51
竞赛概述 - 竞赛聚焦空间智能与具身智能的视觉感知技术,旨在推动高效、高质量的技术研究,探索强化学习、计算机视觉等前沿方法的创新,并促进神经渲染、场景优化等方向的应用 [2][4] - 竞赛由北京科技大学、清华大学、中国科学院自动化研究所等机构联合组织,北京九章云极科技有限公司提供赞助和技术支持 [5] 参赛要求与流程 - 参赛者包括高校教师、研究生、博士生及企事业单位研究团体,以个人或团队形式报名,每队不超过5人 [8][9] - 报名需通过邮件提交团队信息,截止日期为7月31日,比赛分为训练集发布、结果提交、评测和颁奖四个阶段 [5][6][10] 竞赛资源与任务 - 提供大规模无人机航拍图(500-1000张1k分辨率)和具身智能仿真场景数据,九章云极免费提供8卡H800 GPU算力用于验证 [11][12] - 赛道1要求构建多视角航拍图像的三维重建模型,评估渲染质量(PSNR)和几何精度(F1-Score) [17][19][20] - 赛道2要求完成动态遮挡场景的抓取任务,评估任务完成度(成功率、位姿误差)和执行效率(耗时、路径效率) [21][23] 奖项设置 - 每个赛道设一等奖(6000元+500度算力券)、二等奖(3000元+200度算力券)、三等奖(1000元+100度算力券)及优胜奖(500元+50度算力券) [25] 相关会议 - 竞赛结果将在PRCV2025大会(10月15-18日)公布,该会议是CCF分区顶级学术会议,涵盖模式识别与计算机视觉领域前沿成果 [27][28]
ICCV 2025放榜!录取率24%,夏威夷门票你抢到了吗?
机器之心· 2025-06-26 14:10
ICCV 2025会议概况 - ICCV 2025将于10月19日至25日在美国夏威夷举行,是计算机视觉领域三大顶级会议之一,与CVPR和ECCV并列 [2][27] - 本届会议共收到11239份有效投稿,录用2699篇论文,录用率为24% [3] - 投稿量较2019年增长近三倍(2019年4323篇),反映计算机视觉领域研究活跃度显著提升 [4][8] 录用数据与历史对比 - 近年录用率保持稳定:2023年26.15%(8260投稿/2160录用),2021年26.20%(6152投稿/1612录用),2019年25%(4323投稿/1075录用) [5][8] - 新政策导致29篇关联审稿人的论文被拒,其中12篇原本符合录用标准 [6][7] 代表性录取论文 - 高保真3D几何生成:通过法线桥接技术从图像生成三维模型 [9] - 医学影像分割:发布十亿级MRI标注数据集UKBOB [15] - 自动驾驶安全:本体驱动的风险评估框架OD-RASE [23] - 生成式AI:通用扩散模型UniVG实现图像生成与编辑一体化 [24] 行业趋势与挑战 - 深度学习革命推动研究爆发:自2012年AlexNet突破后,LLM和生成式AI等技术进一步刺激论文产量 [30][32] - 顶级会议投稿量激增:NIPS 2025投稿或超30000篇,同行评审系统面临质量与公平性挑战 [35][36] - 改革建议:建立双向评审系统(作者评估审稿质量+审稿人奖励机制)以提升问责制 [38][40][42] 会议形式与特点 - 会议周期4-5天,包含专题教程、技术议程、海报展示及商业展览 [28] - 近年新增强化问责政策,直接处理不负责任审稿行为 [6]
MIT终身教授何恺明,入职谷歌了
量子位· 2025-06-26 10:11
何恺明职业动向 - AI大牛何恺明在获得MIT终身教职后,宣布以兼职形式加盟谷歌DeepMind担任杰出科学家[1][5] - MIT官网显示其成为2025年工程学院11位新晋终身教职人员之一,距离正式入职MIT仅一年左右[2][3] - 在DeepMind的职位隶属基础研究组,直属领导职级为L8,距离CEO哈萨比斯相差三级管理层级[6] 学术成就与行业影响 - 何恺明是计算机视觉领域标杆人物,其2009年雾霾去除论文获CVPR最佳论文(亚洲学者首次)[9][10] - 2015年提出的ResNet获ILSVRC 2015分类任务冠军,论文引用量超28万次,成为其最高引研究[11][12] - ResNet框架被Transformer、AlphaGo Zero、AlphaFold及多数GenAI模型采用[13] - 在FAIR期间主导的Mask R-CNN获ICCV 2017最佳论文,解决实例级对象分割问题[15] - 谷歌学术总引用量达71万次,近期聚焦模型性能优化(如表示正则化、高压缩Tokenizer)[19][20] 与谷歌DeepMind的合作基础 - 2024年2月与DeepMind全华人团队合作提出分形生成模型,实现逐像素高分辨率图像生成并开源代码[23][24] - 2023年联合开发Fluid模型,突破视觉自回归模型扩展瓶颈,提升连续token生成质量[25][26][29] - 历史合作表明双方在生成模型领域有深度技术协同,此次加盟属强强联合[28]
单应计算加速数十倍、计算量减少95%!基于几何的SKS和ACA矩阵分解被提出
机器之心· 2025-06-19 11:50
论文简介 - 东华大学、上海交通大学、中科院自动化所研究团队提出两种基于几何的单应矩阵分解方法,相比传统稀疏线性方程组方法减少95%以上计算量,显著提升二维码扫描等视觉应用效率[3] - 该方法适用于射影几何、计算机视觉和图形学领域,论文已被IEEE T-PAMI期刊接收[4] - 论文标题为《Fast and Interpretable 2D Homography Decomposition: Similarity-Kernel-Similarity and Affine-Core-Affine Transformations》,提供代码、视频介绍及奖金激励[5] 问题背景 - 平面单应是8自由度的3×3矩阵,传统DLT方法通过构建稀疏线性方程组求解,OpenCV实现需约2000次浮点运算[6] - 改进方法包括3×3矩阵SVD分解(1800次运算)和定制化高斯消元法(220次运算),二维码场景可进一步简化但缺乏研究[7] 核心方法 - SKS变换利用两组对应点分解单应为相似-射影核-相似变换,通过标准点转换和双曲相似变换实现几何层次化求解[9][10][11] - ACA变换通过三组对应点实现仿射-射影核-仿射分解,仅需85次浮点运算,正方形模板场景可优化至29次运算[15][16][18] 性能对比 - ACA分解单次计算仅需17纳秒,相比DLT+LU方法实现43倍实际加速(理论FLOPs提升20倍)[21][22] - SKS方法在O2优化下实现29倍加速,超越理论11倍FLOPs改进,因避免了条件判断等额外开销[22] 应用前景 - 日均百亿次二维码扫描场景中,新方法可减少浮点运算量,相比传统DLT+LU节省显著[24] - 技术可集成于相机标定、图像拼接、AR等视觉任务,并延伸至深度学习单应估计、P3P姿态估计等研究方向[24][25]
刚刚,CVPR 2025奖项出炉:牛津&Meta博士生王建元获最佳论文,谢赛宁摘年轻研究者奖
机器之心· 2025-06-13 23:45
CVPR 2025大会概况 - 本届CVPR共收到13008份论文投稿,同比增长13%,最终接收2872篇,接收率22.1% [3] - 大会现场参会学者超过9000人,来自70余个国家和地区 [7] - 图像与视频生成领域论文接收数量最多,基于多视角和单图像的3D领域接收率最高 [8] 最佳论文及荣誉提名 - 最佳论文VGGT由牛津大学和Meta AI联合提出,采用纯前馈Transformer架构实现通用3D视觉模型,推理速度达秒级 [14][17] - 荣誉提名论文MegaSaM来自Google DeepMind等机构,提出深度视觉SLAM框架,在动态场景中实现快速准确的相机姿态估计 [27][30] - 另一篇荣誉提名论文Navigation World Models由LeCun团队提出,采用条件扩散Transformer实现最先进视觉导航性能 [33] 3D视觉技术进展 - 3D Student Splatting and Scooping(SSS)改进了3D高斯泼溅技术,在质量和参数效率上优于现有方法 [37][40] - 论文实验数据显示,SSS方法在Mip-NeRF360数据集上PSNR达29.90,LPIPS为0.145,表现最优 [42] 视觉语言模型创新 - Molmo和PixMo论文提出开源视觉语言模型,72B参数模型在多项基准测试中超越Claude 3.5 Sonnet等商业模型 [46] - 该方法创新性地使用PixMo数据集,无需依赖专有VLM合成数据 [46] 学生论文亮点 - 最佳学生论文提出首个基于物理的多视角动态光传播神经逆渲染系统,实现强间接光条件下的3D重建 [55] - 荣誉提名学生论文创新性地利用扩散时间步构建视觉语言,统一多模态理解和生成 [63][66] 行业重要奖项 - 年轻研究者奖授予Hao Su和谢赛宁,两人论文被引量分别超过12万和7.5万 [68][72][74] - Longuet-Higgins奖授予Inception架构和全卷积网络两篇开创性论文,引用量分别达6.7万和4.9万 [76][79][80][83] - Thomas S. Huang纪念奖授予德克萨斯大学Kristen Grauman教授,表彰其在计算机视觉领域的贡献 [86]
微美全息上涨5.13%,报2.46美元/股,总市值2415.92万美元
金融界· 2025-06-11 21:50
股价表现 - 6月11日开盘上涨5.13%至2.46美元/股 [1] - 当日成交额达10.36万美元 [1] - 总市值为2415.92万美元 [1] 财务数据 - 2024年收入总额5.42亿人民币,同比减少7.42% [1] - 归母净利润7164.15万人民币,同比增长117.01% [1] 公司背景 - 注册于开曼群岛,主要通过北京微美云息软件有限公司运营 [1] - 中国领先的全息云产业综合实体 [1] - 目标成为具有国际影响力的全息云平台 [1] 业务范围 - 覆盖全息AR技术全产业链 [1] - 提供一站式全息云综合技术方案 [1] - 中国最大的全息云技术方案提供商之一 [1] 技术能力 - 涵盖全息计算机视觉AI合成到应用的全环节 [1] - 包括全息AR广告投放、SDK支付、5G通讯开发等 [1] - 具备全息人脸识别和AI换脸开发能力 [1] 行业应用 - 在广告、娱乐、教育、5G通讯领域取得突破 [2] - 深度研发全息3D计算机视觉各环节技术 [2] - 构建开放性服务平台连接技术与应用 [2] 发展战略 - 推动全息技术在不同场景的应用呈现 [2] - 促进行业跨越式发展 [2] - 愿景是成为中国全息生态缔造者 [2]
速递|Buildots完成4500万美元D轮融资,用AI模型+计算机视觉破解建筑业“信息脱节”难题
Z Potentials· 2025-05-30 11:23
公司概况 - Buildots是一家成立于2018年的芝加哥初创公司 由Roy Danon、Aviv Leibovici和Yakir Sudry联合创立 专注于通过人工智能和计算机视觉技术改善建筑行业管理效率 [3] - 公司已完成D轮4500万美元融资 由Qumra Capital领投 总融资额达1 66亿美元 [3] - 目前拥有230多名员工 计划重点扩充研发团队并拓展北美业务 [4] 核心技术 - 平台通过管理人员安全帽上的360度摄像头采集图像 实时追踪施工进度 [3] - 系统具备监测和预测功能 通过AI聊天机器人提供项目状态查询和延误风险预警 [4] - 计划利用历史数据训练AI模型 建立基准并优化建筑项目表现 [4] 市场定位 - 客户包括英特尔和约50家建筑企业 服务对象涵盖现场管理人员、建筑高管等多方利益相关者 [4] - 差异化优势在于以运营为核心的平台及建筑行业绩效管理的独特方法 [5] - 主要竞争对手包括BeamUp和Versatile等AI建筑科技公司 [4] 行业痛点 - 建筑行业存在管理人员与现场实际情况脱节的问题 需同时处理成本动态、多方沟通和承包商风险评估等复杂任务 [2] - 传统决策依赖碎片化信息 缺乏真实可衡量的数据支持 [4]