计算机视觉
搜索文档
如何创建高质量视觉数据集
36氪· 2025-07-21 11:43
高质量计算机视觉数据集的重要性 - 企业人工智能采用率在过去四年中增长270%,推动计算机视觉应用快速整合[1] - 计算机视觉模型性能高度依赖训练数据的质量和数量,低质量数据会导致模型难以达到行业标准[1] - 高质量数据集需具备五大特征:准确性、多样性、一致性、及时性和隐私保护[5][6] 计算机视觉数据集的类型 - 训练数据:用于从头训练模型的主要数据集,包含带标签的图像和视频[3] - 验证数据:用于检查模型在训练过程中的表现[3] - 测试数据:独立数据集,用于评估模型对全新数据的预测能力[3] 低质量数据的挑战 - 过拟合:模型在训练数据表现良好但无法泛化到新数据,常因数据集缺乏多样性[7] - 欠拟合:数据集示例不足或质量差,模型无法学习有意义的模式[7] - 特征提取困难:不完整或不相关数据使模型难以提取有效特征[9] 数据集质量维护技巧 - 数据收集应采用多源策略(众包、地理多样性数据、合成数据)以减少偏差[11] - 预处理技术包括归一化和增强(旋转/翻转/缩放),可提升模型泛化能力[11][33] - 数据集分割建议比例为70%训练、15%验证、15%测试,需防止数据重叠[11] 计算机视觉数据集的未来趋势 - 行业重点从模型优化转向数据集质量提升,Andrew Ng提出"以数据为中心的人工智能"概念[14] - 未来方向包括提高标签准确性、去除噪声样本和确保数据多样性[14] 图像数据集构建关键步骤 - 明确用例:物体检测/分类/分割/面部识别等不同任务需要定制化数据集[20] - 数据多样性需涵盖光照条件、角度、分辨率等多维度变量[23] - 伦理考量要求数据集代表不同人口统计特征以避免算法偏见[21] 数据收集与标注最佳实践 - 主流数据来源包括公共数据集、网页抓取和自定义采集,各有优劣[24][30] - 标注类型需匹配任务:边界框(物体检测)、多边形(分割)、关键点(面部识别)[27][31] - 麻省理工研究显示错误标签可使模型性能降低50%,需多人标注+AI辅助确保质量[28][32] 数据集优化与管理 - 增强技术包括旋转/亮度调整,可模拟真实环境提升模型鲁棒性[33][34] - 云存储方案(AWS/谷歌云/Azure)适合大规模数据集版本管理[36][37] - 敏感数据需遵守GDPR等法规,医学/面部识别数据需匿名化处理[38] 数据集验证与维护 - 质量检测方法包括抽查注释和在小样本上预训练模型[45] - 维护需定期更新数据并重新训练模型以保持现实世界适应性[46] - 性能评估指标应包含精度、召回率和F1分数等量化标准[41]
暑假打比赛!PRCV 2025空间智能与具身智能视觉感知挑战赛启动~
自动驾驶之心· 2025-07-17 15:29
竞赛概述 - 竞赛聚焦空间智能与具身智能视觉感知技术,旨在推动高效、高质量的技术研究,探索强化学习、计算机视觉、图形学等前沿方法创新,并促进神经渲染、场景优化和机器人抓取等方向的应用 [2][4] - 竞赛由北京科技大学、清华大学、中国科学院自动化研究所等多家单位联合组织,北京九章云极科技有限公司提供赞助和技术支持 [5] 参赛要求与流程 - 参赛者包括国内研究团体、企事业单位及高校师生,团队不超过5人,每人仅能加入1个团队 [8][9] - 报名需通过邮件提交团队信息,截止日期为7月31日,比赛分阶段进行,包括数据集发布、结果提交和评审,最终在PRCV2025大会上颁奖 [5][6][10] 竞赛资源与任务 - 提供大规模无人机航拍图(500-1000张1k分辨率)和具身智能仿真场景数据,九章云极提供8卡H800 GPU算力支持 [11][12] - 赛道1要求构建多视角航拍图像的三维重建模型,评估渲染质量(PSNR)和几何精度(F1-Score) [17][19][20] - 赛道2要求完成动态遮挡场景中的抓取任务,评估任务完成度(成功率、位姿误差)和执行效率(耗时、路径效率) [21][23] 奖项与知识产权 - 每个赛道设一等奖(6000元+500度算力券)、二等奖(3000元+200度算力券)、三等奖(1000元+100度算力券)及优胜奖 [25] - 参赛方案知识产权归团队所有,数据仅限竞赛使用,禁止扩散,组织方承诺保密 [29] 相关会议PRCV2025 - PRCV2025为国内模式识别与计算机视觉顶级会议,涵盖学术前沿、产业应用与技术创新,投稿截止2025年6月30日 [27][30] - 会议由四大国家级学会联合主办,上海交通大学承办,Springer出版论文集并被EI/ISTP检索 [31][32]
自驾搞科研别蛮干!用对套路弯道超车~
自动驾驶之心· 2025-07-11 09:14
课程核心价值 - 通过1v6精英小班模式快速掌握LLM/MLLM领域科研全流程,包括模型理论、代码实践、论文写作与投稿技巧 [1][5][10] - 提供经典与前沿Baseline资源,导师定制化分配研究idea,确保学员产出完整论文初稿 [6][7][20] - 系统性解决知识碎片化问题,帮助构建算法设计、创新思路及论文写作方法论体系 [10][22] 导师资质 - 毕业于知名计算机院校,具备计算机视觉、模型压缩、多模态大语言模型等领域的算法研究经验 [2] - 在CVPR/ICCV/EMNLP等顶会发表论文十余篇,担任CVPR/ICML/NeurIPS等会议审稿人,拥有多项发明专利 [3] 目标学员 - 自动驾驶领域硕博生(感知/预测/规划方向)、车企算法工程师、AI从业者 [11] - 需具备Python/PyTorch基础,熟悉深度学习框架,最好拥有4张4090显卡级别算力设备 [16][17] 课程设计 - 授课周期3.5-4个月,提供6个月答疑服务,采用腾讯会议直播+小鹅通回放形式 [19][21] - 产出对标SCI 1-4区或CCF A/B/C级别论文,定制化调整idea难度 [20][22] - 配套班主任督学服务,要求学员全勤参与、完成作业并保持学术诚信 [23] 技术门槛 - 最低硬件要求为2张4090显卡,建议掌握Linux开发调试及CUDA语法基础 [16][17] - 需通过1v1面试评估基础能力,课程深度根据学员水平动态调整 [14][16]
中美AI差距有多大,AI竞争焦点在哪?《全球人工智能科研态势报告》全球首发
钛媒体APP· 2025-07-03 18:36
全球AI科研态势 - 报告基于2015-2024年96961篇AI领域文献分析,由联合国工业发展组织与东壁科技数据联合发布,采用东壁指数评价体系 [2] - 全球AI科研演进分为四个阶段:初始起步期(2015-2016年论文量4421→3628篇)、快速发展期(2017-2019年突破万篇)、成熟高峰期(2020-2023年达17074篇)、波动调整期(2024年回落至14786篇) [5][6] - 技术路径从传统机器学习(2015-2017)→深度学习/计算机视觉(2018-2020)→大语言模型/生成式AI(2021-2023)→可解释性AI/多智能体系统(2024-) [6] 中美AI人才对比 - 全球AI人才57.7%集中在中美两国,美国6.3万人领先,中国5.2万人以28.7%年复合增速追赶 [7][8] - 美国形成"人才旋转门"机制(高校企业流动率37%),中国互通率不足15% [10] - 华人学者在美表现突出:全球百人榜中20位在美学者里华人占10位,女性榜11位在美学者含3位华人女性 [3] 机构与企业表现 - 顶尖机构榜:中国占38席(中科院2386人才/4639篇论文),美国35席(总论文35117篇/被引228万次) [7] - 美国企业学术产出优势显著:谷歌(2895篇)+微软(1582篇)+Meta(1419篇)总量是中国TOP3企业(腾讯1354+阿里1034+华为885)的1.8倍 [9][10] - 中国企业应用导向突出:计算机视觉论文比美国高40.8%,知识图谱高50.1%,在自动驾驶/移动支付等场景落地强劲 [11] 技术发展趋势 - 深度学习关键词频率十年增长84倍,2018-2023年均增速217%,2024年进入平台期(增速30%) [14] - 计算机视觉形成"目标检测(78%热词)-语义分割-视觉应用"闭环,语义理解类关键词2022年后年均增45% [14] - Transformers技术2022年后崛起,工程化关键词如特征提取/优化持续升温 [15] 区域与性别特征 - 亚太创新中心崛起:北京/上海/深圳/新加坡/首尔进入全球20大人才聚集区,微软在华部署714人占其全球AI人才29% [13] - 中国AI女性人才占比仅9.3%(美国20.1%),头部企业女性占比6.1%远低于谷歌/微软的18.7% [12][13]
实验室10篇论文被ICCV 2025录用
自动驾驶之心· 2025-07-02 21:54
论文研究成果总结 论文1 - 提出类别级几何学习框架用于三维点云分割的域泛化问题 通过几何嵌入感知点云细粒度属性并构建类别级几何属性 耦合几何嵌入与语义学习提升泛化能力 [1] - 引入几何一致性学习模拟潜在三维分布并对齐类别级几何嵌入 使模型关注几何不变信息 实验验证该方法在域泛化三维分割中具有竞争力 [1] 论文2 - 开发分层变分测试时提示生成方法 通过Hyper Transformer动态生成文本/视觉提示 解决传统方法提示模板固定导致的领域适应性问题 [3] - 采用变分推理减轻提示模板敏感性和分布偏移 通过分层条件提示捕捉深层上下文依赖 实验显示该方法在零样本准确率上达到SOTA [3] 论文3 - 提出知识引导部件分割框架(KPS) 利用大语言模型构建部件结构知识图谱 通过结构知识引导模块将关系信息嵌入视觉特征 [5][6] - 设计粗粒度物体引导模块增强整体类别感知 实现复杂场景下的精细部件分割 突破传统方法忽视部件结构联系的局限 [5][6] 论文4 - 构建TopicGeo统一检索匹配框架 通过CLIP提示学习嵌入文本语义主题 消除多时相遥感图像的类内/类间分布差异 [9] - 采用中心自适应标签分配与离群点剔除机制优化检索匹配流程 实验表明该方法在召回率和匹配精度上均优于分离范式 [9] 论文5 - 提出视觉语言交互关系挖掘模型(VL-IRM) 通过多模态交互学习解决开放词汇场景图生成中的关系感知缺失问题 [11] - 开发关系生成模型增强文本模态的开放式关系探索能力 利用视觉引导扩展关系文本空间语义 实验验证其广义关系表征优势 [11] 论文6 - 设计VGMamba网络实现三维视觉定位 包含属性Mamba、位置Mamba和多模态融合Mamba三模块 通过SVD分解与滑动窗口捕获属性特征 [13] - 提出属性到位置线索推理机制 融合语言查询与点云空间信息精准定位目标物体 在复杂语义查询场景下表现优异 [13] 论文7 - 创新动态中心距离(DCD)度量 通过元学习框架计算特征空间样本难度 解决噪声标签学习中简单样本主导问题 [15] - 结合DCD与半监督训练策略 聚焦硬样本优化分类损失 在合成/真实噪声数据集及医学图像中验证鲁棒性 [15] 论文8 - 提出BuCSFR方法实现粗标签到细粒度表征学习 通过自底向上构建树状图适应动态类别变化 无需预定义类别数量 [17] - 基于最小信息损失准则迭代合并实例 利用EM框架协同优化树状图构建与特征可分性 在物种识别等任务中表现突出 [17] 论文9 - 开发类别特异选择性特征增强模型 针对长尾多标签分类中样本稀缺类别敏感性丧失问题 利用类激活图定位关键区域 [19][20] - 设计渐进式注意力增强机制 按头部-中部-尾部类别顺序提升低置信度响应 实验显示其在标签不平衡场景下的泛化优势 [19][20] 论文10 - 建立部分匹配子图定位框架 通过高斯分布建模跨模态歧义性 放宽指令文本与点云地图严格对齐假设 [22][23] - 提出不确定性感知相似性度量 将定位阶段的不确定性传播至场景识别阶段 提升真实噪声场景下的任务协同性 [22][23] 学术会议背景 - ICCV 2025为计算机视觉A类顶会 本届收到11239份投稿 录用率24% 将于10月19-25日在夏威夷举办 [25] 技术社区资源 - 具身智能之心知识星球聚集近1500名开发者 覆盖40+开源项目与60+数据集 涉及VLA、VLN、Diffusion Policy等前沿方向 [29][30] - 3D视觉之心社区聚焦三维重建、NeRF、SLAM等技术 提供行业交流与求职对接服务 [26][27]
极智嘉 全栈技术筑壁垒掘金仓储自动化黄金赛道
搜狐财经· 2025-07-02 17:30
公司上市与募资 - 极智嘉计划于2025年7月9日在港交所主板挂牌上市,发行140,353,000股H股,其中香港公开发售14,035,400股,国际发售126,317,600股 [2] - 发行价为每股16.80港元,预计募集资金23.58亿港元 [2] - 引入4名基石投资者,累计认购9130万美元(约7.167亿港元),包括雄安机器人、Arc Avenue、保诚旗下Eastspring Investments和纵腾集团持有的亿格 [2] 核心技术 - 公司构建了覆盖硬件、软件、算法的全栈技术体系,形成显著技术护城河 [3] - 激光视觉融合SLAM技术定位精度平均低于±10mm(±1°),处于行业领先地位 [4] - Hyper+核心算法平台支持25种仓储任务算法,单仓可协调超5000台机器人协同作业,拣选效率达每工位每小时400件(货架到人)和300件(货箱到人) [5] - 全球首个机器人通用技术平台Robot Matrix支持全品类机器人开发,研发效率提升30%以上 [6][7] - 全栈软件系统包括仓库执行系统(WES)、机器人管理系统(RMS)和智能运营平台(IOP),系统可用率99.99%,故障恢复时间<10分钟 [8] 专利与技术积累 - 截至2024年累计申请专利超2000项,覆盖路径规划、多机调度、传感器融合等关键领域 [8] - PopPick货箱到人拣选方案可降低客户50%仓储成本,分拣准确率达99.9987% [8] 行业前景 - 全球AMR市场规模预计从2024年的387亿元增至2029年的1621亿元,年复合增长率33.1% [10] - AMR在仓储自动化中的渗透率将从2020年的4.4%提升至2029年的20.2% [10] - 电商、3PL及制造业升级是主要增长动力 [13] - 中国"十四五"规划明确提出"智能制造"战略,地方政府对自动化仓储项目提供补贴 [15] 竞争优势 - 连续6年全球仓储履约AMR市占率第一(2024年:9.0%),收入超国内最大竞品海柔创新(2023年极智嘉营收21.4亿元vs海柔约10亿元) [23] - 2021-2024年营收从7.9亿元增至24.1亿元,复合增长率45% [23] - 2024年订单金额31.4亿元,同比增长16.6% [23] - 毛利率提升至34.8%(仓储履约AMR毛利率39.2%,海外业务毛利率46.5%) [23] - 全球48个服务站点+13个备件中心,7×24小时响应,客户复购率74.6%(关键客户84.3%) [24] - 覆盖63家财富500强企业,包括沃尔玛、西门子、顺丰等 [24]
重磅直播!清华&博世开源SOTA性能纯血VLA:Impromptu-VLA告别双系统~
自动驾驶之心· 2025-07-01 20:58
自动驾驶技术进展 - 当前自动驾驶系统在结构化环境(如城市和高速公路)中取得显著进展,但在非结构化场景(如乡村小路、临时施工区、恶劣路况)中仍面临鲁棒性和安全性挑战 [1] - 现有大规模自动驾驶数据集主要关注常规交通状况,缺乏针对非结构化环境的专门、大规模且精细标注的数据 [1] Impromptu VLA框架 - 清华AIR联合博世中央研究院提出Impromptu VLA框架,旨在提供开放权重和开放数据的驾驶视觉-语言-动作模型 [1] - 该框架是完全端到端、无中间感知表征的"纯血VLA"系统,直接从驾驶视频片段提取多模态特征并生成自然语言格式的驾驶命令 [1] - 系统无需手工设计感知模块、行为先验或中间BEV表达 [1] - 在NeuroNCAP闭环安全评测中表现优异,得分2.15,显著超越CVPR 2025最新提出的BridgeAD系统(1.60) [1] 技术资源与分享 - 论文已发布于arXiv(编号2505.23757v1) [2] - 项目主页在GitHub(ahydchh/Impromptu-VLA) [2] - 清华大学计算机系本科生迟浩瀚将分享该VLA框架 [2] 学习建议 - 建议入门者扎实深度学习和计算机视觉基础,逐步了解自动驾驶各模块 [2] - 推荐通过阅读前沿论文和参与开源项目实践来熟悉数据处理和模型训练流程 [2]
暑假打打比赛!PRCV 2025空间智能与具身智能视觉感知挑战赛正式启动~
自动驾驶之心· 2025-06-30 20:51
竞赛概述 - 竞赛聚焦空间智能与具身智能的视觉感知技术,旨在推动高效、高质量的技术研究,探索强化学习、计算机视觉等前沿方法的创新,并促进神经渲染、场景优化等方向的应用 [2][4] - 竞赛由北京科技大学、清华大学、中国科学院自动化研究所等机构联合组织,北京九章云极科技有限公司提供赞助和技术支持 [5] 参赛要求与流程 - 参赛者包括高校教师、研究生、博士生及企事业单位研究团体,以个人或团队形式报名,每队不超过5人 [8][9] - 报名需通过邮件提交团队信息,截止日期为7月31日,比赛分为训练集发布、结果提交、评测和颁奖四个阶段 [5][6][10] 竞赛资源与任务 - 提供大规模无人机航拍图(500-1000张1k分辨率)和具身智能仿真场景数据,九章云极免费提供8卡H800 GPU算力用于验证 [11][12] - 赛道1要求构建多视角航拍图像的三维重建模型,评估渲染质量(PSNR)和几何精度(F1-Score) [17][19][20] - 赛道2要求完成动态遮挡场景的抓取任务,评估任务完成度(成功率、位姿误差)和执行效率(耗时、路径效率) [21][23] 奖项设置 - 每个赛道设一等奖(6000元+500度算力券)、二等奖(3000元+200度算力券)、三等奖(1000元+100度算力券)及优胜奖(500元+50度算力券) [25] 相关会议 - 竞赛结果将在PRCV2025大会(10月15-18日)公布,该会议是CCF分区顶级学术会议,涵盖模式识别与计算机视觉领域前沿成果 [27][28]
ICCV 2025放榜!录取率24%,夏威夷门票你抢到了吗?
机器之心· 2025-06-26 14:10
ICCV 2025会议概况 - ICCV 2025将于10月19日至25日在美国夏威夷举行,是计算机视觉领域三大顶级会议之一,与CVPR和ECCV并列 [2][27] - 本届会议共收到11239份有效投稿,录用2699篇论文,录用率为24% [3] - 投稿量较2019年增长近三倍(2019年4323篇),反映计算机视觉领域研究活跃度显著提升 [4][8] 录用数据与历史对比 - 近年录用率保持稳定:2023年26.15%(8260投稿/2160录用),2021年26.20%(6152投稿/1612录用),2019年25%(4323投稿/1075录用) [5][8] - 新政策导致29篇关联审稿人的论文被拒,其中12篇原本符合录用标准 [6][7] 代表性录取论文 - 高保真3D几何生成:通过法线桥接技术从图像生成三维模型 [9] - 医学影像分割:发布十亿级MRI标注数据集UKBOB [15] - 自动驾驶安全:本体驱动的风险评估框架OD-RASE [23] - 生成式AI:通用扩散模型UniVG实现图像生成与编辑一体化 [24] 行业趋势与挑战 - 深度学习革命推动研究爆发:自2012年AlexNet突破后,LLM和生成式AI等技术进一步刺激论文产量 [30][32] - 顶级会议投稿量激增:NIPS 2025投稿或超30000篇,同行评审系统面临质量与公平性挑战 [35][36] - 改革建议:建立双向评审系统(作者评估审稿质量+审稿人奖励机制)以提升问责制 [38][40][42] 会议形式与特点 - 会议周期4-5天,包含专题教程、技术议程、海报展示及商业展览 [28] - 近年新增强化问责政策,直接处理不负责任审稿行为 [6]
MIT终身教授何恺明,入职谷歌了
量子位· 2025-06-26 10:11
何恺明职业动向 - AI大牛何恺明在获得MIT终身教职后,宣布以兼职形式加盟谷歌DeepMind担任杰出科学家[1][5] - MIT官网显示其成为2025年工程学院11位新晋终身教职人员之一,距离正式入职MIT仅一年左右[2][3] - 在DeepMind的职位隶属基础研究组,直属领导职级为L8,距离CEO哈萨比斯相差三级管理层级[6] 学术成就与行业影响 - 何恺明是计算机视觉领域标杆人物,其2009年雾霾去除论文获CVPR最佳论文(亚洲学者首次)[9][10] - 2015年提出的ResNet获ILSVRC 2015分类任务冠军,论文引用量超28万次,成为其最高引研究[11][12] - ResNet框架被Transformer、AlphaGo Zero、AlphaFold及多数GenAI模型采用[13] - 在FAIR期间主导的Mask R-CNN获ICCV 2017最佳论文,解决实例级对象分割问题[15] - 谷歌学术总引用量达71万次,近期聚焦模型性能优化(如表示正则化、高压缩Tokenizer)[19][20] 与谷歌DeepMind的合作基础 - 2024年2月与DeepMind全华人团队合作提出分形生成模型,实现逐像素高分辨率图像生成并开源代码[23][24] - 2023年联合开发Fluid模型,突破视觉自回归模型扩展瓶颈,提升连续token生成质量[25][26][29] - 历史合作表明双方在生成模型领域有深度技术协同,此次加盟属强强联合[28]