Workflow
BRICKGPT
icon
搜索文档
汇报一下ICCV全部奖项,恭喜朱俊彦团队获最佳论文
具身智能之心· 2025-10-26 12:02
文章核心观点 - ICCV 2025会议在美国夏威夷举行,中国提交论文的作者占比达到50% [1] - 会议公布了多项重要奖项,包括最佳论文奖、最佳学生论文奖等,展示了计算机视觉领域的最新研究进展 [3][4][6][7][9][10][12][14][16] 获奖研究成果 - **最佳论文奖(马尔奖)**:研究提出BRICKGPT模型,能够根据文本提示生成物理稳定的积木结构,构建了包含超过47000个积木结构的数据集StableText2Brick,涵盖28000多个独特三维物体 [24][26] - **最佳学生论文奖**:提出FlowEdit方法,基于预训练T2I流模型实现文本驱动图像编辑,无需反演和优化,在Stable Diffusion 3和FLUX上取得最先进效果 [38][39][40] - **最佳论文荣誉提名**:来自卡内基梅隆大学的团队开发空间可变自动对焦技术,利用光学组合使每个像素聚焦在不同深度上,能够同时使整个场景保持清晰对焦 [42][44] - **最佳学生论文荣誉提名**:RayZer模型以未标定图像作为输入,自主恢复相机参数并生成新视角画面,仅通过2D图像监督完成训练 [47][48][49] - **赫尔姆霍兹奖**:Fast R-CNN方法在PASCAL VOC 2012数据集上对VGG16网络的训练速度较R-CNN提升9倍,测试速度提升213倍 [54];PReLU网络在ImageNet 2012分类数据集上实现4.94%的Top-5测试误差,相比GoogLeNet的6.66%提升26%,首次超过人类水平的5.1% [58][59][60] 获奖团队与研究人员 - **The SMPL Body Model Team**:开发了基于蒙皮和混合形状技术的逼真人体三维模型,模型参数完全从数据中学习 [62][64][66] - **The VQA Team**:提供了包含约25万张图像、76万个问题和约1000万个答案的视觉问答数据集,并提供了多种基线方法 [67][68][69] - **David Forsyth**:伊利诺伊大学香槟分校计算机科学教授,研究方向包括计算机视觉、计算机图形学和机器学习 [72][73] - **Michal Irani**:以色列魏茨曼科学研究院教授,研究领域为计算机视觉、图像处理和人工智能 [75] - **Rama Chellappa**:约翰霍普金斯大学布隆伯格杰出教授,研究领域涵盖计算机视觉、模式识别、图像与信号处理等 [78] 研究人员背景 - 朱俊彦:清华大学计算机科学系本科毕业,UC伯克利博士,现任CMU助理教授,博士论文获ACM SIGGRAPH 2018"杰出博士论文奖" [30][31] - Kangle Deng:Roblox研究科学家,北京大学本科,卡内基梅隆大学博士 [33] - Ruixuan Liu:卡内基梅隆大学博士生,研究方向包括机器人学习、操作与控制等 [35] - Changliu Liu:清华大学本科,加州大学伯克利分校博士,现任卡内基梅隆大学机器人研究所副教授 [37]
汇报一下ICCV全部奖项,恭喜朱俊彦团队获最佳论文
量子位· 2025-10-22 13:48
会议概况与参与度 - ICCV 2025在美国夏威夷举行,中国作者在提交论文的作者中占比高达50% [1] 主要奖项与获奖研究 - 最佳论文奖(马尔奖)授予研究“Generating Physically Stable and Buildable Brick Structures from Text”,该研究提出BRICKGPT模型,基于包含超过47,000个积木结构、涵盖28,000多个独特三维物体的大规模数据集StableText2Brick进行训练 [4][24] - 最佳学生论文奖授予研究“FlowEdit: Inversion-Free Text-Based Editing Using Pre-Trained Flow Models”,该方法无需反演和优化,在Stable Diffusion 3和FLUX上取得最先进效果 [6][39][40] - 最佳论文荣誉提名授予研究“Spatially-Varying Autofocus”,该技术利用光学组合实现空间可变自动对焦,能同时使整个场景保持清晰对焦并维持最高空间分辨率 [7][42][44] - 最佳学生论文荣誉提名授予研究“RayZer: A self-supervised large view synthesis model”,该模型仅依赖2D图像监督和自预测相机位姿进行新视角合成 [9][47][48] - 赫尔姆霍兹奖授予两项来自微软研究院的研究:Fast R-CNN和Delving Deep into Rectifiers [10][51] - Fast R-CNN在PASCAL VOC 2012数据集上,对VGG16网络的训练速度较R-CNN提升9倍,测试速度提升213倍,并获得更高mAP指标 [54] - Delving Deep into Rectifiers研究提出的PReLU-nets在ImageNet 2012分类数据集上实现4.94%的Top-5测试误差,相比GoogLeNet的6.66%提升26%,并首次超越人类水平(5.1%) [60] - 埃弗林厄姆奖授予The SMPL Body Model Team和The VQA Team [12][62] - VQA团队提供的数据集包含约25万张图像、76万个问题和约1000万个答案 [70] - 杰出研究员奖授予David Forsyth和Michal Irani [14][73][76] - 阿兹列尔·罗森菲尔德终身成就奖授予Rama Chellappa [16][79] 获奖者背景 - 最佳论文奖团队由朱俊彦带队,其本科毕业于清华大学计算机科学系(专业排名第2/140),博士毕业于UC伯克利,现任CMU助理教授 [28][30][31] - 最佳论文奖团队其他成员包括:本科毕业于北京大学的Kangle Deng(Roblox研究科学家)、本硕博均就读于CMU的Ruixuan Liu、本科毕业于清华博士毕业于UC伯克利的Changliu Liu(CMU副教授) [33][35][37]