Workflow
Rokid Glasses(GPT 5.2)
icon
搜索文档
港科大教授实测AI眼镜“作弊”:30分钟碾压95%的学生,把传统教学评估体系整破防了
猿大侠· 2026-01-07 12:11
实验概述与核心结果 - 香港科技大学教授团队进行了一项实验,让一副搭载ChatGPT-5.2模型的AI眼镜(Rokid Glasses)参加《计算机网络原理》本科期末考试,并在复刻真实考试条件下完成答卷[1][2][7][8] - AI眼镜在30分钟内交卷,取得92.5分,在百余人排名中位列前五,轻松超过了95%的人类考生[4] - 学生最高分为97.5分,平均分为72分,AI成绩显著高于平均线[4] 实验设计与技术选型 - 硬件方面,研究团队系统评估了12款主流商业智能眼镜,最终选择乐奇Rokid眼镜,因其同时具备内置摄像头和集成显示屏,且SDK更丰富、生态更完善,开发自由度更高[9][11][12] - 大模型方面,团队对比多款主流模型后,选择了OpenAI最新的ChatGPT-5.2,因其响应速度和通用知识能力较强[12] - 考试流程顺畅:学生低头看卷,眼镜摄像头拍摄题目,图像经“眼镜—手机—云端”链路传输至远程大模型推理,答案返回并显示在眼镜屏幕上供学生抄录[13] AI表现的具体分析 - 在多项选择题和单页短答题中,AI眼镜均获得满分(分别为29分和18分)[14] - 在难度更高的跨页短答题中,AI获得45.5分(满分53分),展现了极强的推理连贯性,即便复杂计算偶有偏差,中间步骤也非常完整[14][15] - 实验表明,只要题目规则清晰、评价目标单一,AI就能稳定跑完读题、理解、推理、作答的完整流程[29][30] 暴露的技术瓶颈与挑战 - **功耗问题**:在持续高分辨率图像传输和Wi-Fi连接下,30分钟内眼镜电量从100%迅速降至58%,全天候长时间使用的功耗控制和连接稳定性是工程瓶颈[19] - **摄像头清晰度限制**:摄像头清晰度直接决定AI“视力”,题目模糊、反光或拍摄角度偏差会导致AI在不完整信息上推理,答题稳定性明显下滑[20] 对传统教学评估体系的冲击与反思 - 实验凸显了一个根本问题:当教学评估主要关注能否交出“标准答案”时,这恰好落在AI最擅长且最稳定的能力区间内[22] - 以知识点掌握和标准解题路径为核心的传统评估方式,在AI时代显得吃力,其评估的有效性受到质疑[6][22][33] - 英国雷丁大学的一项研究发现,AI生成的答卷混入考试后,有高达94%成功蒙混过关,且AI平均成绩明显高于真实学生[31] 教育评估的未来方向探讨 - 传统笔试难以评估提出好问题、在信息不完整时做判断、在多种方案间权衡取舍、理解现实情境与他人立场等关键能力,而这些正是AI难以替代、最能区分学生真实素养的地方[34][35][36][37][39] - 评估重心需要从“交答案”转向“交思路”,关注学习过程、思考路径和决策质量[38][39] - 一些新的评估尝试已经出现,例如纽约大学商学院推出的由AI支撑的口试评估,要求学生解释决策依据和思路,AI充当考官进行追问并参与评分,旨在评估理解本身[44][45] - 国外部分高校开始引入口试、展示型作业等形式,让学生的思考过程变得可见[45] - 更现实的挑战是如何引导学生将AI用于信息整理、方案推演和假设验证,而将人的精力集中于无法被“外包”的判断、理解和选择环节[49]
港科大教授实测AI眼镜“作弊”:30分钟碾压95%的学生,把传统教学评估体系整破防了
量子位· 2026-01-06 15:06
实验概述与核心结果 - 香港科技大学教授团队主导实验,让搭载ChatGPT-5.2模型的AI眼镜参加《计算机网络原理》本科期末考试,在复刻真实考试条件下完成整套试卷[1][7] - AI眼镜通过“眼镜—手机—云端”链路工作:摄像头拍摄题目,传输至远程大模型推理,答案返回并显示在眼镜屏幕上供学生抄录,过程丝滑[12] - 该AI眼镜在30分钟内交卷,取得92.5分(满分100分),在百余人排名中跻身前五,轻松碾压超过95%的人类考生[4] - 具体得分情况:多项选择题(29/29满分),单页短答题(18/18满分),跨页短答题(45.5/53分)[14] 硬件与模型选择 - 项目团队系统评估了12款主流商业智能眼镜,最终候选为同时具备内置摄像头和集成显示屏的Meta Ray-Ban、Frame以及乐奇Rokid[8] - 因Meta未开放对显示内容的直接控制接口,而Frame相机画质有限,团队最终选择乐奇Rokid AI眼镜,因其SDK更丰富、生态更完善、开发自由度更高[9][10][11] - 在大模型选择上,团队对比多款主流模型后,锁定OpenAI最新的ChatGPT-5.2,因其响应速度和通用知识能力较强[11] 技术性能与当前局限 - AI眼镜在跨页短答题中展现出极强的推理连贯性,即便计算复杂部分偶有偏差,中间步骤也非常完整[14] - 主要暴露的短板是功耗问题:在开启Wi-Fi、持续进行高分辨率图像传输的高压连续场景下,30分钟内眼镜电量从100%迅速降至58%[18] - 摄像头清晰度直接决定AI的“视力”,题目若出现模糊、反光或拍摄角度偏差,会导致AI基于不完整信息推理,答题稳定性明显下滑[19] 对传统教学评估体系的冲击 - 实验表明,当教学评估主要关注能否交出“标准答案”时,这恰好落在AI最擅长且最稳定的能力区间内[21] - 以知识点掌握和标准解题路径为核心的传统评估方式,在AI时代开始显得吃力[21] - 英国雷丁大学的一项研究发现,AI生成的答卷混入考试后,有高达94%成功蒙混过关,且AI平均成绩明显高于真实学生[30] - 这引发核心问题:当AI比人更擅长按标准作答时,以笔试为核心、衡量知识点掌握程度的评估体系到底在测量什么[32] 未来教育评估的可能方向 - 传统评估长期只集中捕捉了人类多维智能中非常狭窄的一段(如语言、逻辑数学),难以评估创造力、协作能力等[40][42] - 评估重心需要从“交答案”转向“交思路”,关注学习过程、思考路径和决策质量,这些是AI最难替代且最能区分学生真实素养的地方[37][38] - 一些新的评估尝试已经出现,例如纽约大学商学院教授推出的由AI支撑的口试评估,学生需当场解释决策依据和思路,AI充当考官并进行评分[43][44] - 更现实的挑战是如何让学生把AI用在信息整理、方案推演上,而将人的精力集中到判断、理解和选择等无法被“外包”的环节[48]