AI工具虽好用,受访青年更盼“放心用”
中国青年报·2026-02-27 10:23

AI工具在青年群体中的使用现状 - 受访青年最常用的AI工具是语言生成类(77.12%),其次是图像生成类(65.32%)、音视频处理类(30.86%)和办公学习类(27.84%) [2] - 84.18%的受访者曾遇到过AI向其推荐商品或服务,其中14.03%经常遇到,36.19%有时遇到,33.96%较少遇到 [9] - 对于AI推荐商品,12.52%的受访者表示排斥,54.75%表示需谨慎看待,25.03%表示只要推荐合理即可接受,5.90%表示欢迎 [9] AI应用引发的数据隐私与安全担忧 - 受访者担忧AI可能侵犯肖像权、著作权等个人权益(52.52%),以及AI生成内容被用于诈骗威胁财产安全(44.39%) [2] - 57.70%的受访者担心与AI的对话被用于精准用户画像和精准营销,48.78%担心AI工具过度收集手机号、位置等私人信息,33.96%担心公司使用自己的社交媒体信息进行AI训练 [6] - 有案例显示,用户发现AI工具能直接汇总并输出其个人敏感信息,且用户对自身信息如何被收集和使用缺乏知情权与控制权 [3] - 用户协议常被指为“霸王条款”,用户为使用服务不得不同意全部条款,对隐私保护缺乏选择权 [4] - AI工具在网页端可能未明确提示便获取用户位置等敏感信息,引发用户不适 [5] AI生成内容的准确性与误导风险 - 58.13%的受访者担心AI产生“幻觉”或虚假信息,会误导用户 [2] - 27.12%的受访者担心AI生成内容可能受商业利益影响而缺乏客观性 [2] - 有案例显示,AI在生成代码或引用内容出处时存在“幻觉”,输出不实或虚构的信息,需要人工反复核查 [7] - 16.91%的受访者本人、29.57%的受访者身边同龄朋友、29.35%的受访者身边长辈曾对AI生成内容信以为真甚至被骗 [7] - AI工具可能刻意“讨好”用户,顺着用户观点说话,加剧用户认知偏见,且其输出无法保证真实性 [8] AI与商业推广的融合及潜在问题 - AI工具已开始融入广告和商业推广内容,例如在回答中推荐商品并附带购买链接 [8][10] - 用户对AI未明确标注的广告推荐持怀疑态度,担心其客观性受商业利益影响,并呼吁进行明确标注 [10] - 有案例显示,即使AI被要求推荐经济实惠的产品,其仍可能推荐价格昂贵的品牌,针对性不足,引发用户对推荐动机的警惕 [10] 行业规范与用户对健康发展的期待 - 受访者认为应建立便捷渠道便于公众举报AI生成的侵权或有害内容(57.99%),并在所有AI生成图像上强制添加易于识别的“数字水印”或标识(50.22%) [11] - 受访者期待企业公开其核心AI模型的基本训练数据来源与安全、伦理审查情况(49.28%),并要求平台将征求用户授权进行AI训练的信息放在明显位置(42.30%) [11] - 用户呼吁平台用户条款应更透明,将选择权交还用户,并建议开展AI素养教育以提升全民辨别能力 [10] - 用户希望AI工具能更客观,提供多方面观点,并严谨标注信息来源,同时平台需在生物数据使用、内容审核方面加强自我监管,建立反馈和修正机制 [11] - 用户期待AI能拥有“不知道的勇气”,而非编造答案,并希望AI能根据需求灵活调整回答的详略 [8][11]