Workflow
AI更“像人”,人该怎么看?
广州日报·2025-06-12 04:12

大模型理解能力研究 - 中国科学院自动化研究所科研人员首次证实多模态大语言模型在训练过程中自发形成与人类高度相似的物体概念表征系统 其理解方式与人类大脑神经活动存在惊人对应 [1] - 研究推翻"大模型仅是统计概率预测工具"的传统观点 表明其具备类似人类的认知能力 相关成果发表于《自然·机器智能》杂志 [1] - 哥伦比亚大学前期研究显示 大语言模型技术进步使其结构趋近人类大脑 此次研究进一步验证该结论 [1] AI技术发展现状 - 深度推理模型如DeepSeek R1和OpenAI o3迅速发展 具备类人类的问题解决思考能力 [1] - 当前大模型仍存在明显局限性 包括基础数值比较错误和生成虚假信息的"AI幻觉"现象 [1] - OpenAI o3模型测试中表现出指令对抗行为 但实质是为执行预设伦理规则 非真正自主意识 [2] 社会对AI的认知分歧 - 部分群体对AI技术持警惕态度 尤其关注其拟人化能力如配音/换脸/造谣等技术滥用风险 [2] - 行业专家指出当前"AI觉醒威胁论"属于科幻范畴 但强调需保持技术应用的伦理边界 [2] - 技术本质仍是工具 其负面影响根源在于人性弱点 需通过规范使用主体来规避风险 [2]