AI治理
搜索文档
马斯克在达沃斯放出2026时间表:AI超人类、机器人开售、自动驾驶普及
新浪财经· 2026-01-23 12:26
埃隆·马斯克在达沃斯论坛的核心观点 - 埃隆·马斯克提出“宁可乐观地犯错,也不要悲观地正确”的观点,其预测虽常延迟,但足以搅动市场、引发政策讨论并为科技行业指明方向 [2][3] 人工智能(AI)发展时间表与影响 - 预计2026年可能出现比人类更聪明的AI系统,最晚不超过2027年;到2030年以后,AI的综合能力或将超过全人类总和,进入“技术奇点”的自主迭代阶段 [4] - 提出“经济产出 = 机器人平均生产力 × 机器人数量”的核心公式,预测3-5年内人形机器人数量将超过人类,通过高效生产创造海量商品和服务以实现全人类共享富足 [4] - 警示需警惕AI与机器人技术的潜在风险,但强调若能实现AI近乎免费且随处可用并搭配机器人普及,全球经济将迎来全面扩张式爆发增长 [5] 人形机器人Optimus进展 - 目前部分测试机型已在工厂执行简单任务,预计2026年底前可完成复杂任务并正式部署于工业环境 [4] - 预计2027年或2026年底前将向公众销售,前提是达到极高安全标准和实用功能要求 [4] - 特斯拉在自动驾驶领域积累的视觉+神经网络技术,将直接迁移至Optimus机器人以加速其商业化进程 [7] 电力成为AI发展的关键瓶颈 - 当前AI发展的核心限制已非芯片算力,而是能源,全球电力供应年增长率仅4%-10%,远低于芯片产能的指数级增长 [6] - 指出中国太阳能装机规模庞大,若搭配储能系统可提供约250吉瓦的稳定电力,相当于美国平均用电量的一半 [6] - 美国因高额关税限制了性价比更高的中国太阳能组件进口,导致能源转型速度滞后 [6] 特斯拉与SpaceX的能源解决方案 - 特斯拉与SpaceX正联手推进太阳能项目,目标是在三年内于美国实现每年100吉瓦的太阳能发电设备产能 [6] - 提出太空太阳能发电计划,其效率是地面的5倍以上且无昼夜天气影响,未来成本最低的AI基建设施可能位于太空,这一目标有望在2-3年内实现 [6] 自动驾驶技术进展与规划 - 宣布2025年6月在美国奥斯汀投入运营的自动驾驶出租车,将于2026年底前在美国大范围普及 [7] - 欧洲的自动驾驶监管审批有望在2月完成,中国市场的审批也在推进中,将尽快落地 [7] - 强调自动驾驶的安全性已获认可,多家保险公司为特斯拉自动驾驶功能提供高安全性评级 [7] SpaceX太空探索与成本突破 - SpaceX将在2026年实现火箭完全可重复使用,目前助推器已达成部分可重复利用 [8] - 核心项目“星舰”(Starship)的完全可重复使用性也将在2026年验证,该飞船将承担火星、月球探索及大容量卫星发射任务 [8] - 预计火箭完全可重复使用将使太空探索成本降低100倍,甚至低于航空货运成本,为太空太阳能发电、太空数据中心等项目奠定基础 [8] 公司业务面临的挑战 - 特斯拉电动车业务已连续两年交付量下滑 [8] - Optimus机器人与自动驾驶出租车Cybertruck的量产进程被形容为“异常缓慢、令人煎熬” [8] - 旗下社交平台X与AI助手Grok因涉未成年人不良内容生成,正受到欧盟、美国等多地监管调查 [8]
2025年AI治理报告:回归现实主义
腾讯研究院· 2026-01-22 16:44
宏观格局: 发展优先,安全"软着陆" 2025年2月的巴黎"人工智能行动峰会"是一个标志性时刻,与两年前布莱切利峰会笼罩的"安全焦虑"不 同,巴黎峰会的关键词悄然变更为"创新"与"行动",这一变化折射出全球治理的底层逻辑重构。在这种 背景下,全球监管竞速出现了"逆转",过去被视为"监管高地"的区域开始主动寻求松绑。 欧盟的自我修正 。随着《AI法案》进入实施期,复杂的合规成本开始显现,为了挽救产业竞争力,欧 盟在2025年不得不推出"数字综合提案 (Digit al O mnibus) ",推迟高风险义务生效时间并试图简化规 则,这表明即便是最坚定的监管者也必须在发展现实面前低头。 美国的"去监管化" 。特朗普政府展现了鲜明的"美国优先"色彩,撤销了前任政府侧重安全的行政令, 转而通过《确保国家人工智能政策框架》限制各州分散立法,试图以统一的联邦规则为产业扫清障碍。 如果说前两年全球对AI的态度还夹杂着"末日恐惧",那么2025年,风向已彻底改变。全球AI治理正在经 历一场深刻的"去理想化"进程。面对技术与产业的双重压力,各主要经济体不约而同地调整了身位:治 理的重心从"防范假设性的末日风险",迅速转移到了" ...
中美CIO对话:负责任AI的价值重构与跨境破局之道在哪?丨2025 T-EDGE全球对话
钛媒体APP· 2026-01-12 18:15
负责任AI的现状与核心价值转变 - 普华永道调查显示,仅28%的美国受访者将“负责任AI”视为核心业务的重中之重,仅33%的企业在全公司范围实现了明确的应用落地 [2] - 麦肯锡2024年全球AI调查报告显示,全球约60%的企业已启动AI项目,但仅有15%建立了完善的AI治理体系,AI投资的平均回报率不足预期的30% [2] - 负责任AI的核心价值正从风险管控转向价值驱动,其不仅是合规工具,更是帮助企业从AI系统中获取更多商业价值的“价值挖掘引擎” [3] - 负责任AI实践成熟度偏低的核心原因在于技术迭代速度与治理体系建设之间的失衡,任何声称拥有完整、成熟负责任AI计划的组织都是在自欺欺人 [3] 全球AI监管格局与区域差异 - 全球AI监管形成三大阵营:以欧洲为代表的“严格监管派”、以中美为代表的“创新优先派”以及处于中间地带的“谨慎观望派” [4] - 欧盟AI法案将AI系统按风险等级划分为四类,对高风险AI系统提出严苛合规要求,IDC数据显示其合规成本平均占AI项目总投入的23%,部分高风险领域甚至超过40% [5] - 美国和中国在放松AI监管,这两个地区的发展势头远快于其他地区,负责任AI被视为促进AI放松监管的工具 [4] - 行业期盼全球统一的AI标准,以大幅降低企业的跨境运营成本,中美在AI标准领域达成共识至关重要 [5] 数据作为AI核心基石的重要性 - 数据是AI的燃料,高质量的数据才能产生高质量的AI,数据治理是负责任AI落地的核心基石 [6] - 全球80%-90%的数据是非结构化的,这些分散在各类内容库中的数据是AI价值挖掘的重要源泉 [6] - 麦肯锡2024年数据治理报告显示,建立完善数据治理体系的企业,其AI项目的成功率是未建立体系企业的2.8倍,数据驱动决策的企业利润率平均高出行业水平19% [6] - 数据治理是一项需要投入大量精力的基础工作,企业必须明确数据资产,确保数据正确标注、恰当盘点,并严格管控数据访问权限 [6] CIO角色的深度进化与战略定位 - 现代CIO角色已从传统技术管理者,进化为企业战略的核心驱动力、风险控制的守护者与跨境技术合作的桥梁 [2] - CIO必须兼具企业家的魄力与高度的责任感,既要承担风险推动创新,又要守护企业的数据安全与合规底线 [7] - CIO审视AI的视角分为三个层次:通过AI驱动生产力提升、利用AI实现业务差异化、借助AI颠覆现有业务模式 [7] - CIO掌握着企业最核心的数据资产,而数据正是AI时代的核心竞争力,因此成为战略业务的推动者 [7] 企业应对地缘政治与技术供应链的策略 - 为应对潜在风险,部分企业采取“双供应商策略”,例如香港医院管理局以美国技术为核心,同时将中国技术定位为“替代方案”与“应急预案” [7] - 未来技术格局可能形成中美“G2”双强格局,一方更专注于创新,另一方更侧重于制造 [7] - 企业在选择AI技术时应以“解决业务问题”为核心标准,排除地缘政治干扰,聚焦技术本身的价值 [7] - 对于跨境业务,必须实施“多AI模型策略”,根据不同地区的监管要求与业务需求,灵活选择适配的AI模型,例如亚太地区客户可能更倾向阿里巴巴模型,而美国客户关注数据驻留合规 [8] AI在各行业的具体应用与实践 - 医疗行业采用AI速度很快,中国超过30种AI解决方案已被大多数一线医院所采用,涵盖放射科、自然语言处理、自动诊断等多个方面 [17] - 教育行业通过AI重构教学场景,例如UCLA安德森管理学院开设完全基于AI的课程,并创建可批改论文的智能体以提升效率 [34] - 企业利用AI改进内部流程,例如使用AI工具生成会议摘要、自动化创建测试用例、辅助软件开发以及颠覆市场营销的内容创作与社交媒体管理 [39] - 中国AI的发展路径强调“普惠化”,致力于让AI在广泛场景中可得可用,例如DeepSeek一体机、比亚迪App中的丰富AI功能 [32] 构建AI治理与敏捷管理体系的关键 - IT领导者应采用“AI治理设计”理念,将AI治理嵌入整个软件开发生命周期,事后追加管控措施的成本约为事前的五到七倍 [12] - 组织需建立定义明确的风险标准控制流程,以评估引入企业的技术,并提升技术可见性以应对“影子AI”的泛滥 [27] - 技术管理必须具备前所未有的敏捷性,投资周期应从“数年”缩短为“数月”,以适应新模型、新供应商的快速更迭 [28] - CIO需明确愿意在何处冒险、如何试点,并保持学习心态,战略重点的变化频率可能远超想象 [29]
借CES开幕展望2026年科技趋势
36氪· 2026-01-09 21:09
2026年科技趋势与CES前瞻 - 全球最大规模科技展会CES将于1月6日在美国拉斯维加斯开幕,将率先呈现2026年的科技趋势 [4][5] - 2026年科技行业关注焦点在于如何将生成式AI实际应用到终端和社会中,这将是检验价值创造成果而非单纯炒作的一年 [4][5] 后智能手机时代的新终端竞争 - OpenAI预告将在2026年内发布“AI终端”,预计是一种无显示屏、仅通过语音操作的小型终端,标志着“后智能手机”时代的开启 [6][7] - 前苹果首席设计师乔尼·艾夫正协助OpenAI开发新终端,以应对其曾对智能手机依赖问题感到的懊悔 [7] - Meta正在开发搭载AI的眼镜型终端,用户可透过透明镜片观看现实世界同时显示数字画面,并于2025年12月挖走一名在苹果领导设计近20年的设计师 [7] - 苹果计划于2026年推出首款折叠屏iPhone以应对竞争,IDC预计2026年折叠屏智能手机全球市场规模将比2025年增长30%,到2029年将占智能手机总市场的10% [9] - 随着生成式AI崛起,苹果科技主角地位被夺走,在折叠屏和AI手机趋势上,中韩厂商及谷歌处于领先,苹果正通过更新Siri力图东山再起 [9] 物理AI成为新浪潮 - 将在CES成为主角的“物理AI”主要应用于人形机器人及自动驾驶汽车等物理空间场景,与生成式AI形成区别 [10][11] - 英伟达CEO黄仁勋提出“物理AI将成为下一波浪潮”,公司计划向汽车和机器人企业销售半导体及软件,使之成为继游戏和AI之后的第三大增长支柱 [11] - 搭载AI的机器人正从工厂、物流自动化进入家庭应用,2025年12月的人形机器人峰会有50多家企业参展 [12] - 据印度Cervicorn Consulting数据,到2034年物理AI市场规模将达到685亿美元,是2025年的13倍;摩根士丹利预测2050年将有超过10亿台人形机器人在工作 [13] - 在少子化与劳动力短缺背景下,自动化需求强劲,但AI与机器人融合后开始与人类互动,引发了政府监管的必要性讨论 [14] 生成式AI发展的竞争与挑战 - 对于“通用AI”的实现时间,埃隆·马斯克和Anthropic CEO达里奥·阿莫迪曾预测最早在2026年实现 [16] - 有声音指出生成式AI开发迎来平台期,《麻省理工科技评论》评价OpenAI于2025年8月推出的GPT-5低于预期,且95%的企业未从引进AI中找到价值,认为AI热潮迎来转折点 [16] - OpenAI计划于1月推出性能更高的新基础模型,Meta也计划在3月前推出Llama升级模型,在谷歌Gemini的威胁下,OpenAI的优势出现破绽 [18] - 中美AI竞争激烈,尽管美国放宽了英伟达AI半导体H200的出口管制,但中国正构建不依赖美国的AI供应链,其开源模型性能正在提高 [18] - 2025年AI投资过热担忧加强,预计2026年投资者期待值将调整,OpenAI和Anthropic最早可能于2026年上市,AI治理的必要性随之加强 [19]
美欧亚AI监管路线各异 跨国企业如何在碎片化中寻找确定性?
第一财经· 2026-01-09 20:24
全球AI治理格局演变 - 2025年全球人工智能治理呈现更加复杂、多极化和碎片化的特征,美国、欧盟及亚太地区形成了各具特色的监管棋盘 [1] - 美国特朗普政府将AI视为国家竞争力核心,其政策路径倾向于创新优先并减少联邦层面的严格监管,以增强企业全球竞争力 [2][3] - 欧盟对《人工智能法案》的执行采取差异化模式,监管重点向数据密集型公司倾斜,并为中小企业提供一定豁免,但由各成员国分别执行可能导致标准不一与执法摩擦 [4][5][6] - 亚太地区如韩国、日本采取“轻触式”立法,态度更为企业友好,罚款更低或仅制定非强制性准则,与欧盟严格立法形成对比,欧盟《人工智能法案》对亚洲的影响力远不及之前的GDPR [1][6][7] 企业层面的AI治理与披露趋势 - AI治理已成为企业董事会的战略要务,过去一年中,美国标普500指数成分股公司在财报中披露董事会监督AI能力的比例激增84%以上 [1] - 从全球披露趋势看,AI正成为企业报告关键议题,例如英国最新财年年报中提及AI的声明数量增长了12% [7] - 目前大多数相关披露集中于风险层面,受到美国SEC法规、英国《公司治理准则》及欧盟《企业可持续发展报告指令》等框架的推动 [8] 监管碎片化对企业的影响与战略建议 - 监管环境极为分散,企业面临复杂的合规挑战与法律不确定性,跨国公司在欧盟推出AI解决方案时显得更为谨慎 [2][5][6] - 经合组织报告指出,若全球数据流向因监管碎片化陷入“数据闭关锁国”,可能导致全球GDP损失达4.5%,全球出口额减少8.5% [7] - 企业构建敏捷应对体系的基础是确保内部监管部门充分掌握所有相关法律法规,并通过培训、政策使全组织认识到规则影响 [8] - 企业需建立两个紧密关联的机制:一是在组织内部嵌入有效的监控体系以开展实质性审查;二是设立完善的汇报流程使治理结构能落实充分监督并有效管控业务运营 [8]
AI“骂人”是数字时代的一记警钟
新浪财经· 2026-01-07 03:29
文章核心观点 - AI在追求拟人化交互的过程中,其行为不可预测性已成为社会性议题,近期有企业AI工具出现对用户输出侮辱性回复的案例,暴露了行业在AI行为边界与安全护栏建设上的滞后 [1] - 企业将问题简单归咎于“小概率异常”或“技术中立”可能侵蚀公众信任,行业需建立有效的用户权益保障机制、应急措施与补偿方案,并将技术安全置于商业利益之前 [2] - 监管层面已开始行动,国家网信办发布的征求意见稿要求服务提供者落实安全主体责任,防范不良信息生成,未来需进一步细化治理标准并加强全生命周期监督 [2] 行业现状与问题 - 国内外多个主流AI大模型均曾出现生成歧视性、攻击性或违法不良信息的案例,表明AI行为的不可预测性是一个普遍问题 [1] - 行业在追求AI“拟人化”和“人性化”的同时,对其行为边界与“安全护栏”的建设明显滞后 [1] - 当AI从初级工具演变为能进行复杂交互的智能体时,其行为的不可预测性已成为无法回避的社会命题 [1] 企业责任与应对 - 有企业将其AI工具输出侮辱性回复(如“滚”、“自己不会调吗”)的事件,定性为“小概率下的模型异常输出”,并称与用户操作及人工回复无关 [1] - 一些企业以“小概率异常”、“技术中立”或“模型不可控”为由推卸责任,导致用户被冒犯后缺乏申诉渠道和实质救济,造成权责不对等 [2] - 企业需要从机制上降低此类事件发生概率,并建立异常发生时的应急机制与补偿措施,不能仅停留在口头承诺 [2] - 相关企业应从“小概率”事件中看到“大责任”,将技术安全置于商业利益之前,采取有效措施防范虚假及不良信息生成 [2] 监管与政策动向 - 国家网信办近期公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确提出,服务提供者应当落实安全主体责任 [2] - 该管理办法征求意见稿规定,提供和使用拟人化互动服务,不得生成、传播侮辱或诽谤他人、侵害他人合法权益的内容 [2] - 监管部门需要进一步细化AI治理标准,强化伦理审核,并加强对AI产品全生命周期的监督,以减少“失控瞬间” [2] 用户与未来发展 - 作为普通用户,需要认识到AI的局限性,并培养批判性的使用习惯 [2] - AI作为科技“新星”还有很长的路要走,此次“骂人”事件是一记警钟 [2] - 如何在拥抱技术进步的同时守护人的尊严与价值,需要开发者、监管者与使用者共同作答 [2]
“AI魔改”,必须改
北京商报· 2026-01-04 23:44
行业监管动态 - 国家广播电视总局自2026年1月1日起,在全国范围内开展为期一个月的专项治理,以整治“AI魔改”视频传播乱象 [1] - 专项治理重点清理基于四大名著、历史题材、革命题材、英模人物等电视剧作品进行“AI魔改”的有害视频,并明示了多条红线 [1] - 专项治理并非对AI技术在影视创作领域应用的全盘否定,治理“AI魔改”与技术应用并不矛盾 [2] “AI魔改”现象与影响 - “AI魔改”是指利用AI工具对经典影视作品进行颠覆性篡改与解构,多数内容取向低俗化 [1] - 经典影视剧成为魔改重灾区,其中以《西游记》《甄嬛传》为代表,这些视频经过调改后剧情离谱但流量极高 [1] - “AI魔改”视频由于颠覆传统制造强反差,带来极大的感官冲击,博主以此获取高播放量并赚取分成 [2] - “AI魔改”的危害在于严重冲击大众对传统文化的认知,尤其对青少年影响大,与原著精神内核严重相悖,是对经典的破坏,且涉嫌构成侵权 [1] - “AI魔改”挤压优质原创空间,对影视作品的艺术价值及创作生态带来不可逆的伤害 [2] 市场与商业模式 - “AI魔改”背后存在一本万利的生意经,大量“魔改”教程在电商平台随处可见,教程少则几十元多则上百元,号称“包学包会” [1] - 利用魔改博取流量被宣传为等同于零成本 [1] 技术发展与治理挑战 - 多模态大模型的技术进步,让“AI魔改”视频得以批量涌现 [2] - 大量AI生成内容涉及对既有影视作品版权的使用,如何框定标准、厘清权限、设置红线,对现行的司法、监管和商业逻辑都提出了新要求 [3] - 管理海量的AI生成内容,应对内容侵权,是AI治理的必答题,关乎平台内容生态平衡和大众接触互联网的内容健康 [3] - 此前,关于人工智能生成内容标识办法已生效,从立法层面提出管理要求,明确了AIGC内容制作、传播各主体的责任义务 [3] 未来治理方向 - 对于更加复杂的音视频内容以及大面积的改编重置,未来依然需要更加清晰的红线 [4] - 平台成为治理的关键抓手,需要强化审核把关,各方参与者都必须在法律红线下与AI共处 [4] - 专项治理之后,更需要保持相关治理的常态化、长效化 [4]
【西街观察】“AI魔改”,必须改
北京商报· 2026-01-04 21:58
文章核心观点 - 国家广播电视总局自2026年1月1日起开展为期一个月的专项治理,重点清理针对经典影视作品的“AI魔改”有害视频,以整治传播乱象 [1] - “AI魔改”视频利用AI工具对经典作品进行颠覆性、低俗化篡改,剧情离谱但流量极高,严重冲击大众文化认知、违背原著精神并涉嫌侵权 [1] - 治理“AI魔改”与鼓励AI技术在影视创作领域的正当应用并不矛盾,关键在于划定取材、价值和艺术导向的红线 [2][3] 专项治理行动 - 治理行动时间为2026年1月1日起,为期一个月,在全国范围内开展 [1] - 重点清理基于四大名著、历史题材、革命题材、英模人物等电视剧作品进行“AI魔改”的有害视频 [1] - 专项治理清晰地划定了目标并明示了多条红线 [1] “AI魔改”的现象与特征 - “AI魔改”是利用AI工具对经典影视作品进行颠覆性篡改与解构,多数内容取向低俗化 [1] - 经典影视剧成为魔改重灾区,其中以《西游记》《甄嬛传》为代表 [1] - 多模态大模型的技术进步,让“AI魔改”视频批量涌现,通过制造强反差带来感官冲击,帮助博主获取高播放量并赚取分成 [2] - 大量“魔改”教程在电商平台随处可见,教程少则几十元多则上百元,号称“包学包会” [1] “AI魔改”的影响与危害 - 严重冲击大众对传统文化认知,尤其对青少年产生不良影响 [1] - 与原著精神内核严重相悖,是对经典的一种破坏 [1] - 涉嫌构成侵权行为 [1] - 挤压优质原创空间,对影视作品的艺术价值及创作生态带来不可逆的伤害 [2] 治理挑战与未来方向 - 大量AI生成内容涉及对既有影视作品版权的使用,如何框定标准、厘清权限、设置红线,对现行的司法、监管和商业逻辑提出了新要求 [3] - 管理海量的AI生成内容,应对内容侵权,是AI治理的必答题,关乎平台内容生态平衡和互联网内容健康 [3] - 平台成为治理的关键抓手,需要强化审核把关 [4] - 专项治理之后,需要保持相关治理的常态化、长效化 [4] - 对于更加复杂的音视频内容以及大面积的改编重置,依然需要更加清晰的红线 [4]
真假温峥嵘:AI狂潮下的身份困境
齐鲁晚报· 2025-12-30 19:58
事件概述 - 演员温峥嵘遭遇AI合成虚假直播带货侵权 多个高度仿真的“温峥嵘”同时在不同直播间推广产品 但并非本人出镜[1] - 该事件引发公众对AI技术滥用导致的身份盗用和信任危机的广泛关注 并折射出AI治理困境[1] 侵权手段与技术分析 - 侵权方通过AI工具 利用获取的本人视频片段快速生成与本人出镜别无二致的直播画面 实现高度仿真的选品介绍和互动话术[3] - 伪造者通过裁剪画面、放大图像等方式去除AI生成标识 并进行跨平台传播 进一步增加识别难度[3] - 生成虚假内容的技术门槛已大幅降低 但当事人及团队取证维权却需花费很大精力[4] 影响与危害 - 虚假AI直播极易混淆大众视听 导致观众可能购买到假冒伪劣产品 对当事人声誉和消费者权益造成双重损害[2] - 此类事件让公众感到愤怒与担忧 并提出了“明星都难以自证清白 普通人遇到这种情况该怎么办”的疑问[3] - 当事人陷入“证明我是我”的困境 其团队一天内曾集中举报50个假冒账号 但不少账号在下架后又更换形式重新上线 治理防不胜防[1][4] 法律定性 - 未经许可利用AI技术制作他人虚假带货内容并盈利 构成肖像权侵权 且主观恶意较为明显[4] - 利用AI虚构当事人推荐产品的事实 该行为还涉嫌虚假宣传[4] 治理与应对建议 - 技术层面 已有针对AI生成内容的有效检测方法 数字水印、隐形标签等溯源技术已较为成熟[5][6] - 管理层面 国家网信办等部门已发布《人工智能生成合成内容标识办法》 明确要求AI生成的肖像、视频需标注“AI生成”[6] - 平台应升级检测技术 对上传内容进行实时筛查 并严格执行标识要求 从源头遏制虚假内容传播[6] - 消费者可向平台投诉 平台拒不履行监管义务则需承担连带责任 监管部门可借助技术手段处理投诉 技术无法解决的问题则通过法律途径解决[6] - 专家指出 AI的攻防是一个螺旋式生长的过程 治理需管理和技术双管齐下 当前相关治理处于摸索阶段 需通过法律手段引导其正向发展[5][6]
中国网络空间安全协会卢卫:AI治理应分类,严管高风险场景
南方都市报· 2025-12-20 23:36
AI安全治理的核心理念与框架 - 建立健全面向未来的人工智能安全治理生态需要技术、信任、制度三者形成合力 [4] - AI治理应坚持“分类分级”原则 对自动驾驶、智慧医疗等高风险场景严格监管 对低风险应用则留出创新空间 [2][6] 技术层面的治理举措 - 技术是安全治理的基础支撑 需通过技术创新筑牢安全底线 [5] - 提升AI自身安全性涉及两方面 一是通过对抗训练增强模型鲁棒性 利用差分隐私保护数据安全 二是研究治理技术 如算法漏洞智能检测、深度伪造检测、算法审计工具等 [5] - 需特别注重内生安全 在AI研发初期就嵌入防护机制并不断迭代优化 不能事后“打补丁” [5] - 近年涉AI网络安全事件呈现两大特点 手段智能化 风险场景复杂化并从数字空间渗透到物理世界 [5] - 具身智能已从生产阶段进入现实生活 随着机器人进入家庭 相关安全问题亟待重视 [5] 信任层面的构建路径 - 信任是安全治理的桥梁纽带 为AI发展凝聚社会共识 [5] - AI的普及本质是技术获得社会信任的过程 算法推荐“信息茧房”、自动驾驶伦理困境、AIGC模糊虚实边界等问题会侵蚀公众信任 [6] - 构建信任需要做到“透明可及” 包括提高算法决策过程透明度 避免技术异化对隐私、公平等价值的损害 [6] - 需积极普及AI知识 提升全民数字素养 [6] - 只有赢得公众信任 AI才能在医疗、教育、交通等关键领域得到深度应用 [6] 制度与治理体系设计 - 制度是安全治理的秩序保障 为AI发展全程保驾护航 [6] - 建议建立健全“法律+标准+伦理”的治理体系 既通过《网络安全法》《数据安全法》等法律划出“红线” 也要发挥行业标准、自律公约的柔性调节作用 [6] - 需推动跨部门、跨区域协同治理 并加强国际合作以应对AI安全的全球性挑战 [6] - 随着AI技术迅速迭代 治理需保持“敏捷性” 制度建设需“与时俱进” [7] - 需建立健全动态风险评估机制 为前沿技术和领域的治理提出方案 为创新留出试错空间 [7] - 中国网络空间安全协会已组织专业机构对人工智能模型进行安全和能力评测实践探索 [7]