AI风险治理
搜索文档
资本追捧下的AI产业竞争需慎思|法经兵言
第一财经· 2025-11-02 20:41
AI增长模式的结构性特征 - 2025年上半年美国GDP增长1.6%,但增长动力高度集中于数据中心和信息技术领域,其他经济领域贡献率仅为0.1% [1] - 2025年美国人工智能数据中心支出规模预计高达5200亿美元,主要由微软、谷歌、亚马逊、Meta等科技巨头驱动 [1] - 增长模式依赖资本密集的算力基础设施投资,而非消费侧扩张或生产效率实质性提升 [1][2] 当前AI经济面临的风险与挑战 - 投资高度集中,尚未有效渗透至传统制造业、服务业、医疗健康、教育等经济中下游领域 [2] - 科技巨头陷入"军备竞赛"式算力堆砌,投资回报率难以预期,商业模式落地和盈利前景不确定 [1][3] - 大模型训练所需计算资源和数据量呈指数级增长,高昂固定成本构成主要市场进入壁垒 [5] 资源错配与市场竞争影响 - 大量资本涌入算力基础设施,导致AI算法底层理论突破、行业应用创新等软件领域投入不足 [4] - 科技巨头数百亿美元投入筑起高资金壁垒,使中小企业和初创公司难以在基础模型层面参与竞争 [4] - 算力、数据、大模型等AI核心资源和技术人才日益集中于少数巨头手中,可能损害市场竞争活力 [4] 可持续均衡发展路径 - 需要摒弃"唯算力论",坚持技术与应用双轮驱动,注重AI技术与实体经济各领域深度融合 [7] - 应加强法律法规与伦理治理体系建设,完善数据安全、隐私保护、算法治理等相关法规 [8] - 倡导算力、数据等资源开放共享,建设国家级公共算力平台向中小企业开放 [8] - 推动AI技术向教育、医疗、养老等民生领域倾斜,确保技术进步红利惠及全社会 [9]
AI时代未成年人需要“调控型保护”
南方都市报· 2025-09-14 07:13
论坛与报告发布 - 9月12日外滩大会见解论坛发布《AI新治向:生成式人工智能内容与传播风险治理观察》报告 [2][6] - 论坛主题为“规范AI内容 共筑清朗生态”由南方都市报社、南都大数据研究院等多家机构联合主办 [6] - 报告基于对百起风险事件的调查、数千份问卷调研及多轮社会实验 [8][14] AI内容风险现状 - 问卷调查显示76.5%的受访者曾多次遭遇AI假新闻 [8][14][20] - 分析去年国内50起高热AI风险事件发现20%涉及AI谣言 [16] - 生成式AI伴生风险包括虚假信息、深度合成诈骗、隐私泄露、版权侵害、商业学术失信及未成年人权益侵害 [15] AI虚假内容传播机制 - 街头实验显示10名受访者中有8人在观看AI假新闻后表示将转发 [20] - 用户转发虚假新闻主因是“内容引起共鸣”和“信任信息来源”两项占比均超六成 [20] - 超七成受访者凭“内容逻辑”和“画面真实感”评估真实性不到一半会核查来源 [20] 风险成因分析 - 风险成因包括技术局限性、训练数据质量差、恶意滥用、数据管理漏洞、监管伦理不完善及公众认知不足 [19] - 深度合成技术滥用催生新型诈骗如克隆名人音视频实施诈骗 [16] - 大模型视觉推理能力可通过普通街景照片精准定位拍摄地点造成隐私泄露风险 [17] 治理建议与措施 - 治理建议包括推行强制标识制度、强化数据合规、提升模型可靠性、对高敏感场景分级管理及加强未成年人保护 [23] - 需构建政府、企业、公众、学术界多方协同共治的治理体系 [24] - 自2025年9月起《人工智能生成合成内容标识办法》及配套强制性国家标准正式生效 [10][22] 企业技术实践 - 蚂蚁数科推出多项AI安全防御技术解决方案包括智能测评技术、“光鉴智能验真”产品及大模型安全解决方案“蚁天鉴” [11] - 复旦大学白泽智能团队开发JADE大模型安全风险分析治理平台实现多维度风险覆盖 [9]