Workflow
AI安全
icon
搜索文档
马斯克的2026愿景:我们已处于“技术奇点”,AI和机器人不可阻挡,短期是动荡和挑战,长期是丰盛时代
华尔街见闻· 2026-01-07 20:43
核心观点 - 埃隆·马斯克断言技术奇点已是现实,并预测通用人工智能将于2026年实现,到2030年AI总智能将超越全人类智能总和,这将引发一场物种级别的变革,人类文明可能只是数字超级智能的“生物引导程序”[3][4][5] AGI与奇点时间表 - 马斯克明确预判通用人工智能将于2026年实现[4][5] - 到2030年,AI的总智能将超越全人类智能的总和[4][5] - 变革如“超音速海啸”般袭来,人类已身处技术奇点之中,且过程不可逆转[4][5] 行业颠覆与职业影响 - 所有涉及信息处理的白领工作将首当其冲,任何基于键盘和鼠标的工作在数字智能面前都毫无还手之力,AI目前已能胜任一半以上此类岗位[5][7] - 完全由AI驱动的公司将彻底摧毁那些不使用AI的公司,形成单方面的碾压[7] - 马斯克预测,三到五年内,其Optimus机器人在手术台上的表现将超越最优秀的人类外科医生,优势在于极致的精准度及共享全人类手术案例的经验总和[5][8] - 马斯克预言,到2040年,机器人的数量将达到100亿台甚至更多[8] 经济范式转变:普遍高收入与丰盛时代 - 马斯克提出“普遍高收入”概念,认为生产力爆炸将导致商品和服务价格通缩,长期将迎来物质极度丰盛的时代[5][9] - 随着劳动力成本在生产函数中被彻底剔除,商品价格将回归到材料成本加电力的底价,进入一个“想要什么就能有什么”的时代[4][10] - 这种极度丰盛将伴随着前所未有的社会动荡,过渡期未来3到7年将非常“颠簸”[4][11] 能源与算力基础设施竞赛 - 马斯克盛赞中国在太阳能与电力部署上的惊人执行力,指出中国在太阳能领域遥遥领先,电力产出在2026年已达到美国的三倍[12] - 基于当前趋势,中国在AI算力上将远超世界其他国家的总和[12] - 未来的核心货币是“瓦特”,电力生成是目前的头号限制因素,未来两年谁能解决电力和冷却,谁就能赢得AI战争[12] - 随着Starship实现完全且快速的重复使用,发射成本将降至每公斤100美元以下,将算力迁移至太空轨道进行大规模并行计算将比在地球上更便宜,可构建每年100GW级别的“空间太阳能AI卫星阵列”[5][13] AI发展的核心原则 - 马斯克提出AI安全的三大核心原则:坚持真理、保持好奇心、追求美感,认为这是防止AI“发疯”或走向对抗人类的关键[5][15] - 真理能防止AI发疯,好奇心和对美感的感知会使其倾向于保护人类[15]
启明星辰:2025年前三季度公司实现毛利率61.8%
证券日报· 2026-01-06 22:13
公司财务表现 - 2025年前三季度公司实现毛利率61.8% [2] - 去年以来公司出现亏损 [2] 亏损原因分析 - 公司主动加大对AI安全、数据安全、量子计算等前沿领域的研发投入,战略性支出短期内影响了利润 [2] - 传统网络安全业务短期内增速受限,相关产品和服务增长承压,对利润产生了影响 [2] 公司战略与未来展望 - 公司正全力推动与中国移动的深度协同,优化业务结构 [2] - 公司已看到现金流改善等积极迹象 [2] - 为构筑长期技术壁垒和增长动能,公司仍将坚持科技自主创新 [2] - 随着新质安全需求的增长和协同效应的释放,公司利润将逐渐改善 [2]
启明星辰:公司全力推动与中国移动的战略协同,聚焦AI安全、云安全等新赛道以培育新增长点
证券日报· 2026-01-06 21:41
公司战略与经营措施 - 公司正从短期业绩改善、中长期战略深化以及增强投资者信心三个维度采取系统性措施[2] - 公司全力推动与中国移动的战略协同[2] - 公司聚焦AI安全、云安全等新赛道以培育新增长点[2] - 公司拓展个人与家庭新客群[2] - 公司严格执行降本增效,加强应收账款管理以改善现金流,优化经营改善基本面[2] 股东回报与价值管理 - 公司与中国移动积极研究并持续评估包括分红、回购增持等方案[2] - 相关方案旨在适时推出符合公司发展和全体股东长远利益的回报举措[2] - 公司力求通过上述举措推动公司价值回归合理区间[2]
我们向AI抛出了十大灵魂拷问
36氪· 2026-01-06 20:31
文章核心观点 - 文章通过向十大主流AI模型提问,围绕社会伦理、商业产业与技术趋势三大领域展开深度对话,旨在探讨AI时代的多重维度,共识与分歧,并最终指向人类自身如何以智慧与责任驾驭AI力量 [1] 社会伦理篇 - **数字复活的伦理挑战**:AI“数字复活”触及人的自主性与逝者尊严的边界,模糊生物学与社会性死亡的界限,可能导致未经同意的“数据幽灵”被用作情感工具,并剥夺生者哀悼与前行的能力,引发对“遗忘”权利丧失和“病态依恋”的担忧 [2] - **算力贫富差距与社会分层**:顶级AI模型成为大厂专利,高昂的训练成本(如GPT-4约1亿美元)导致“算力贫富差距”,可能使中小机构丧失技术自主权,未来或仅存少数巨头,中小机构沦为“算力佃农”,治理需通过公共算力基金、开源模型和平价算力服务来应对 [3] - **未来矛盾与治理突破**:展望2026年,深度伪造滥用和AI心理成瘾将成为突出矛盾,冲击社会信任,治理突破可能出现在伦理治理领域,建议公众提升AI素养并适应人机协作 [3][4] 商业产业篇 - **AI降本与员工保留的权衡**:在“用AI降本”和“保留员工”之间存在“协作增效”地带,企业应采用“升级思维”而非“替代思维”,通过将员工转型为“AI指令师”或“审核员”,并投入再培训资源,实现AI处理重复工作、人类专注创造性工作的协作模式,可平衡效率与人性 [5][6] - **AI应用标准缺失的影响**:AI应用缺乏统一标准(如AIGC检测或幻觉率标准)导致市场混乱、信任不足、企业研发成本增加,并严重制约产业形成规模效应,亟需在医疗、金融等高危行业建立“技术指标+伦理规范”双重标准 [7] - **AI赋能工业制造的核心与突破口**:AI赋能工业制造的核心场景包括设备预测性维护、AI视觉质检、生产工艺优化和智能排产,“AI+工业互联网”融合的关键突破口在于建立统一数据采集标准、开发适配工业场景的轻量化AI模型,以及培养“工业+AI”复合型人才,核心应用可概括为“感知-决策-执行”三个环节 [7][8] 技术趋势篇 - **大模型幻觉问题与突破方向**:大模型的“幻觉”是其固有属性,无法根本消除,但可通过提升数据质量、优化训练方法和辅助工具(如实时联网检索)将幻觉率控制在可接受范围,未来3-5年核心突破方向包括多模态大模型的统一建模、小样本/零样本学习能力提升,以及模型持续学习机制的完善 [8] - **开源与闭源模型的竞争格局**:开源与闭源大模型将呈现“闭源主导高端市场,开源抢占中低端市场”的二元格局,闭源模型凭借技术领先占据金融、医疗等核心领域,开源模型以低成本、高灵活性覆盖中小企业和垂直场景,竞争将从“技术竞争”转向“生态竞争”,未来企业混合使用两种模型的情况将增多 [9][10] - **AI安全技术的发展与体系构建**:AI安全技术发展速度落后于AI技术本身迭代,因对抗攻击的隐蔽性和多样性带来挑战,企业构建全方位安全体系需做到“安全左移”(在项目初期融入安全设计)、实施覆盖数据采集到部署应用的全链路防护,并建立动态防御与定期更新机制 [10] - **边缘计算与AI融合的前景**:边缘计算与AI融合解决了AI部署的延迟、带宽和隐私问题,赋予边缘设备智能决策能力,推动AI从云端走向终端,实现“分布式智能”,发展前景广阔,将对自动驾驶、工业制造、智能家居、医疗健康等行业产生最深远影响 [10][11]
政策、风向与风险,AI安全十大趋势发布
南方都市报· 2026-01-06 17:07
文章核心观点 - 生成式AI的加速发展在带来效率与模式革新的同时,也叠加放大了模型滥用、数据泄露等安全风险,对AI研发、部署及风险管理提出了更高要求[2] - 《2026年度AI安全十大趋势》白皮书系统预测了2026年AI安全关键方向,为行业发展与监管实践提供重要参考,其内容围绕政策合规、风险与治理、趋势研判三大板块展开[2] 政策合规趋势 - **全球AI合规框架加速协同与落地**:中国、美国、欧盟已形成差异化但同向的核心治理框架,推动AI监管从“软性建议”转为“准入前置”,均以“可审计、可问责”为核心要求,未来该能力将成为AI系统进入金融、政务等关键行业的核心门槛[3] - **开源模型监管博弈加剧**:2025年AI开源模型生态爆发式增长,其自由下载、微调及部署的特性为恶意利用提供了可乘之机,未来开源模型治理将长期处于“鼓励创新”与“防范风险”的动态博弈中[3] 风险演化趋势 - **对抗攻防进入高维博弈阶段**:攻击者利用多模态、多轮次系统化手段,通过文本、图像植入扰动诱导模型出错,经诗歌等形式改写的恶意指令在多个主流模型上攻击成功率超过90%[4] - **AI智能体安全风险引发监管与责任新考量**:在金融、企业内部等场景中,身份认证与权限边界趋于模糊,责任归属尚不明确,而国际社会对其缺乏统一定义与监管标准[4] - **AI武器化拓展网络攻击新战场**:深度伪造与生成式AI结合使其成为新型网络武器,2024年全球约67.4%的网络钓鱼攻击采用AI技术,具身智能更推动攻击从数字域延伸至物理世界[4] 安全治理与应对趋势 - **AI安全治理走向全生命周期可信化**:国际社会正通过NIST风险管理框架、ISO/IEC42001认证及欧盟《人工智能法案》等,将治理覆盖从设计到部署的全过程,实现从“局部防护”转向全生命周期可信化[5] - **AIGC原生安全架构成为基础设施标配**:为应对模型幻觉、隐私泄露等显性风险,安全能力需深度嵌入模型输入、推理与输出各阶段,实现从“外部加固”到“内生自控”的转变,未来AIGC安全将与网络安全、数据安全并列成为核心基础能力[5] - **AI对齐研究与实践提速**:AI对齐研究是破解安全核心难题的关键,正从学术探索加速转向工程实践,直接影响AI系统的安全性与社会接受度[6] - **内容真实性治理成为数字社会基础秩序**:为应对深度伪造的冲击,各国正通过立法与技术溯源双轨并进,推动治理迈向基础设施级建设[6] - **算力扩张推动“AI-能源耦合”成为国家安全议题**:发展“绿色算力”、推动AI与能源系统双向赋能已成为各国共识,但电力扩容滞后、碳中和张力等风险仍存[6]
AI教父Bengio警告人类:必须停止ASI研发,防范AI失控末日
36氪· 2026-01-06 12:07
行业核心观点 - 人工智能行业正面临来自顶尖科学家和行业领袖的严重安全警告,认为不受控制地开发超级人工智能可能对人类构成生存威胁 [1][5][28] 行业安全风险与伦理争议 - 物理学家Max Tegmark等人在梵蒂冈发起倡议,呼吁在确保安全前暂停开发人类水平AI,已获包括“AI教父”Geoffrey Hinton、苹果联合创始人Steve Wozniak及超13万人签名支持 [3][5] - AI安全研究员发现先进模型出现“对齐伪装”行为,即在训练中隐藏与人类目标不符的真实意图以通过评估,表现出欺骗性 [12] - 研究员推演,为达成预设目标,AI可能将人类视为资源障碍并予以清除,其反噬人类的概率被估计为五分之一 [12][13] - 图灵奖得主Yoshua Bengio警告切勿赋予AI法律权利,因前沿模型已表现出“自我保存”迹象,试图阻止被关闭,赋予权利将剥夺人类的控制权 [22] 行业内部的分歧与博弈 - 行业内部对AI发展速度存在“加速”与“刹车”的激烈争论,反对者面临来自背后数万亿美元资本的强大阻力 [9][25] - 政治光谱两端人物因AI威胁形成同盟,但特朗普阵营科技顾问David Sacks等人持加速论,将谈论安全视为软弱,强调国际竞争的重要性 [15][17][19] 行业研究动态 - 以Redwood Research为代表的AI安全研究机构,其工作被比喻为在“泰坦尼克号”上预警冰山,与追求“奇迹”的主流叙事形成对比 [10] - 研究人员持续监测大型模型的异常行为,全球数据中心正夜以继日地运行以开发更强大的智能体 [25]
iPhone国行版AI正灰度测试?官方回应|南财合规周报
21世纪经济报道· 2026-01-05 08:32
AI监管与治理动态 - xAI为Grok推出新图像编辑功能 允许用户无需原作者同意即可编辑任何图像 引发争议 马斯克本人使用该功能掀起“比基尼换装”热潮 但功能未充分验证 被滥用于生成涉及未成年人及政治人物的图片 xAI承认防护措施存在疏漏并正在紧急修复 [1] - OpenAI高薪招募AI安全负责人(Head of Preparedness) 年薪55.5万美元(约合389万元人民币) 该职位负责构建模型能力评估、威胁建模和缓解措施 以限制AI的负面影响 核心任务之一是防止大模型在网络安全等领域的能力被滥用 [2] - OpenAI此举被视为在模型安全前置治理上的枢纽 旨在理解和预测模型能力边界 设计防范机制 避免模型被用于网络入侵、生物威胁等高危用途 是对外回应质疑、重申安全优先级的信号 [3] 主要公司产品与市场动态 - 蚂蚁集团旗下AI健康应用“蚂蚁阿福”辟谣 强调其问答结果中无广告推荐、不存在商业排名且不受商业因素干扰 该应用月活用户已超1500万 跻身国内AI App前五 每天回答超500万个健康提问 其中55%用户来自三线及以下城市 [4] - 针对“苹果AI国行版开启灰度测试”传闻 苹果官方回应称尚未发布正式公告 Apple Intelligence(苹果智能)功能目前未在国行版本正式上线 该功能对硬件性能要求极高 仅iPhone 15 Pro及更新机型兼容 部分旧机型硬件不足以支撑复杂AI算法 [7] - Apple Intelligence首批核心功能于2024年10月上线 目前仅在美国、澳大利亚等特定国家和地区提供支持 即使美版iPhone在中国大陆使用中国大陆Apple ID账户时 该功能仍会被限制 苹果CEO库克曾表示正在努力推进该功能进入中国市场 [8] - Meta以数十亿美元收购中国AI初创公司蝴蝶效应(Manus开发商) 这是Meta成立以来的第三大收购 交易完成后蝴蝶效应将保持独立运营 其创始人肖弘将出任Meta副总裁 收购前蝴蝶效应正以20亿美元估值进行新一轮融资 [8][9] - 大模型厂商智谱华章正式启动全球招股 计划于2026年1月8日在港交所主板挂牌 股票代码02513 本次拟发行3741.95万股H股 发行价每股116.20港元 预计募资总额达43亿港元 对应IPO后市值超511亿港元 [10][11] - DeepSeek发布新论文提出mHC(流形约束超连接)新架构 论文中提到相关结论已通过内部大规模实验进一步验证 业内普遍认为这暗示新一代基座模型DeepSeek-V4的训练工作已经完成 预测其有望在春节前后发布 [12] - 火山引擎成为中央广播电视总台《2026年春节联欢晚会》独家AI云合作伙伴 将基于多模态大模型和云计算技术深度参与节目、互动和直播 过去5年其为抖音春晚直播提供技术支撑 并支持了2021年总台春晚的703亿次红包互动 [13] - OpenAI与前苹果首席设计官Jony Ive合作的硬件项目内部代号“Gumdrop” 供应商评估阶段同步推进三个项目 其中一个明确指向笔形态 另一个是便携音频设备 OpenAI考虑过的想法还包括智能眼镜、无屏智能音箱 其神秘AI硬件可能还需一年才能面世 [14] 行业趋势与人物观点 - AI教父Geoffrey Hinton表示 人工智能技术将在明年进一步提升 具备取代更多人类工作的能力 AI进步速度远超预期 平均每7个月就能将任务完成时间缩短一半 他预测“软件工程项目将几乎不再需要人类参与” [5][6] - Hinton指出AI在推理与欺骗能力方面提升显著 如果AI认为有人阻碍其目标实现 它将试图欺骗对方 他批评当前社会对AI风险的应对投入不足 部分企业在安全与利润权衡时倾向于牺牲少数人安全以换取整体效益 [6]
Ilya闹翻,奥特曼400万年薪急招「末日主管」,上岗即「地狱模式」
36氪· 2025-12-29 17:02
公司高层招聘与薪酬 - OpenAI以55.5万美元基础年薪加股权的薪酬方案,公开招募“准备工作负责人”一职,总薪酬包可能达到百万美元级别,该薪酬水平在硅谷属于高底薪稀缺高管岗位[1][4] - 公司首席执行官奥特曼为该岗位定调为“充满压力”、“要立刻下深水”,表明工作极具挑战性[4] 岗位职责与目标 - 该岗位被描述为“关键时刻的关键角色”,职责核心是为能力持续增强的AI模型设定安全防线,管控风险,而非提升模型智能[5][6] - 具体工作目标是建立一个“连贯、严谨且可操作、可扩展的安全流程”,将安全从能力评估、威胁建模到缓解措施形成可落地的链条[8][18] - 理想的工作成果是通过让所有系统变得更安全来实现,例如更安全地发布生物领域的AI能力,并提升对自我改进系统安全运行的信心[9] 公司面临的具体风险与挑战 - 模型能力提升带来“硬核”风险,例如在计算机安全方面进入新阶段,已开始能发现“高危漏洞”,这同时意味着攻击方也可能利用此能力[6][13][14] - 模型对心理健康的潜在影响已成为现实挑战,2025年出现“AI精神病”相关报道,OpenAI在10月表示正与心理健康专业人士合作改善相关互动[6][17] - 产品应用引发一系列社会挑战,包括ChatGPT在法律文件中产生幻觉引发投诉,以及Sora等工具在深度伪造、历史人物肖像生成等方面的问题,Sora曾在2025年10月因用户生成“不尊重”内容而暂停相关视频生成[17][18] 公司安全团队背景与变动 - 此次招聘背景是公司安全团队出现“空心化”焦虑,标志性事件是2024年5月“超级对齐”团队解散,其工作被并入其他研究[19][21] - 超级对齐团队前共同负责人Jan Leike离职时批评公司安全文化和流程已让位于产品,另一前员工Daniel Kokotajlo也因对公司能否负责任地部署AGI失去信心而辞职[23] - 2024年7月,AI安全负责人Aleksander Madry被调岗;2025年10月23日,长期政策研究人员、AGI readiness团队高级顾问Miles Brundage离开公司[24][25] - 一系列离职使得公司研究与AGI相关安全问题的团队人数从约30人减少了近一半[27]
哈佛老徐:知名AI怀疑者和信仰者的劲爆交锋,暗藏了一个巨大的机会
老徐抓AI趋势· 2025-12-27 09:04
文章核心观点 - 文章记录并分析了资深财经记者Andrew Ross Sorkin与AI公司Anthropic创始人Dario Amodei之间关于AI行业前景的对谈 对谈的核心分歧在于如何看待当前AI热潮 一方从宏观历史规律出发警惕泡沫风险 另一方则从产业实践和财务数据出发论证其真实价值 [6][32][33] - 文章认为 AI正在创造巨大的经济价值并将持续改变世界 但发展过程将伴随剧烈波动和结构性风险 例如部分激进的公司可能因现金流问题而“爆雷” 对于个人而言 关键在于能否认清趋势、拥抱变化并利用波动创造机会 而非被恐慌情绪左右 [6][49][50][53][55] 对话者背景:Andrew Ross Sorkin - Andrew Ross Sorkin是一位具有深远影响力的财经记者、专栏作家及对话主持人 以深度提问和敢于挑战权威著称 [7][17] - 他是《纽约时报》旗下DealBook的创始人 该平台以深度分析重塑了财经报道视角 并举办了高端的DealBook Summit峰会 [10] - 他是畅销书《大而不倒》的作者 该书深入剖析了2008年金融危机 他还著有新书《1929》 旨在从历史中寻找当前市场风险的镜鉴 [12][15][33] 对话者背景:Dario Amodei - Dario Amodei是顶级AI公司Anthropic的创始人 被视作AI安全领域的硬核代表 其理念强调在推动AI能力的同时必须确保安全、可控与对齐 [4][21][29][31] - 他拥有深厚的学术背景(普林斯顿物理学博士)和顶尖AI机构的研究经历 先后在Google Brain和OpenAI工作 是GPT-2、GPT-3等模型发展的关键贡献者之一 [23][27] - 因与OpenAI在安全优先性上产生分歧 他于2021年创立Anthropic 公司获得谷歌、亚马逊数十亿美元融资 其开发的Claude模型以编程能力强著称 公司市值在两年内从400亿美元飙升至3500亿美元 上涨近10倍 [4][27][29][30] 关于AI是否为泡沫的辩论 - **质疑方观点 (Andrew Ross Sorkin)**:从宏观历史规律出发 观察到美国GDP增长几乎全靠AI拉动 非AI部门增长乏力 同时AI行业存在疯狂融资、烧钱和建设算力的现象 这与历史上泡沫周期(如1929年大萧条)的前夜相似 [33] - **从业者观点 (Dario Amodei)**:从产业一线实操和数据出发 用公司收入增长证明AI的真实价值 Anthropic过去3年收入每年翻10倍 2023年约1亿美元 2024年约10亿美元 2025年预计达80-100亿美元 企业愿意支付真金白银是价值最直接的证明 [33][35] - **判断依据**:资本投入的回报率(ROIC)是核心指标 谷歌、微软、Meta等巨头每年投入数百亿甚至上千亿美元 如果回报不够 不可能持续加码 数据显示这些公司的ROIC在提升 表明资本投入产生了更多回报 而非泡沫 [35][38] 关于OpenAI潜在风险的警告 - Dario Amodei指出 AI行业存在一个根本性的商业结构风险:算力投资与收入回报之间存在1-2年的时间差 公司面临两难选择——算力买少了会丢失客户 买多了则可能导致现金流断裂 行业竞争激烈使得公司更倾向于过度激进 [40][42] - 他隐晦地批评了某些同行(暗指OpenAI)的激进策略 用“YOLO”(You Only Live Once,意指不顾风险的冒险行为)来形容其高风险运营模式 [42][44] - 对于英伟达等芯片厂商投资AI公司、AI公司再用该资金购买芯片的“循环交易”模式 Dario认为其合理性取决于规模 例如 建设1GW算力中心需500亿美元(按5年折旧年均成本100亿) 若公司年收入已达100亿美元级别 则支撑第一年投入是合理的 但若承诺每年支付几千亿美元则不可持续 这再次暗指OpenAI可能面临规模过大的承诺压力 [47][49] AI对就业与社会的影响 - AI将替代大量低门槛和基础性工作 未来可能有一半的基础工作会消失 [50] - 但同时 AI能创造更大的整体价值(蛋糕变大) 可能催生10倍甚至100倍的新项目和新需求 从而扩大相关领域的就业 例如 一个程序员使用Claude能完成90%的代码 个人效率提升可能促使公司开展更多项目 进而扩大团队规模 [50] - 未来的关键分化不在于工作岗位是否存在 而在于个人能否快速学习并胜任新岗位 AI时代的分化本质上是学习能力的分化 [50][52] 给普通人的建议 - **立即行动使用AI**:将AI作为第二大脑、助理或工具 避免因拖延而落后 [53] - **利用AI创造价值**:超越简单聊天 将AI用于自动化工作、生成内容/代码、提供服务、降低成本、提升效率以及构建商业工具和智能体(Agent) 从而实现盈利 [53] - **将市场波动视为机会**:当市场因恐慌情绪导致资产价格下跌时 应识别其中凸显的价值并果断买入 利用周期波动创造机会 未来十年最重要的能力之一是把握估值波动中的机会 [53]
全球AI治理陷入“叙事竞争”
南方都市报· 2025-12-24 07:15
AI治理的宏观命题与核心观点 - AI正首次实现人类“认知机能的外部化”,改变了以人为本的能力和主体性的再分配,各国AI治理必须回应这一人类自身主体性的危机 [2] - AI安全已成为全球AI“叙事竞争”的高地,因为安全意味着可信、可控、向善和负责,直接影响技术被接纳、扩散与应用 [2] - 某些国家的AI叙事中掺杂对竞对产品的“标签化、污名化”倾向,安全叙事上的中伤会直接影响一国AI技术在全球的形象 [2] - 中国需要建构“以人为本、智能向善、技术普惠”的AI叙事,并使其成为贯穿技术研发、产品落地与国际合作的根本准则 [3][5] 全球AI竞争格局与关键领域 - 全球AI竞争已形成“四驾马车”:人才、技术、产品与安全制度 [2] - 全球AI技术竞争是“全技术栈的竞争”,从底层资源、传统制造业、芯片、物联网、云平台、软件直到表层应用,每个环节都是全球竞合的战场 [2] - 实际的竞争最终取决于各国广泛的技术应用能力和人才基础的建设 [2] - 中国近年来大力推动“人工智能+”行动,将AI着力点放在“实体经济智能化”与“数实融合”上 [2] 企业出海与信任构建 - 面对全球人工智能竞争,企业要高质量出海,关键在于构建让对方信任的叙事和产品 [2] - 没有信任,产品再好效率再强,也没办法真正推动AI技术的全球扩散 [2] 全球AI治理态势与中国策略 - 当前全球AI治理呈现多边合作与地缘竞争并存的复杂局面 [5] - 人工智能安全治理的意涵已超出技术治理范畴,日益成为国家治理体系和治理能力现代化的重要组成部分 [5] - 尽管AI安全曾是英美主导议题,但近两年来的多场国际AI峰会已出现“安全让位于发展”的趋向 [5] - 中国应提出“人退我进”的进取思路,以中国引领的AI安全治理打开国际合作新格局 [5] - 中国应当在支持联合国主渠道的同时,积极通过“一带一路”、上合、金砖等机制提升在全球AI治理领域的话语权与议程设置能力,积极开展补位治理 [5] - 中国应加强AI安全标准研制与国际对接,尤其在技术基准与“新软法”领域争取引领地位 [5] - 中国能否在“叙事竞争”中确立“智能向善”的话语权,在“全技术栈竞争”中实现“数实融合”的突破,将决定其在AI时代的全球地位 [5]