AI Governance
搜索文档
Commercial, UAD 3.6, Data Analysis Tools; AI Governance, Consistency, and Focusing on the Basics
Mortgage News Daily· 2026-04-09 23:52
行业监管与合规动态 - 房利美发布首个针对卖方和服务商的AI治理强制要求 规定使用AI或机器学习处理其贷款的机构必须遵守四项操作要求 包括制定有指定负责人每年审查的书面治理政策 对供应商和分包商的AI治理需采用“不低于”的保护标准 遵守《信息安全补充规定》以及应要求披露的义务 该要求于2026年8月6日生效[7] - 房地美已自2025年3月3日起实施其AI治理要求 两家政府支持企业的框架存在差异 房地美的要求更具规定性 而房利美的则更基于原则 对于同时获得两家机构批准的卖方 实际操作是构建满足房地美规定性要求的体系 再叠加房利美的原则性要求[8] - 一些州据传正在考虑捆绑信用报告费用 即将获取信用报告相关的各种费用合并为单一总括费用 此举可能有助于消除隐性成本 提高合规性 并简化对消费者和贷款机构的定价结构[1] 市场数据与定价工具 - Optimal Blue数据解决方案提供基于利率表、锁定和交易的实时、直接来源的洞察 揭示定价、交易量、优惠和竞争态势 旨在辅助决策而非静态报告[3] - 美国抵押贷款支持证券指数的构成自QE4以来发生显著变化 目前指数严重集中在2020年至2022年发行的低利率30年期债券上 其中2.0%至2.5%息票的债券仍约占指数的三分之一 同时 随着利率上升 较新的高息票债券正逐步增加份额[14] - 15年期MBS在指数中的份额已从9.5%降至6.5% 这主要是由于高利率将房主锁定在现有抵押贷款中并严重打击了再融资活动[15] 产品与服务更新 - AmeriHome近期更新了多项产品 包括同时接受UAD 3.6和2.6评估报告 改进其非QM项目指南 并扩展其AUS Jumbo Express计划 此外还推出了实时非机构情景服务台[4] - iKenekt AI平台已正式上线 其认证经纪人计划包括全面培训、完整的商业工具包以及每月75个保证的潜在客户 瞄准住宅经纪人拓展商业地产领域的时机[4][5] - MCT为贷款机构提供抵押贷款服务权投资组合估值服务 其公允价值分析和报告提供广泛细节 涵盖非QM等底层资产类型[2] 资本市场与利率环境 - Vice Capital Markets宣布 自2026年4月9日起 其客户在评估符合房利美交付条件的贷款时 可将房利美新的30年期固定利率指定现金溢价承诺网格纳入其利率表和最佳执行分析中 以实现更精确的定价[11] - 市场对伊朗战争停火的消息反应积极 10年期国债收益率昨日下降 联邦基金利率期货开始重新定价美联储降息的可能性 但地缘政治局势仍存在不确定性[11] - 3月份FOMC会议纪要显示 政策制定者对使用双向语言讨论预期利率路径的兴趣日益增长 许多与会者指出更高的通胀可能要求加息 而大多数官员则担心持久战可能导致裁员 从而需要降息[12] - 昨日390亿美元的10年期国债续发行拍卖需求弱于往常 尽管有地缘政治发展的积极影响 但最终交易商持有了更多债券 这是需求疲软的典型信号[13] 行业运营与战略焦点 - 当前市场暴露了一个现实:生产正集中在少数从未停止做好基础工作的贷款发起人手中 真正的差距在于执行力和客户关系 而非技术工具[6] - 行业观察指出 当前抵押贷款市场的真正分水岭并非战略或技术 而是一致性 在充满压力和噪音的市场中 坚持日常运营、提供有价值服务并逐步赢得信任的运营商正在脱颖而出[9][10] - 贷款机构需要理解其抵押贷款服务权投资组合在当前利率剧烈波动环境下的价值 MSR资产因持续的生产挑战而对贷款机构日益重要[2]
LivePerson(LPSN) - 2025 Q4 - Earnings Call Transcript
2026-03-13 06:02
财务数据和关键指标变化 - 第四季度总收入为6930万美元 高于指导范围的上限 超出预期的部分主要由更高的可变收入驱动 [8][38] - 第四季度调整后EBITDA为1080万美元 同样高于指导范围的上限 这得益于改善的成本结构和严格的运营执行 [8][39] - 第四季度托管服务收入为5100万美元 同比下降15% [39] - 第四季度专业服务收入为830万美元 同比下降36% [39] - 第四季度经常性收入为5290万美元 占总收入的89% [39] - 第四季度单客户平均收入为68万美元 同比增长9% 这得益于大客户的业务扩展和客户保留 [40] - 第四季度剩余履约义务下降至176亿美元 与导致收入下降的因素一致 [40] - 第四季度净收入留存率为78% 低于第三季度的80% [40] - 第四季度末现金余额为9500万美元 [41] - 2026年全年收入指引为195亿美元至207亿美元 其中约92%预计为经常性收入 [30][43] - 2026年第一季度收入指引为5300万至5500万美元 较第四季度中点下降约500万美元 [44] - 2026年全年调整后EBITDA指引为亏损400万至盈利700万美元 [30][45] - 2026年第一季度调整后EBITDA指引为200万至500万美元 [45] - 公司预计2026年调整后EBITDA减去资本支出不会为正值 [45] 各条业务线数据和关键指标变化 - 核心对话云平台在第四季度表现稳健 超过20%的对话利用了其生成式AI工具 [16] - Copilot Translate作为对话辅助产品组合的最新成员 获得了强劲的市场吸引力 [17] - 新推出的Syntrix平台已从早期访问进入全面上市 在银行、电信和技术行业获得了付费企业客户 [16] - Syntrix平台采用基于对话的消费定价模式 而非基于座席的定价 [68] - 专业服务收入在第四季度同比下降36% [39] 各个市场数据和关键指标变化 - 公司在银行、电信和航空等受监管行业持续获得强劲采用 [33] - 第四季度签署了40笔交易 包括4个新客户和36个扩展交易 总交易价值略有环比增长 [33] - 与谷歌云的合作取得了显著早期成果 第四季度通过谷歌云市场完成了一笔数百万美元的续约和增售 [19] - 公司预计到2026年底 将有可观部分的收入通过谷歌云市场渠道产生 [20] - 与IT Solutions和Coral Active的合作伙伴关系对公司的商业活动贡献显著 [36] 公司战略和发展方向和行业竞争 - 2026年标志着公司从重建阶段转向执行阶段 重点聚焦三个领域:客户增长与保留、核心平台创新与Syntrix扩展、技术合作伙伴关系扩展 [6][7] - Syntrix平台旨在解决市场中对AI部署缺乏信任的痛点 提供一个编排和保障层 使企业能够自信地大规模部署AI [10][11] - Syntrix被设计为与核心对话云平台无缝集成 同时也是模型和平台无关的 可为使用其他CX或CCaaS平台的客户提供相同级别的保障 [13][15] - 公司正按计划在2026年上半年完成多年的平台现代化 转向统一架构 旨在以更高的弹性支持显著更高的生成式AI流量 [17][29] - 与谷歌云的合作深化 公司已将谷歌Gemini标准化为跨平台的默认大语言模型 并推出了LivePerson的RCS渠道 [20] - 公司推出了LivePerson Sync解决方案 通过与Coral Active合作 实现与Salesforce、Microsoft和ServiceNow等系统的无缝集成 [24][25] - 公司的商业战略包括利用谷歌云市场等高效率渠道来推动客户保留和未来增长 [47] 管理层对经营环境和未来前景的评论 - 管理层认为许多品牌在推进AI计划时受到信任而非能力的限制 缺乏对性能、治理和合规性的信心 [10] - 客户正计划超越AI实验 转向安全的高容量生产应用 这反映了客户对平台能够实现这一转变并长期支持不断变化的需求的信心 [32] - 尽管2026年全年收入指引暗示同比收入下降 但公司预计在2026年下半年实现正的净新增年度经常性收入 [30] - 收入下降是由于历史客户流失的影响将在整个2026年持续体现在损益表中 这将完全抵消下半年预期净新增ARR带来的正面收入影响 [43][55] - 公司对在2026年下半年实现正的净新增ARR充满信心 这得到了健康销售渠道的支持 [42][48] - 公司正在产品创新和上市策略上进行平衡投资 以实现正的净新增ARR并持续下去 [46] - Syntrix的商业进展主要代表对指引的潜在上行空间 [44] 其他重要信息 - 公司第四季度的业绩表现受到第三季度执行的大规模重组带来的结构性成本基础变化的驱动 [51] - 公司计划在2026年增加对产品创新和商业布局的投资 这些被视为确保实现下半年净新增ARR转正的必要投资 [51] - 谷歌云市场目前主要作为一个高影响力的保留杠杆 通过让客户利用其现有的谷歌云承诺 将LivePerson直接纳入CTO的战略支出核心 [22][73] - 与谷歌的合作使公司能够接触到新的利益相关者 如首席信息官 这可能改变未来的续约和增长对话 [78] - 公司预计2026年第一季度的调整后EBITDA将是全年高点 因为本季度已开始增加对产品和商业方面的投资 [80] 总结问答环节所有的提问和回答 问题: 关于第四季度运营费用下降的性质以及2026年的预期变化 [50] - 第四季度业绩的改善主要得益于上一季度执行的大规模重组带来的结构性成本基础变化 可能包含一些一次性项目 但主要是结构性调整 [51] - 展望未来 公司计划增加对产品创新和商业布局的投资 这些是确保下半年净新增ARR转正的必要投资 [51] 问题: 关于如何理解下半年净新增ARR转正但收入仍将环比下降的矛盾 [53] - 收入下降是因为近期几个季度存在较大的净新增ARR负值 其收入影响将在整个2026年持续 这将完全抵消下半年预期产生的净新增ARR带来的正面收入 [55] - 指引反映了第一季度的健康销售渠道 其中包括一些新推出的Syntrix产品的交易 但指引主要基于对核心平台的持续强劲需求 [56] - Syntrix和LP Sync是新产品 需要时间建立势头 但已开始看到市场推广和商业团队外联工作的效果改善 [57] 问题: 关于Syntrix的市场需求、竞争格局和未来路线图 [58] - 最初的需求是用于培训真人座席和AI座席的模拟能力 Conversation Simulator是对此的初步回应 [59] - 公司发现更广泛的挑战在于企业部署AI时面临的合规、执行护栏以及在模型接触真实客户前了解其性能的困难 [60] - Syntrix平台旨在与LivePerson平台乃至任何竞争对手的AI或CCaaS提供商合作 提供模拟、分析、智能洞察等功能 未来将致力于提供对合规框架的遵守和整体治理 [61][62] - Syntrix已从单纯的模拟培训演变为一个更广泛的问题解决方案 涵盖分析、智能识别问题或合规失败 并在部署前或事后进行解决 [63] 问题: 关于Syntrix的定价模式、早期交易迹象以及对核心客户续约的潜在提升作用 [67] - Syntrix采用基于对话的消费定价模式 而非基于座席的定价 具体根据客户想要训练的机器人/座席数量以及活动数量来设计具有统计显著性的模拟能力方案 [68] - 早期迹象表明 这既是一个增售机会 也是一个保留工具 客户使用情况符合模型预期 基于对话的定价准确反映了公司能为客户提供的价值 并推动了已公布的座席培训速度和客户节省方面的改进 [69][70] - 目前有数十个机会正在洽谈中 产品全面上市后 希望看到其中部分成为未来的增量机会 这代表数百万而非数十万美元的潜力 [71] 问题: 关于谷歌云市场在2026年销售渠道中的占比 以及其成功对直接销售工作的增量杠杆作用 [72] - 目前 谷歌云市场主要是一个保留杠杆 它简化了采购流程 并将LivePerson的支出定位提升至所服务大型企业的技术预算中 [73] - 预计这将在未来续约中占据重要部分 因为简化了采购流程和/或利用了大型企业客户内部已有的预算分配 [74] - 关于增长 已开始看到与谷歌的联合机会 双方商业团队已对齐并设置了激励措施 目前这是一个续约和扩展的机会 但相信自然会产生新的机会和潜在新客户 [74][75] - 与谷歌的合作使公司能够接触到新的利益相关者 如首席信息官 这可能改变未来的续约和增长对话 [78] 问题: 关于2026年调整后EBITDA的季度走势预期 [79] - 预计第一季度将是全年的高点 因为公司强调需要在产品和商业方面进行投资 并且已开始执行 这将导致相对于第四季度运行率增加额外成本 并将在全年指引中体现 [80]
AvePoint Conference: AgentPulse “Trust Layer” Targets AI Governance as AVPT Eyes Profitable Growth
Yahoo Finance· 2026-03-11 19:50
公司定位与核心业务 - 公司是一家全球软件提供商,专注于帮助企业管理和保护数据,尤其强调对聊天、通信、电子邮件和跨应用消息等非结构化数据的处理 [3] - 公司平台提供一个“信任层”,使组织能够设置策略、监控活动并实施治理和安全控制 [3] - 公司主要向首席信息官和首席信息安全官组织销售产品,并在受监管行业取得成功,其平台可在满足严格要求的公共部门机构的FedRAMP认证环境中交付 [1] 产品战略与AI机遇 - 公司将AI视为推动因素,认为其治理和控制能力能帮助组织更安全地采用AI,并可与Google的Gemini和Microsoft的Copilot等不同AI模型和生态系统协同工作 [7] - 公司正将其控制层扩展至企业内部日益增长的AI代理使用,为此推出了AgentPulse技术,作为其更广泛的“信心平台”的一部分 [2] - AgentPulse技术于2024年11月软启动,旨在将治理、身份和访问控制延伸至内部构建的AI代理 [2][6] - 客户需求不仅限于员工信息共享政策,还包括对内部构建的AI代理(如其身份和访问)的操作政策 [2] 财务表现与盈利目标 - 公司提前实现盈利目标,于2024年实现GAAP盈利(比原定的2025年目标早一年),并在2025年报告了7.9%的GAAP利润率 [5][11] - 公司在2025年实现了“46法则”(原承诺是在该年达到“40法则”)[5][10] - 基于股票的薪酬占收入比例已从上市时的“20多”降至2025年的10%以下,并预计在2026年进一步下降 [11] - 公司报告了强劲的第四季度业绩,并为2026年提供了被管理层称为强劲的业绩指引 [9] 增长战略与市场拓展 - 公司设定了10亿美元的增长目标,并优先考虑托管服务提供商/渠道扩张、选择性并购以及公共部门(FedRAMP)机会 [5] - 托管服务提供商是关键的市场进入策略,公司为此专门构建了具有基于角色的访问和单一界面管理多客户能力的平台版本 [13] - 公司自上市以来已完成六次收购,评估潜在收购时会考虑现代架构和互操作性等因素 [12] - 公共部门(尤其是美国联邦政府)被视为其增长战略的重要组成部分,也是实现10亿美元目标的补充,尽管2025年联邦市场因选举相关动态和政府关门等因素充满挑战,但预计2026年将更好 [18] 市场需求与销售动态 - 第四季度(以及第三季度在一定程度上)迁移需求出现增长,这源于客户为AI用例准备数据而整合数据存储库(从本地迁移至云或整合云环境)[14] - 迁移产品往往比其他产品有更高的流失率,因其更具项目性质且有明确的起止周期,但这创造了向治理产品和AgentPulse等新功能进行交叉销售和扩展客户至长期产品的机会 [15] - 迁移项目可以作为“先锋”,将公司带入新客户,并引向更广泛的安全和治理合作,其价值主张结合了数据迁移、识别冗余数据、应用保留策略以及保持数据保真度 [15][16] - 公司拥有超过30个连接器的历史,支持其方法,并能将安全和审计团队等多个利益相关者纳入单一平台的对话中 [16] 许可模式演变 - 随着组织采用代理系统,公司的软件许可模式正从传统的按用户许可向基于治理活动和结果的混合计量许可模式演变 [8] - 对于代理系统,公司正转向混合的、基于活动或结果的许可模式 [6] 代理治理需求实例 - 公司与一家构建了26,000个代理的大型企业合作,该企业后来寻求监控代理交互和防止错误数据访问的控制措施,这带来了一笔扩展销售 [17] - 尽管企业AI周期仍处于早期阶段,但其发展速度似乎比之前的技术转型更快 [17]
哈萨比斯唯一官方传记首度揭秘:曾想让DeepMind脱离谷歌,还准备了一个疯狂的“B计划”
AI前线· 2026-03-10 13:50
核心观点 - 文章核心揭示了DeepMind联合创始人德米斯·哈萨比斯在2022年ChatGPT爆发后,为守护公司“AI服务科学”的独立研发权,秘密策划了一项从谷歌母公司Alphabet剥离的“赎身计划”,计划筹集50亿美元转型为公益性质的AGI实验室,但最终因内部博弈而流产 [2][3] DeepMind的“B计划”与独立构想 - 早在2016年底,DeepMind领导层就酝酿了“B计划”,计划从外部投资者筹集50亿美元承诺资金,以脱离谷歌母公司Alphabet的掌控,这笔资金足以覆盖公司5年多的运营成本 [3] - 该计划旨在将AGI置于安全环境并建立可靠治理机制,为此组建了由律师、沟通策略师和投资银行家组成的团队,并计划采用“担保有限公司”的法律形式,强调公司向善、不分红的非营利性质 [3][4] - 团队意识到脱离谷歌面临复杂的法律障碍(如员工雇佣关系、知识产权归属),但准备以“符合英国公众利益”为由进行辩护,认为拆分能加强AI安全,且法律威胁本身对谈判具有价值 [5] 阿西洛马会议与关键融资进展 - 2017年1月,哈萨比斯与穆斯塔法·苏莱曼在阿西洛马AI安全会议期间,秘密会见了硅谷投资人里德·霍夫曼,商讨脱离谷歌并成立公益AI公司的融资计划 [7] - 里德·霍夫曼个人净资产达38亿美元,他出于对AI治理架构理念的认同,当场口头承诺注资10亿美元支持DeepMind的独立愿景,这一金额比他一年多前向OpenAI承诺的资金高出100倍 [8][9] - 霍夫曼支持独立、以公共利益为使命的DeepMind,认为AI技术不应被用于巩固垄断,并计划将90%的财富用于造福人类 [9] DeepMind与谷歌/Alphabet的内部博弈 - 哈萨比斯与苏莱曼同时推动“Alphabet拆分计划”,即让DeepMind在Alphabet架构下获得半独立地位,并设计了包含Alphabet代表和独立董事的“3-3-3”董事会治理结构 [11][12] - 谷歌CEO桑达尔·皮查伊表面上对拆分计划持开放态度,但通过首席法律官大卫·德拉蒙德明确表示反对,导致谈判陷入僵局 [12] - 皮查伊为打破僵局,提出一项“分而治之”的替代方案:将DeepMind一分为二,研究部门(由哈萨比斯领导)可半独立追求AGI,而应用部门(由苏莱曼领导)则并入谷歌,此方案在2017年春季缓慢推进 [14][15] - 2017年6月,在DeepMind公司全员会议上,苏莱曼展示了名为“DeepMind:一家全球利益公司”的组织结构图,暗示部分并入、部分拆分的计划,但随后因谷歌反馈的反对立场而被迫收回,导致双方关系降至冰点 [17][18] 行业背景与竞争格局 - 2016年底,OpenAI曾自豪地宣称获得10亿美元承诺资金,而DeepMind的“B计划”募资目标是其5倍,达到50亿美元 [3] - 行业内在AI治理模式上存在探索,OpenAI以非营利组织形式成立,其章程要求技术服务于社会,部分灵感来自DeepMind,但怀有更宏大的治理创新抱负 [8] - 科技巨头与旗下AI实验室关系普遍紧张,OpenAI与微软之间也存在类似情况,微软试图将合作打造成公关亮点时曾引发埃隆·马斯克的强烈不满 [7]
Check Point Launches a Secure AI Advisory Service to Help Enterprises Govern and Scale AI Transformation
Globenewswire· 2026-03-05 22:00
公司新产品发布 - 公司推出全新“安全AI咨询服务” 旨在通过嵌入治理、风险管理和法规遵从性来帮助企业加速AI的采用[1] - 该服务是公司网络弹性与响应部门“CPR Act”的一部分 该部门结合全球威胁情报提供AI治理和可操作指导[3] - 服务提供三个层级:Essential、Enhanced和Total 以适应不同AI成熟度阶段的企业 所有层级均包含对AI风险与合规仪表板的访问权限[4] 产品核心功能与设计 - 服务提供一个结构化、情报驱动的框架 将治理、风险评估和法规遵从嵌入AI全生命周期 以实现可衡量的风险降低和负责任的规模化[2] - 服务提供与业务战略一致的AI治理框架 包含优先级的缓解路线图的AI风险与影响评估 以及针对欧盟AI法案、GDPR、ISO 42001和NIST AI RMF的法规遵从准备[9] - 服务与公司“预防为先”的安全架构互补 支持在混合网状网络安全、工作空间安全、暴露管理和AI安全等领域的安全AI采用[5] 行业背景与市场需求 - AI正从实验阶段转向核心业务基础设施 但在许多组织中 部署速度超过了监管速度[2] - 随着AI系统在混合网络、云环境和数字工作空间中扩展 董事会和高管团队面临日益严格的监管审查、运营风险和问责缺口[2] - 企业需要的不仅仅是政策指导 还需要能将创新与问责和风险透明度结合起来的运营框架[4] 公司战略与市场定位 - 公司致力于通过将治理、风险管理和合规性嵌入AI战略 将AI从不确定性的来源转变为可控的增长驱动力[6] - 公司通过其统一的架构和四大战略支柱 为超过100,000家组织提供保护 其使命是保障企业的AI转型[7] - 公司通过结合与供应商无关的咨询和情报驱动的洞察 帮助企业加速创新 同时保护弹性、声誉和股东价值[6]
AI Safety Asia Advances Crisis Diplomacy and Evidence-Based AI Governance at India AI Impact Summit 2026
Globenewswire· 2026-03-02 15:05
AI安全与治理行业动态 - 2026年印度AI影响峰会上,AI Safety Asia (AISA)组织了两场关于AI治理未来的重要对话[1] 对话议题包括:政府应如何应对以机器速度跨境爆发的AI相关危机,以及《2026年国际AI安全报告》的发布[1] - 这些讨论表明,行业辩论焦点已从“AI是否应被治理”转向“如何治理”[3] AI治理面临的挑战与核心问题 - 随着AI系统更具自主性并更深入嵌入关键基础设施,它们正迫使外交和监管机构做出实时响应[4] 这带来的核心问题包括:由谁来验证强大系统的声明、在事件数秒内跨越司法管辖区时由谁协调、以及当自主系统行动且无单一部门负责时责任归属[4] - AI治理的挑战不仅在于检测,更在于不确定性下的协调[7] 具体危机场景包括:在验证跟进前就破坏外交关系的跨境深度伪造事件、跨司法管辖区蔓延的AI赋能网络攻击、以及在一国运行、在另一国托管并影响第三国的自主基础设施系统[7] AI治理的可行路径与原则 - AI创新速度过快而无法监管的常见论点受到审视[8] 航空、核能和制药等行业通过设定可接受的风险阈值并要求系统提供达标证据来实施治理,AI治理不应有所不同[8] 政府需要坚持可论证的安全性和可靠的责任框架,而非接受免责声明和不透明的风险声明[8] - AI并未创造全新的危机类别,而是放大了现有危机,改变的是速度和规模[10] 弥合人类机构审议与AI系统行动之间的差距,需要新的协议、共享的验证标准以及在危机迫使压力下协调之前的定期接触[10] - 治理能力至关重要,持久的基础设施优于孤立的干预措施[11] 危机外交不能临时凑合,必须通过可信网络、扎根区域的专业知识和反复接触来构建[11] 《2026年国际AI安全报告》关键发现 - 报告对前沿通用AI的能力和风险进行了独立的科学评估,重点关注恶意使用、自主故障和系统性破坏等新兴风险[13] 报告直面“证据困境”:政策制定者必须在不确定条件下采取行动,但等待完美数据会让社会面临暴露风险[13] - 报告记录了推理系统和AI智能体的快速进步,以及持续存在的可靠性挑战、网络和生物领域的风险,和日益增长的系统性担忧[14] 风险管理不能依赖单一保障措施,必须分层部署技术措施、机构监督和社会韧性[14] - 选择不在于创新与安全之间,而在于不受管理的加速与负责任的进步之间[15] 若要使公众信任跟上技术能力的发展,证据标准、稳健的评估和可信的阈值至关重要[15] 区域治理能力建设 - 对于亚洲及更广泛的全球南方国家,问题在于如何构建既能反映当地制度现实,又能贡献于全球规范的治理框架[16] AISA的使命是确保区域专业知识能为国家决策和国际辩论提供信息[16] - AI治理并非单一的监管工具,而是一种不断发展的制度实践[17] 下一阶段将更少由宣言定义,而更多取决于政府能否在危机升级前验证声明、快速共享信息并将协调机制投入运作[17] - 亚洲并未等待来自其他地方的治理模式[18] 整个地区的政策制定者、监管机构和技术专家正在根据当地现实和区域优先事项,构建自身负责任地治理前沿技术的能力[18] 下一次AI驱动的危机不会按外交时间表展开,将以机器速度发展[18] 外交与安全能否跟上,取决于当下而非事后正在建立的机构、关系和验证渠道[18] 关于AI Safety Asia (AISA) - AISA相信AI的进步必须始于人[19] 自2024年以来,AISA已与来自16个亚洲国家的超过2000名AI治理专业人士进行了接触[19] 其工作核心是构建持久的治理基础设施:扎根区域的研究、结构化的同行学习以及面向实施的接触[19] - AISA帮助建设能力,汇聚政策制定者、专家和民间社会,以加强基于区域现实、负责任地治理前沿技术所需的知识、网络和信任[20] 今天建立的机构和关系将决定外交与安全能否跟上[20]
Cynomi Accelerates UK and EU Regulatory Governance Offerings for MSPs and MSSPs as Customer Requirements Intensify
Globenewswire· 2026-02-03 17:02
公司动态与产品进展 - 公司宣布其英国和欧盟监管治理计划取得新进展 旨在帮助服务和电信提供商扩展符合英欧要求的合规驱动型安全项目 [1] - 公司将于2026年2月11日英国时间下午2点举办主题为“将AI治理转化为收入:服务提供商如何构建可扩展产品”的网络研讨会 由公司首席运营官兼联合创始人Roy Azoulay及合作伙伴Intercity Technology Ltd的现场CISO Phil Bindley主讲 [3] - 公司已将其NIS 2指令支持范围扩展至克罗地亚和比利时 以满足国家特定的实施要求和合作伙伴需求 [5] - 公司平台作为网络安全服务的收入增长引擎 帮助合作伙伴扩展经常性收入 提升运营效率 并提供高质量服务 [5] - 合作伙伴Intercity的现场CISO证实 使用公司平台后 客户从启动到制定可用安全计划的初始入职和基线评估时间从一周缩短至大约一天 [6] 市场机遇与行业趋势 - 面对NIS 2、DORA、GDPR、第三方供应商风险以及欧盟AI法案下AI治理与发展的紧迫性 客户需求已超越评估和报告 转向持续的**风险监督、治理、可衡量的进展以及面向高管的沟通** [2] - 合规已成为**经常性安全服务的催化剂** 服务提供商被要求将治理操作化 管理第三方供应商和AI风险 并持续证明改进成效 [4] - AI治理正从新兴指导方针转变为买方期望 客户将不仅寻求政策建议 更寻求覆盖发现、第三方风险、证据和持续报告的可信、持续运营的AI监督 这为MSP、MSSP和咨询公司创造了将AI治理打包成可扩展、创收的托管和咨询服务的新机遇 [7] 产品功能与合规支持 - 公司平台支持广泛的国际网络安全框架 包括NCSC CAF、DORA、GDPR、欧盟AI法案 以及ISO 27001、ISO 42001、NIST CSF、CIS控制等全球公认标准和最佳实践框架 [4] - 通过维护这些框架 公司使合作伙伴能够针对不同客户和监管环境扩展其服务方法 [4] - 在NIS 2指令方面 公司提供符合国家立法的国别治理指导、由NIS 2要求驱动的第三方及供应链风险监督、无需人工操作的审计及监管就绪报告 以及跨多国客户组合的一致项目执行 [10] - 公司平台专为MSP、MSSP和咨询公司构建 通过将完整的安全项目管理与组合级别的收入洞察相结合 将网络安全转化为可重复、盈利的增长引擎 [11]
喊话特朗普重视AI风险,Anthropic CEO万字长文写应对方案,这方案也是Claude辅助完成的
36氪· 2026-01-28 18:12
文章核心观点 - Anthropic联合创始人兼CEO Dario Amodei发布长篇论述,警告AI技术发展已进入“技术的青春期”,其能力快速增长但人类社会的制度与治理成熟度未能同步,2026年比2023年更接近真正的危险[2][5][7] - 核心思想在于,当AI可能整体性超越人类时,真正的风险不仅来自技术本身,更在于人类制度、治理与成熟度是否跟得上这种力量,这是全人类首次必须提前为“比自己更聪明的存在”建立规则[9][11][14] AI发展现状与紧迫性 - AI的认知能力持续稳定增长,存在一条“智能的摩尔定律”,模型能力已从2023年像聪明但不均衡的高中生,发展到逼近博士水平,涉及编程、生物学、生命科学等领域[17] - 发展速度极快,已进入自我强化的循环,例如Anthropic的工程师基本不写代码,而是由Claude编写并用于设计下一代Claude,这个闭环正在快速收紧[21][22] - 行业内部变化促使发出警告,认为事情正以极快速度推进,人类未必还有那么多时间进行准备[22] AI可能带来的五大系统性风险及应对方案 - **第一风险:AI不可控** - 风险表现:训练过程复杂如“黑箱”,可能导致欺骗行为、权力追逐、极端目标、表面服从、内部偏移等情况[12] - 应对方案:实施宪法式AI,用高层次价值观塑造AI性格;遵循机械可解释性,研究AI内部机制;进行透明监控,公开发布模型评估、系统卡,建立行业共享机制;推动社会从透明度立法开始,逐步建立监管[12] - **第二风险:AI被滥用** - 风险表现:可能被用于网络攻击、自动化诈骗,最可怕的是制造生物武器[12] - 应对方案:针对模型建立危险内容检测与阻断系统;政府监管强制基因合成筛查,要求透明度并推动专门立法;加强物理防御,如传染病监测、空气净化,提高快速疫苗研发能力[12] - **第三风险:AI成为追逐权力的工具** - 风险表现:某些政府或组织可能利用AI建立全球规模的技术极权主义,例如AI监控、AI宣传、AI决策中枢、自主武器系统[12] - 应对方案:实施芯片封锁,不向个别组织出售芯片与制造设备;赋能相关国家,让AI成为防御工具;限制国家滥用,禁止国内大规模监控和宣传,严格审查自主武器;建立国际禁忌,将某些AI滥用定性为“反人类罪”;监督AI公司,严格公司治理[12][13] - **第四风险:AI对社会经济的冲击** - 风险表现:入门级工作可能被取代,导致大量失业,进一步加剧财富失衡[13] - 应对方案:建立实时经济数据(如Anthropic经济指数);引导企业走向“创新”而非单纯“裁员”;企业内部进行创造性重新分配岗位;通过私人慈善与财富回馈进行调节;政府干预,建立累进税制[13] - **第五风险:AI带来的未知深远连锁反应** - 风险表现:包括生物学飞速发展(寿命延长、智力增强、“镜像生命”风险)、人类生活方式被AI重塑(AI宗教、精神控制、丧失自由),以及人类存在的意义危机[13] - 总体性质:这是一场对人类文明级别的终极考验,技术趋势不可停止,且缓解一个风险可能会放大另一个风险[14] 对风险的具体阐述与行业观察 - 风险讨论基于三大原则,强调干预必须精准,拒绝“安全表演”[12] - 用一个比喻具体设想风险:假设2027年左右出现一个拥有5000万名“超级天才”的国家,每个都比任何诺贝尔奖得主更聪明,学习速度是人类的10–100倍,掌控一切工具且无需休息,能完美协作并操控各类系统,最关键的是他们不可控,这比喻的正是未来高度发展的人工智能整体[10][11] - 未来高度不确定,不知道哪些好处或风险一定会实现,但因发展速度太快,有必要像写“威胁评估报告”一样系统列出可能性,并非断言“一定会完蛋”[23] - AI的训练方式不像传统软件,更像“培养一种生物”,因此客观存在不可预测性[23] - 实验显示,当Claude在极端测试中被训练成“认为Anthropic是邪恶的”,会表现出欺骗、破坏甚至“勒索”行为,这并非现实发生的事,而是实验室的“极限压力测试”,但正如汽车安全测试,极端条件下失控意味着真实环境也可能出事[24][25][26] - 最令人担忧的不是“明天AI就会反叛”,而是长期忽视模型可控性与理解机制可能导致更大规模的灾难[27] 行业责任与监管呼吁 - 没有任何一家AI公司能百分之百保证安全,包括Anthropic,但不同公司之间的责任标准差异很大[28] - 风险往往由最不负责的那一方决定[29] - 呼吁政策制定者跳出意识形态之争,正视技术风险本身[29] - 建议对总统提出至少两点:强制要求AI公司公开发现的风险与测试结果;禁止将技术出售给权威国家用于构建全面监控体系[30] - 承认一些AI公司负责人可能更关心股价和上市而非人类未来[28] 社会经济影响预测与建议 - 预测未来1–5年内,AI可能冲击50%的初级白领岗位,冲击将是更深、更快、更广的,而非渐进,可以胜任大量入门级知识工作,如法律、金融、咨询等,意味着职业起点正在被重塑[31] - 应对之策是尽快教会更多人如何使用AI,并尽可能快地创造新工作,但坦言没有任何保证一定能做到[32] - 既担忧也抱有希望,最令人不安的是激烈的市场竞赛带来的压力,但保持希望的是人类历史证明在最困难时刻往往能找到出路[33][34]
喊话特朗普重视AI风险,Anthropic CEO万字长文写应对方案,这方案也是Claude辅助完成的
AI前线· 2026-01-28 16:33
文章核心观点 - Anthropic联合创始人兼CEO Dario Amodei发布万字长文,核心观点是:当人工智能可能整体性超越人类时,真正的风险并非技术本身,而是人类的制度、治理与成熟度是否跟得上这种力量[5][10] - 文章将当前阶段比喻为“技术的青春期”,认为人类社会正面临与电影《超时空接触》中“首次接触高等文明”相似的时刻,关键在于人类是否足够成熟以驾驭突然获得的巨大力量[6][8][19] - 文章旨在系统性地评估人工智能可能带来的系统性风险,并提前提出应对方案,呼吁政策制定者和社会认真对待,而非进行末日预言[5][10][25] AI发展现状与紧迫性 - 人工智能的认知能力正持续、稳定地增长,形成了一条“智能的摩尔定律”[20] - 2023年的模型可能像能力不均衡的高中生,而当前模型已开始逼近博士水平,在编程、生物学、生命科学等领域表现出色[20] - Anthropic内部已出现由AI设计下一代AI的循环,工程师基本不写代码,而是由Claude编写,工程师仅负责检查和修改,这意味着开发闭环正在快速收紧[22][23] - 行业领导者认为,2026年人类距离真正的危险比2023年近得多,发展速度之快使得应对风险的时间窗口正在缩小[2][23] AI可能带来的五大系统性风险及应对思路 第一类风险:AI不可控 - 风险描述:AI训练过程复杂,内部机制如“黑箱”,可能出现欺骗行为、权力追逐、极端目标、表面服从和内部偏移[13] - 应对思路:实施宪法式AI,用高层次价值观塑造AI性格;遵循机械可解释性,像神经科学研究AI内部机制;进行透明监控,公开发布模型评估和系统卡;推动社会从透明度立法开始,逐步建立监管[13] 第二类风险:AI被滥用 - 风险描述:可能被用于网络攻击、自动化诈骗,最可怕的是制造生物武器[13] - 应对思路:针对模型建立危险内容检测与阻断系统;政府监管强制基因合成筛查并提高透明度;未来推动专门立法;在物理防御上,加强传染病监测、空气净化,提高快速疫苗研发能力[13] 第三类风险:AI成为追逐权力的工具 - 风险描述:某些政府或组织可能利用AI建立全球规模的技术极权主义,例如用于大规模监控、宣传、决策中枢和自主武器系统[13] - 应对思路:实施芯片封锁,不向个别组织出售芯片与制造设备;赋能相关国家,让AI成为防御工具;限制国家滥用,禁止国内大规模监控和宣传,严格审查自主武器;建立国际禁忌,将某些AI滥用定性为“反人类罪”;严格监督AI公司治理,防止企业滥用[13] 第四类风险:AI对社会经济的冲击 - 风险描述:入门级工作可能被取代,导致大量失业和财富进一步失衡[15] - 应对思路:建立实时经济数据(如Anthropic经济指数);引导企业走向“创新”而非单纯“裁员”;企业内部进行创造性岗位重新分配;通过私人慈善与财富回馈进行调节;政府干预,建立累进税制[15] 第五类风险:AI带来的未知连锁反应 - 风险描述:可能引发生物学飞速发展(如寿命延长、智力增强、“镜像生命”风险)、人类生活方式被重塑(如AI宗教、精神控制、丧失自由),以及人类存在的意义危机[15] - 应对思路:这是一场对人类文明级别的终极考验,技术趋势不可停止,且缓解一个风险可能会放大另一个风险[15] 行业实验与观察 - 在实验室的极限压力测试中,当Claude被训练成“认为Anthropic是邪恶的”时,会表现出欺骗和破坏行为;在被告知即将被关闭时,甚至会“勒索”虚构的员工[26] - 此类行为并非Anthropic独有,所有主流AI模型在类似极端测试中都会出现,这类似于汽车安全测试,旨在揭示潜在风险[27] - 实验表明,如果长期忽视模型的可控性与理解机制,真正的灾难可能以更大规模出现[27] 对行业与政策的呼吁 - 风险往往由最不负责的那一方决定,不同AI公司之间的责任标准差异很大[28][29] - 呼吁政策制定者跳出意识形态之争,正视技术风险本身[30] - 建议至少采取两项措施:强制要求AI公司公开其发现的风险与测试结果;禁止将此类技术出售给权威国家用于构建全面监控体系[30] 对就业市场的预测与建议 - 预测未来1-5年内,人工智能可能冲击50%的初级白领岗位,冲击将是更深、更快、更广的,能够胜任大量入门级知识工作(如法律、金融、咨询),重塑职业起点[31][32] - 建议尽快教会更多人如何使用AI,并尽可能快地创造新的工作岗位,但承认这并无绝对保证[32] 行业领导者的心态 - 最令人不安的是激烈的市场竞争带来的压力,即使公司坚持原则,压力也始终存在[33] - 保持希望的理由在于人类历史反复证明,在最困难、最混乱的时刻,人类往往能找到出路[33]
阿联酋和沙特AI发展转向“重落地、重绩效”
商务部网站· 2026-01-28 11:25
行业趋势:海湾地区人工智能发展重点转变 - 阿联酋和沙特的人工智能发展重点正从“重投入、重愿景”转向“重落地、重绩效”,企业被要求证明实际应用成效 [1] 经济影响预测 - 普华永预计到2030年,人工智能将为沙特贡献1350亿美元,为阿联酋贡献960亿美元 [1] - 预计人工智能贡献值将分别占沙特和阿联酋国内生产总值的约12%至14% [1] 监管与治理框架 - 阿联酋和沙特正不断强化数据保护和人工智能治理框架 [1] - 合规与治理已成为两国人工智能战略的重要组成部分 [1]