Workflow
AI Risk Management
icon
搜索文档
商用AI: 通过更智能的治理、最大化 AI 投资回报率
IBM· 2026-01-26 16:20
报告行业投资评级 - 报告未明确给出对“商用AI”或“AI治理”行业的传统投资评级(如买入、持有、卖出)[2][3] 报告的核心观点 - 人工智能治理是实现企业AI可扩展性、最大化AI投资回报率(ROI)以及应对相关风险的关键[3][8][10] - 随着生成式AI和AI智能体的普及,缺乏有效治理将导致信任缺失、合规风险、偏见等问题,阻碍AI潜力的充分发挥[13][14][21] - IBM的watsonx.governance工具包被定位为解决上述挑战的综合性方案,旨在通过自动化、透明的治理实现负责任、可解释的AI,从而降低风险并提高ROI[69][71][86] 根据相关目录分别进行总结 01 简介 - 生成式AI已成为商业现实,企业正利用其进行创新,但AI是否得到充分治理是关键问题[8][10] - 治理需将安全性和弹性融入组织DNA,提供持续的控制证据,而非仅依赖年度合规检查,这对满足监管和应对风险至关重要[10] - 与AI相关的风险正在上升,包括合规监管、数据偏见和信任缺失等问题[13] - AI智能体是智能自动化的下一演进方向:83%的受访者预计其在2026年前能提高流程效率和产出,71%的人认为其将自主适应工作流程[14] - 高管层承认需加强AI治理:60%的CEO表示正在强制实施额外AI策略以降低风险,63%的首席风险官和首席财务官关注监管风险但仅29%认为已充分解决,约27%的上市公司在SEC文件中指出AI监管风险[17][18][19] - Gartner预测,到2028年,至少15%的日常决策将由智能体AI自主做出(2024年为0%)[14][16] 02 扩展 AI 的挑战 - 阻碍组织扩展AI的主要障碍是“信任”,高管们认为网络安全、隐私和准确性是实施生成式AI的最大障碍[21] - 高管预计未来3年内对AI伦理的投资将至少增加40%[21] - 当前AI治理工具面临透明度不足、监控不一致、模型编目不准确等问题,缺乏端到端的自动化生命周期管理系统会妨碍可扩展性并导致操作不透明[23] - “黑匣”模型广泛部署但缺乏可解释性,其输出逻辑不透明,缺乏治理会导致模型部署延迟、质量参差不齐及未识别风险等问题[23] - AI系统若存在偏见(如涉及种族、性别、年龄)可能产生不公正结果,影响客户和品牌信誉,在高风险领域(如医疗保健)可能导致误诊等严重后果[26] - 组织必须构建透明、公平且包容的系统,可解释的AI对于检测偏见、增强隐私安全和客户信任至关重要[27] - AI监管环境快速变化,不合规可能导致巨额罚款,例如《欧盟AI法案》草案设想的罚款最高可达3500万欧元或公司全球收入的7%[29] - 新法规要求提供全面的模型文档(包括元数据和谱系),但数据科学家在时间压力下常忽视此步骤[29] - 智能体AI会引入和放大特定风险,包括行动目标偏差、无监督自主行为、数据偏见、攻击面扩大及有害后果等[31][33][37] 03 所有 AI 均需进行治理 - 所有AI(包括无监督的智能体)都需要治理,以确保其行为合乎道德、无偏见,从而培育信任和可靠性[39] - 以无监督AI智能体进行客户细分为例,若无治理可能基于敏感属性(如种族、收入)进行分组,导致歧视性行为[41] - 治理措施可包括算法审计、实施公平性指标以及引入人工监督[42] - 生成式AI模型(如基础模型和大型语言模型)有潜力释放数万亿美元的经济价值,能提高生产力并适应各类任务,具备高度可定制性、可扩展性和成本效益[43] - 生成式模型功能已扩展至生成图像、音乐、文本、代码等,用例涵盖营销、客户服务、零售、教育等多个行业,但也引入了新的复杂性和风险[44] 04 全面的 AI 治理 - 成功的AI治理取决于人员、流程和技术的交互[47] - 人员方面:需要强大的跨职能团队,协调利益相关者,就负责任的AI采用达成共识,并根据业务控制和监管框架定义正确的指标、KPI和目标[49][50] - 流程方面:AI治理涉及追踪数据来源、模型、元数据和整个数据管道以用于审计,详细文档可提高透明度并让利益相关者了解模型行为与风险[61] - 建议对现有AI技术和流程进行基准评估,创建自动化治理工作流程,并建立监控框架以在模型指标超出阈值时发出警报[61][62] - 技术/原则方面:治理应得到信任支柱的支持,包括可解释性、透明度、公平性、稳健性和隐私保护[55][56][57][58][59] - 全面的AI治理框架应能管理法规、主动降低风险、自动生成文档、串联利益相关者,并实现集中的可见性和透明度[51][52][53] 05 watsonx.governance 可实现负责任、透明且可解释的 AI - IBM watsonx.governance被描述为一个强大的AI治理工具包,旨在指导、管理和监控AI计划,以降低风险、履行合规义务并最大化AI投资ROI[69] - 该工具包基于IBM watsonx构建,使用软件自动化增强法规遵从性和道德AI实践,提供全面治理且无需昂贵的平台迁移[71] - 它在预生产阶段验证业务风险,部署后持续监控公平性、质量和模型偏差,确保合规性,并为审计人员和团队提供模型行为洞察[71] - 其覆盖整个AI生命周期,通过集中的AI事实记录帮助设计、开发、部署和监控,并借助跨数据、模型、元数据和管道的可追溯性简化审计[71] - 主要组件包括:法规一致性(简化合规流程)、风险与安全管理(主动检测风险)、生命周期治理(开放且与平台无关,可治理IBM或第三方平台如OpenAI、Amazon构建的AI资产)[73][74] - 具体功能包括:构建透明模型流程、访问监管内容库、自动识别未注册的AI部署、统一安全策略、在单个实例中评估多个AI资产、实时跟踪AI资产生命周期等[75] - 有效治理能将AI计划与企业目标结合,推动跨用例的ROI,应用场景包括:改善客户体验(如监控聊天机器人)、增强业务流程、避免合规成本、自动运行审计流程、保护人力资源流程免受偏见影响等[76][77] - IBM在2024年IDC MarketScape全球机器学习运营评比中被评为领导者[71] 06 AI 治理实际应用 - IBM通过其隐私与负责任技术办公室推出了隐私与AI管理系统及综合治理计划,集成了watsonx.governance等技术以可靠地管理机器学习模型并遵守法规[79][81] - 该整体方法实现了主动风险管理、法规遵从性协调和规模化治理,并取得成效:第三方数据放行审核申请处理时间缩短58%,IBM专有数据同类处理时间缩短62%,超过1000个数据集和模型被批准可重复使用[82] 07 后续步骤 - 报告鼓励使用watsonx.governance工具包来创建负责任、透明且可解释的AI工作流程,而无需承担切换数据科学平台的成本[85] - 借助该工具包,企业可以管理风险并保护AI部署,在不断变化的AI监管环境中保持领先,并通过提高AI用例的透明度和可见性来提高AI计划ROI并加快上市时间[86]
World Wide Technology Unveils ARMOR: A Collaborative AI Security Framework with NVIDIA AI
Businesswire· 2026-01-07 05:57
公司产品发布 - 全球技术解决方案提供商World Wide Technology (WWT)宣布推出其AI就绪模型ARMOR 这是一个供应商无关的端到端AI安全框架 旨在帮助组织在确保安全、合规和运营韧性的同时加速AI应用[1] - ARMOR是与NVIDIA联合开发的框架 并融合了来自德州农工大学系统的真实反馈 是首批供应商无关的端到端AI安全框架之一[1] - 该框架现已可供WWT客户及寻求加速AI应用同时确保全面安全和运营韧性的组织使用[9] 产品开发与合作伙伴 - ARMOR的开发得到了德州农工大学系统等早期采用者的关键反馈 帮助完善了其战略领域覆盖和方向[5] - ARMOR集成了NVIDIA AI Enterprise以实现可扩展的企业AI运营 包括用于更安全可靠AI应用的NVIDIA NeMo Guardrails 以及用于安全容器化AI部署的NVIDIA NIM微服务[3] - ARMOR还利用NVIDIA BlueField和NVIDIA DOCA Argus提供专用加速 为AI安全运营带来速度和精度[4] 产品核心价值与设计 - ARMOR直接应对AI快速普及带来的攻击面扩大和前所未有的监管复杂性挑战 提供可操作的全面指导 将安全嵌入从芯片到部署的完整AI生命周期[2] - 该框架的独特价值在于其全面、供应商中立的指导 将治理、风险、合规、模型保护、基础设施安全、安全运营和数据保护整合到一个单一的可操作结构中[7] - ARMOR与行业标准如美国国家标准与技术研究院的AI风险管理框架深度契合 其他合作伙伴视角正在开发中 以使产品供应与ARMOR保持一致[8] 产品功能架构 - ARMOR框架基于六个领域 每个领域都针对当前混合及以AI为中心环境下的关键安全方面[2] - 六个领域包括:1) 治理、风险与合规 确保AI运营符合监管要求、组织政策和道德标准 2) 模型安全 保护AI模型免受投毒、逆向威胁和盗窃 3) 基础设施安全 保护硬件和网络基础 4) 安全AI运营 实现实时监控和对威胁的快速响应 5) 安全开发生命周期 将安全嵌入AI软件和服务的开发中 6) 数据保护 保障数据集的机密性、完整性和合规性[7] 市场反馈与评价 - WWT全球网络副总裁Chris Konrad表示 安全与创新不能对立 真正的韧性需要远见、整合以及能随威胁形势演变的框架 ARMOR帮助领导者在对手或审计人员之前回答难题[2] - NVIDIA全球AI网络安全业务发展负责人Arik Roztal表示 随着AI工厂以前所未有的速度扩展 组织需要能跟上现代AI管道速度、复杂性和敏感性的安全措施 WWT的ARMOR由NVIDIA AI驱动 提供了组织大规模自信部署和保护AI所需的性能和保护[5] - 德州农工大学首席信息安全官Adam Mikeal评价 ARMOR为管理AI风险提供了共同语言和结构化方法 是应对现实世界AI安全问题的实用解决方案[6] - WWT云、基础设施和AI解决方案副总裁兼首席技术官Neil Anderson指出 组织迫切需要实用且公认的框架来保障AI部署 ARMOR的不同之处在于它不仅限于理论 而是植根于实际应用 由专家设计并通过一线实践完善[9] 公司背景信息 - World Wide Technology (WWT)成立于1990年 是一家引领AI和数字革命的全球技术解决方案提供商[10] - 公司通过其先进技术中心 帮助客户和合作伙伴构思、测试和验证创新技术解决方案 并通过其全球仓储、分销和集成能力进行大规模部署[10] - WWT及其旗下公司Softchoice拥有超过12,000名员工 在全球60多个地点设有办事处 其企业文化基于一系列核心价值观和既定的领导哲学 已连续14年被《财富》杂志和卓越职场认证为最佳职场之一[11] - 德州农工大学系统是美国最大、最具影响力的高等教育系统之一 年度预算达81亿美元 其全州网络包括12所大学、一个综合健康科学中心、八个州立机构等 每年服务约175,000名学生 并通过服务、研究和外展计划惠及数百万人 年度研究支出近16亿美元[11]
KPMG Launches AI Trust Services to Transform AI Governance, Enabled by ServiceNow
Newsfile· 2025-05-07 23:42
核心观点 - KPMG推出AI Trust服务套件,旨在帮助客户确保AI应用的可靠性、责任性和透明度,该服务基于KPMG的Trusted AI框架和ServiceNow的AI Control Tower技术 [1] - 该服务通过自动化、可扩展的治理协议解决AI风险并实现合规,涵盖评估、库存、集成、工作流和报告等功能 [6][8] - 82%的企业领导者将风险管理视为2025年最大挑战,73%在选择生成式AI供应商时优先考虑数据隐私和安全性 [3] - 全球仅46%的受访者表示愿意信任AI系统,凸显建立AI信任的紧迫性 [3] 服务内容 - **AI全生命周期管理**:提供从战略到运营的AI评估、开发、部署、管理和监控工具 [2] - **核心技术组件**:包括风险分级评估、AI库存控制、预发布验证和动态监管适应性评估 [15] - **技术整合**:兼容ServiceNow大型语言模型(LLM)平台,可集成其风险管理软件和SecOps安全模块 [9] 市场背景 - AI已成为企业战略和价值创造的核心驱动力,但治理滞后于技术发展 [4][5] - 企业需在AI系统中嵌入安全保障,前瞻性管理风险以充分释放AI创新潜力 [10] 合作与技术 - 采用ServiceNow的AI Control Tower技术,实现AI治理的持续更新和自动化合规监控 [8] - KPMG Velocity平台将于年内推出,整合咨询、技术解决方案和联盟资源以加速AI服务交付 [7] 行业数据 - KPMG覆盖142个国家地区,拥有超过275,000名员工,服务网络支持全球化AI治理需求 [13]