Workflow
icon
搜索文档
(Trial) Measures for Science and Technology Ethics Reviews
CSET· 2025-04-04 10:00
报告基本信息 - 报告名称:《科技伦理审查办法(试行)》[3] - 发布时间:2023年9月7日制定,10月8日公布 [4] - 发布机构:中国科技部、教育部、工信部等多部门 [3] 核心观点 - 为规范科研等科技活动中的科技伦理审查,防控伦理风险,促进负责任创新,依据相关法律法规制定本办法 [7] - 明确需进行科技伦理审查的活动范围,规定审查主体、程序、监督管理等内容,确保科技活动符合伦理原则和规范 各章节要点 第一章 总则 - 制定依据为《中华人民共和国科学技术进步法》等法律法规及相关规定 [7] - 需审查的科技活动包括涉及人类研究参与者、实验动物、可能存在伦理风险及其他依法需审查的活动 [8] - 开展科技活动应坚持创新与防风险统一,遵守科技伦理原则和国家法律法规 [9] - 科技伦理审查应坚持科学、独立、公正、透明原则,公开审查制度和程序,接受监督 [10] 第二章 审查主体 - 高校、科研机构等是科技伦理审查管理责任主体,涉及敏感领域的单位应建立审查委员会,其他单位可按需建立 [14] - 单位应为审查委员会提供必要条件,确保其独立开展工作,可探索建立专业和区域审查中心 [15] - 审查委员会职责包括制定管理制度、提供咨询、开展审查和监督等 [15] - 审查委员会应制定章程,完善规则和机制,确保审查合规、透明、可追溯 [16] - 审查委员会成员不少于7人,由多领域人员组成,任期不超5年,可连选连任 [17] - 成员应具备审查能力和良好科研诚信,遵守相关规定和要求 [18] 第三章 审查程序 申请与受理 - 开展科技活动需进行伦理风险评估,符合范围的应向审查委员会申请审查,提交相关材料 [19][20] - 审查委员会根据材料决定是否受理,受理应明确审查程序,材料不全应一次性告知补充 [21] - 原则上采用会议审查方式,国际合作活动需通过合作方所在国审查 [21][22] - 不满足审查要求或未建立审查委员会的单位,应书面委托其他符合要求的委员会审查 [23][24] 一般程序 - 审查会议由主席或指定副主席主持,参会成员不少于5人,涵盖不同类别 [26] - 申请人可参会说明,可邀请无关专家提供建议但不参与投票 [27] - 审查委员会按关键内容和标准审查,可作出批准、修改后批准等决定,决定需经至少三分之二参会成员同意 [28][35][36] - 一般应在受理后30天内作出决定并送达申请人,申请人可对决定提出申诉 [36][37] - 审查委员会对批准活动进行跟踪审查,间隔一般不超12个月,活动情况变化应及时报告评估 [38][40] - 多单位合作活动可建立协作和结果互认机制 [41] 简化程序 - 适用于伦理风险极小、活动计划小修改不影响风险收益比、前期未重大调整的活动后续审查 [42] - 由审查委员会主席指定至少2名成员审查,可要求申请人解释,决定应说明简化理由 [43] - 可根据情况调整后续审查频率,出现特定情况应转为正常会议审查 [44] 专家复议程序 - 建立需专家复议的科技活动清单制度,清单动态调整并由科技部公布 [45] - 清单内活动经初步审查通过后,单位应向主管部门申请专家复议,提交相关材料 [46][47] - 主管部门组织不少于5人的专家复议小组,成员应回避自身委员会审查的活动 [49] - 复议小组按关键内容和标准审查,作出批准或不批准决定,决定需经至少三分之二复议专家同意 [50][52] - 主管部门一般在收到申请后30天内反馈,单位审查委员会根据复议意见作出审查决定 [53][54] - 加强清单内活动后续审查和动态管理,间隔一般不超6个月,风险重大变化需重新审查和复议 [54][55] - 国家已实施行政审查等监管措施且符合伦理要求为批准条件的,无需再进行专家复议 [56] 应急程序 - 审查委员会制定应急审查制度,明确流程和规则,组织应急审查培训 [58] - 按活动紧急程度分级管理,可设快速通道,应急审查一般72小时完成,含专家复议时间 [59] - 应急审查需相关专业领域成员参与,无则邀请专家咨询 [60] - 加强应急活动后续审查和过程监督,不得借应急规避或降低审查标准 [61][62] 第四章 监督管理 - 科技部负责总体指导,地方和行业主管部门按职责监督管理,建立清单内活动专家复议机制,加强应急审查协调指导 [64] - 高校、科研机构等履行主体责任,完善伦理管理机制,开展教育和培训,加强清单内活动跟踪和风险防控 [65] - 国家推动建立审查委员会认证机制,鼓励单位开展认证 [66] - 科技部建设国家科技伦理管理信息登记平台,单位应按规定进行审查委员会、活动审查及年度工作等登记 [66][67][70] - 任何单位或个人有权举报违反伦理规范行为,违规单位和人员将依法处罚,构成犯罪追究刑事责任 [71][72] - 高校、科研机构等负责内部违规调查处理,上级主管部门或省级科技行政部门负责涉嫌违规调查处罚 [76][77] - 地方和行业主管部门加强违规调查处理指导监督,组织处理重大案件 [78] - 涉及政府资助项目的违规,项目管理部门组织调查处罚,参与单位配合 [79] 第五章 附则 - 明确“科技伦理风险”“最小风险”“当地”“相关主要行业监督部门”等术语含义 [81][83] - 地方和行业主管部门可根据实际制定规则,科技社团可制定特定规范 [84] - 行业主管部门有特殊规定且符合办法精神的,从其规定,未规定事项按其他规定执行 [85] - 科技部负责办法解释,办法自2023年12月1日起施行 [85][86] 附录 - 需进行伦理审查复议的科技活动包括新物种合成研究、人类干细胞引入动物胚胎研究等,清单将动态调整 [87][90]
AI Incidents: Key Components for a Mandatory Reporting Regime
CSET· 2025-01-31 09:53
报告行业投资评级 未提及相关内容 报告的核心观点 - 提出建立联邦制、全面且标准化的AI事件报告框架,包含强制、自愿和公民报告机制,以增强AI安全和保障措施 [2][7][8] - 定义一套标准化的AI事件关键组件,可作为报告模板收集重要数据,促进数据收集、跟踪、研究和信息共享等 [3][4][5] - 建议发布基于关键组件的AI事件报告格式,并建立独立调查机构,以充分利用关键组件列表的优势 [4][46] 根据相关目录分别进行总结 引言 - AI事件广泛发生且影响不利,但缺乏系统全面的报告政策框架,需收集事件数据以增强对AI相关危害的了解,开发安全可靠的AI系统 [7] - 此前提出的联邦制AI事件报告框架结合强制、自愿和公民报告,本文提出的关键组件列表可用于强制报告制度,并为自愿和公民报告制度提供参考 [8] AI事件的关键组件 - 通过分析多个AI相关倡议和其他行业的事件报告系统,确定AI事件关键组件,包括事件类型、危害维度、技术数据、背景情况和事后数据等 [15][21] - 关键组件选择标准为易于使用、理解和实施,适应AI新兴能力和社会因素,为政策制定者和研究人员提供数据 [17] - 关键组件具体内容包括事件类型(事件、近失事件)、危害类型(身体、环境、经济等)、危害机制(技术因素、其他因素)、严重程度因素(可补救性、严重程度等级等)、技术信息(AI系统卡、AI模型卡、数据表)、背景情况(目标和应用目的、部门等)、涉及实体和个人(AI参与者、受影响利益相关者)、事件响应(缓解、终止等)、伦理影响(使用联合国教科文组织或经合组织的评估工具) [18][19] 合成AI事件的关键组件 事件类型 - 强制报告制度应记录事件和近失事件,事件指AI系统导致危害发生,近失事件指危害险些发生但因偶然或被拦截而避免 [22][23] - 区分近失事件和AI危害很重要,近失事件应纳入强制报告范围,有助于早期发现新风险和加强安全措施,而AI危害一般不适合强制报告 [24][25][26] 危害维度 - 包括危害类型、危害机制和严重程度因素 [28] - 危害类型采用经合组织的分类,涵盖身体、环境、经济等多种类型,一个事件可能涉及多种危害 [29] - 危害机制分为技术因素(系统漏洞、模型漂移等)和其他因素(治理薄弱、用户滥用等),分别记录有助于区分有意和无意危害,理解人机交互 [30][31] - 收集严重程度因素数据对评估严重程度、制定安全政策和风险评估至关重要,但制定AI事件严重程度评级框架需进一步探索 [32] 技术数据 - 要求AI参与者在强制报告中提交AI系统或模型卡和数据表,有助于研究人员和政策制定者获取关键技术数据,提高技术标准和风险缓解实践 [37][38] 背景情况和利益相关者 - 记录AI事件的背景和情况数据,包括目标和应用目的、部门、日期、地点、报告者、现有保障措施和政策等,有助于评估安全措施和识别改进差距 [39][40] - 明确受影响利益相关者是否为AI系统用户,以澄清其与系统的关系 [40] 事后数据 - 记录事件响应和伦理影响,有助于促进透明度和问责制,评估响应策略,制定最佳实践,相关当局可采用影响评估方案评估伦理影响 [44] 政策建议 发布AI事件报告格式 - 政策制定者、监管机构和监督委员会应采用和定制关键组件列表,标准化数据收集,以获取关键见解,开发安全可靠的AI系统 [47] 建立独立调查机构 - 建议建立独立的AI事件调查机构,深入调查重大事件,揭示报告时不明显的信息,进行根本原因分析,为AI安全政策提供依据 [48] 结论 - 关键组件列表应不断迭代更新,可在线发布数据库,供公众提出建议,也可作为开发事件严重程度度量指标的基础,监管机构可根据更多数据完善强制报告制度的范围 [49] 附录 分解AI事件 - 多数AI事件关键组件从12个数据库和文档中提炼合成,这些倡议为分析AI相关危害和风险提供基础,但缺乏统一的报告框架和明确的报告要求 [52][57] AI危害事件的频谱 - AI危害事件涵盖实际危害事件、近失事件、危险情况、系统风险和假设风险等,但强制报告制度应专注于应报告的事件,排除AI问题、假设风险和系统风险 [58][60] 记录AI危害:AI的多种影响 - 不同AI倡议采用不同方法对AI危害进行分类,经合组织的分类最全面,可根据具体需求扩展 [62][64] 重要但有限的信息 - AI倡议对AI事件的影响讨论广泛,但详细技术数据和严重程度记录较少,现有数据库缺乏颗粒度高的技术细节,且多数倡议缺乏系统的严重程度评估方案 [65][66][67] 其他部门报告的事件组件 - 分析其他高影响部门的事件报告框架,发现与AI事件报告倡议的共同组件,包括事件背景信息和技术数据,以及AI倡议较少记录的组件,如近失事件和现有保障措施和政策 [69][73][75] 共享事件组件 - 各部门事件报告系统都收集事件背景信息和技术数据,这些数据有助于揭示事件影响的环境条件、范围和程度,促进信息共享和漏洞缓解 [73][74][75] 额外关键组件 - 其他部门报告系统更严格记录近失事件和现有保障措施和政策,研究近失事件有助于识别有害事件的促成因素,记录现有保障措施和政策有助于改进AI安全政策 [75][76][77] 测量严重程度:初步了解 - 各报告系统普遍关注事件严重程度,不同系统采用不同严重程度级别,建立标准化的AI事件严重程度评估框架有诸多好处,但需进一步探索 [78][79][80]
Song-Chun Zhu: The Race to General Purpose Artificial Intelligence is not Merely About Technological Competition; Even More So, it is a Struggle to Control the Narrative
CSET· 2025-01-30 09:53
报告行业投资评级 未提及 报告的核心观点 - 中国人工智能行业应探索与美国不同的发展路径,实现思想和文化的真正自主,构建独特的人工智能理论和实践体系 [1][11] - 通用人工智能不仅是技术竞争,更是全球信心和叙事权的争夺,中国需通过“科技自立自强”“治理体系现代化”和“文化复兴”重塑全球话语权 [7][11] - 通用人工智能应具备完成无限任务、自主识别任务和自主价值驱动决策的能力,中国应加强科普、确保研究方向正确并建立新的组织模式来发展通用人工智能 [14][23] 根据相关目录分别进行总结 科技思想独立塑造叙事体系 - 科技发展需要信心,而信心建立需要强大技术支持和构建自身叙事体系,这要求科技创新具备“思想自主” [6] - 通用人工智能发展依赖大数据、算力和芯片技术,但背后是全球信心和叙事权的争夺,美国通过“美国主导叙事”巩固其在通用人工智能领域的主导地位,导致其他国家出现“信心差距” [7] - 自媒体夸大美国技术优势,导致对其他国家科技成果关注减少,中国需通过“科技自立自强”“治理体系现代化”和“文化复兴”重塑全球话语权 [10][11] 智能生产机制是“主观唯心主义” - 通用人工智能与传统人工智能有根本区别,应符合人类逻辑思维并满足潜在价值需求,其机制源于“主观唯心主义” [12][13] - 通用人工智能应具备完成无限任务、自主识别任务和自主价值驱动决策的能力,基于此提出了世界首个通用人工智能测试和评估标准及平台——通智测试 [14][16] 实现从0到1的突破 - 人工智能学术和产业领域目前依赖“西方模式”,应加强和推动原始创新能力 [18] - 2023年的“百模大战”往往是快速推出模仿产品以抢占市场优势,而非在通用人工智能领域取得核心突破,且忽视了算法创新、数据质量和应用场景探索的潜力 [19][20] - 中国发展通用人工智能应加强科普工作、确保研究方向正确并建立新的组织模式,未来发展的关键方向是科技自立自强和治理模式现代化 [23][24]
Chinese Critiques of Large Language Models
CSET· 2025-01-24 09:53
报告行业投资评级 未提及相关内容 报告的核心观点 - 大语言模型(LLMs)虽受全球关注且被视为通向通用人工智能(GAI)的途径,但存在成本高、功耗大、输出不可靠等缺点,美国和欧洲公司过度关注LLMs,若其无法实现GAI,可能难以转向其他方法 [2][3] - 中国采取国家驱动、多元化的人工智能发展计划,在投资LLMs的同时,也在探索其他通向GAI的途径,包括受大脑启发的方法 [4] - 中国科学家对LLMs能否单独实现GAI持怀疑态度,中国政府和科研机构也在推动替代方案的研究,这可能使中国在实现GAI的竞赛中具有优势 [16][24][39] 根据相关目录分别进行总结 引言:生成式AI与通用AI - 实现GAI是中美研究的关键战略目标,国际科学界对通向GAI的路径存在激烈争论,美国LLMs主导讨论,但对其能否实现GAI存在疑问,需审视其他国家的替代方法 [7] 大语言模型及其批评者 - LLMs是大型网络,通过学习文本序列中的模式生成响应,具有信息融合能力,应用广泛,但在理解语言、推理等方面存在严重缺陷 [12][13][14] - 一些科学家希望通过增加模型复杂性克服LLMs的缺陷,但部分缺陷难以解决,且“涌现”行为的说法受到质疑,当前商业投资仍集中在LLMs上 [14][15][18] 中国对LLMs作为通向通用AI路径的看法 - 中国顶尖AI研究机构的科学家对LLMs能否单独实现GAI持高度怀疑态度,他们提出了多种替代路径,如受生物学启发、整合统计模型与类脑AI等 [16][17][18] - 中国国家和地方政府也认识到需要补充LLM研究,提出了发展GAI的多元化计划,包括探索新路径、支持类脑智能研究等 [22][23][24] 学术记录显示了什么? - 通过对中国学术文献的搜索和分析,发现63篇论文探讨了LLMs存在的问题,这些问题包括推理缺陷、缺乏具身性等,提出的解决方案包括添加模块、模拟大脑结构等 [27][30][31] - 许多知名中国科学家参与了这些研究,中国顶尖机构和公司也有广泛代表,表明中国AI界对LLMs实现GAI的潜力存在质疑,并在探索替代途径 [32][33][34] 评估:所有路径都通向“佛”吗? - LLMs在推理和区分事实与幻觉方面缺乏明确机制,当前改进方法未能解决核心问题,其能力远未达到GAI [37] - 西方对GAI路径的讨论受商业利益影响,美国学术研究追求替代方法的能力受到负面影响,而中国科学家和政府认识到LLMs的局限性,采取多元化研究策略,可能在实现GAI的竞赛中具有优势 [38][39] 应对中国的先发优势 - 中美在GAI领域的竞争不仅是数据、芯片等方面的竞争,还涉及人类价值取向,中国采取的非传统路径有国家支持,可能更有效 [42][43][48] - 建议美国政府和机构支持多元化的GAI研究方法,并通过开源渠道监测中国的技术发展 [49]
CSPC Pharmaceutical Group_ China BEST Conference Takeaways
CSET· 2025-01-12 13:33
关键要点总结 1. **涉及的行业或公司** - **公司**:CSPC Pharmaceutical Group (1093.HK) - **行业**:中国医疗保健行业 2. **核心观点和论据** - **2025年销售和净利润增长预期**: - 2024年第四季度表现疲软,主要受传统药品销售下滑影响[1] - 2025年,Duomeisu销售额预计下降<1亿人民币,NBP预计小幅增长[1] - 创新药物销售额预计增长20亿人民币,主要驱动产品包括rhTNK-tPA、omalizumab和gumetinib等[1] - API板块预计保持健康,咖啡因和维生素C价格稳定[1] - 2025年净利润预计超过销售额增长,主要得益于两项授权交易的前期费用[1] - 公司将继续执行50亿港元的股票回购计划,并在2025年向投资者提供丰厚股息[1] - **2025年研发更新**: - EGFR ADC的III期临床试验预计在2025年启动,针对非小细胞肺癌和头颈癌[2] - Nectin-4 ADC和Simmitinib (TKI)预计在2025年公布试验结果[2] - KN026、TG103和仿制semaglutide预计提交新药申请(NDA)[2] - 公司计划在2025年完成1-2项授权交易[2] 3. **其他重要内容** - **估值与风险**: - 使用DCF估值法,假设权益成本为11%,永续增长率为3%,长期ROE为15%[7] - 上行风险包括创新药物销售超预期、利润率改善、研发管线进展等[9] - 下行风险包括API价格波动、研发失败或延迟、政府价格控制等[9] - **股票评级与目标价**: - 股票评级为“增持”,目标价为6.60港元,较当前股价有49%的上涨空间[4] - 当前股价为4.42港元,52周区间为7.83-4.42港元[4] - 市值约为528亿港元,EV为343亿港元[4] - **财务数据**: - 2024年预计收入为300.92亿人民币,2025年预计为301.54亿人民币[4] - 2024年预计EPS为0.45人民币,2025年预计为0.44人民币[4] - 2024年预计EBITDA为81.03亿人民币,2025年预计为81亿人民币[4] 4. **可能被忽略的内容** - **行业评级**:中国医疗保健行业评级为“吸引”[4] - **分析师认证**:分析师Clinton Ng、Yanru Tao、Sean Wu、Alexis Yan均未因报告中的观点获得直接或间接报酬[15] 总结 CSPC Pharmaceutical Group在2025年面临传统药品销售下滑的挑战,但创新药物和API板块的增长预期较强,净利润有望超过销售额增长。公司计划通过股票回购和股息回报投资者,同时积极推进研发管线和授权交易。
AI and the Future of Workforce Training
CSET· 2024-12-17 09:53
行业投资评级 - 报告未明确给出具体的行业投资评级 [1] 核心观点 - 人工智能(AI)作为一种通用技术,将对各行各业产生广泛影响,尤其是知识工作者和高学历人群的工作活动可能受到显著影响 [2] - AI对工作的影响取决于两个关键因素:AI能否执行或增强职业的核心任务,以及AI是替代还是补充人类劳动力 [3] - 未来劳动力需求显示,尽管技术技能仍然重要(占需求技能的27%),但非技术技能(如基础技能、社交技能和思维技能)占据了近58%的需求 [4] - AI的广泛应用将加速技能过时,要求劳动力在整个职业生涯中持续进行再培训和技能提升 [5] - 社区学院在应对这些挑战中扮演关键角色,特别是在与雇主和中介机构整合的区域生态系统中 [6] - 联邦政府自2021年以来已投入2.65亿美元用于加强社区学院的培训项目 [7] - AI在劳动力培训中的应用潜力巨大,包括个性化学习、快速内容交付和增加可访问性,但也存在信任、隐私和不平等等问题 [10] 目录总结 1. AI对劳动力的潜在影响 - AI作为一种通用技术,将对广泛的行业和职业产生深远影响,尤其是知识工作者和高学历人群 [22] - 研究表明,80%的美国工人可能至少有10%的工作活动受到大型语言模型的影响,19%的工人可能有一半以上的工作活动受到影响 [24] - AI的快速采用速度超过了个人电脑和互联网的普及速度,39%的适龄工作人口(18-64岁)在2024年夏季报告在工作中使用生成式AI [24] - AI对劳动力的影响不仅限于低教育要求的职业,还涉及需要高学历和专业技能的白领职业 [26] 2. 与专家的对话 - 社区学院是劳动力发展的主要提供者,特别是在与雇主和中介机构整合的区域生态系统中 [48] - 联邦政府通过“加强社区学院培训补助金”项目,自2021年以来已投入2.65亿美元,支持社区学院满足当地劳动力市场需求 [49] - 工作本位学习(如注册学徒制和职业技术教育)被认为是有效的劳动力培训途径 [51] - 数字素养的更新压力增加,特别是AI和网络安全素养的纳入 [55] 3. AI在劳动力培训和发展中的作用 - AI工具能够通过个性化学习路径、即时反馈和职业指导,提供定制化的学习体验 [72] - AI的快速内容生成能力使得培训内容能够根据学习者的需求快速调整,支持即时学习 [80] - AI工具在提高培训可访问性的同时,也可能加剧现有的不平等,特别是算法偏见和访问不平等问题 [86] - AI工具在增强学习参与度方面具有潜力,特别是在远程学习中,AI聊天机器人可以使学习更具互动性 [92] 结论 - AI作为一种通用技术,可能对广泛的行业和职业产生深远影响,要求劳动力发展策略具备全面性和适应性 [105] - 社区学院在劳动力发展中扮演关键角色,特别是在与雇主和中介机构整合的区域生态系统中 [106] - AI工具在培训中的应用潜力巨大,但也需要谨慎实施,以避免加剧不平等和技能退化 [107]
Cybersecurity Risks of AI-Generated Code
CSET· 2024-11-02 09:53
报告行业投资评级 报告未提供行业投资评级。[4] 报告的核心观点 1) 近年来,大型语言模型(LLM)和其他AI系统生成计算机代码的能力有所提高。这为软件开发领域带来了希望,但同时也可能带来直接和间接的网络安全风险。[2] 2) 研究表明,在实验条件下,AI代码生成模型经常输出不安全的代码。评估AI生成代码的安全性是一个非常复杂的过程,包含许多相互依赖的变量。[3] 3) 行业采用AI代码生成模型可能会对软件供应链安全构成风险,但这些风险在不同组织之间分布不均。资源充足的大型组织将比面临成本和人力约束的组织有优势。[5] 4) 确保AI生成代码的安全不应该仅仅依赖于个人用户,也需要AI开发者、大规模生产代码的组织以及政策制定机构等多方利益相关方共同承担责任。[6][7] 5) 目前很难评估代码生成模型的安全性,因为现有的评估基准通常关注模型生成功能性代码的能力,而不评估它们生成安全代码的能力,这可能会导致在模型训练过程中安全性被忽视。[8]
Through the Chat Window and Into the Real World: Preparing for AI Agents
CSET· 2024-10-04 09:53
报告行业投资评级 无相关内容 报告的核心观点 - 大型科技公司和初创公司正在积极开发基于大型语言模型的智能代理系统,这些系统可以独立执行复杂的目标 [17][18][19] - 当前的智能代理系统仍然存在局限性,容易出错,无法可靠地完成复杂的多步骤任务 [17][18][72] - 未来智能代理系统的发展存在很大不确定性,可能会出现快速进步或主要局限于特定应用场景 [23][24][25][26][27] - 智能代理系统的广泛使用可能会带来一系列风险,包括事故、滥用、责任分配、隐私保护、人机依赖等 [31][32][33][34][35][36] 根据目录分别进行总结 技术发展轨迹 - 大型科技公司和初创公司正在积极开发基于大型语言模型的智能代理系统 [17][18][19] - 当前的智能代理系统仍然存在局限性,容易出错,无法可靠地完成复杂的多步骤任务 [17][18][72] - 未来智能代理系统的发展存在很大不确定性,可能会出现快速进步或主要局限于特定应用场景 [23][24][25][26][27] 机遇、风险和其他影响 - 智能代理系统的广泛使用可能会带来一系列风险,包括事故、滥用、责任分配、隐私保护、人机依赖等 [31][32][33][34][35][36] 保护措施和干预点 无相关内容
Securing Critical Infrastructure in the Age of AI
CSET· 2024-10-02 09:53
行业投资评级 报告未提及行业投资评级。[无] 报告的核心观点 1) 人工智能(AI)在关键基础设施(CI)中的应用正在不断增加,但同时也带来了风险和机遇 [3] 2) AI可能带来更强大的系统、业务运营改善和更好的网络威胁检测与响应工具,但也会引入新的网络威胁 [3] 3) 不同CI提供商之间和行业内部存在资源差距,这极大影响了AI的采用和AI相关风险的管理 [5][6] 4) 将AI风险管理纳入现有企业风险管理实践存在挑战,AI风险的所有权在公司内部不明确 [7] 5) AI安全和AI安全之间的模糊性给AI风险管理的实施带来了实质性挑战 [7] 6) 缺乏类似网络安全信息共享的渠道,需要建立AI安全和安全信息共享机制 [8] 7) 管理AI和网络风险所需的技能并不完全相同,CI提供商需要培养相关人才 [9][10] 8) 生成式AI带来了更难管理的新问题,CI提供商在采用时需保持谨慎和了解 [10] 行业研报目录总结 1. 执行摘要 [3][4] 2. 背景 [12][15][19][20][22][23][24] 3. 与AI相关的风险、机遇和障碍 [28][29][30][31][32][33][34][35][36][37][38] 4. 观察结果 - 行业内外的资源差距 [40][41][42][43][44] - AI安全和网络安全的界限模糊 [47][48][49][50] - AI风险管理的挑战 [51][52][53] - 监管和指引的碎片化 [54][55][56][57][58] 5. 建议 [60][61][62][63][64][65][66][67][68][69][70][71][72][73][74][76][77][78][79][80][81]
Beijing Municipal Action Plan to Promote “AI+” (2024-2025)
CSET· 2024-09-14 09:53
报告行业投资评级 无相关内容。 报告的核心观点 发展目标 [4] - 充分发挥北京的创新动能、多样化和有保障的计算能力、海量数据供给、丰富的应用场景等综合优势 - 以政府引导、创新驱动、应用为导向、开放合作为原则 - 通过组织重大项目研究、匹配资源供需、试点特色场景等方式 - 显著提升大模型自主创新能力 - 促进标准化、大规模、跨界的协同应用实施路径形成 - 加速千行百业的智能化 重点应用项目 [5] - 依托首都优质的行业资源和科技研发能力 - 在机器人、教育、医疗、文化、交通等领域组织实施一批具有综合性和标杆性的重大项目 - 促进核心大模型理论和技术突破 - 增强AI工程化能力 - 提升关键行业技术水平和服务质量 - 构建跨行业、跨学科的协同创新组织模式 - 形成大模型产业应用的新生态 试点应用 [13][14] - 围绕典型行业领域 - 支持主管部门、相关区域、行业应用企业、大模型企业的动态配对 - 孵化一批试点行业应用 - 克服不同场景中的共性实施难题 - 探索标准化、可复制、可推广的大模型行业应用实施路径 - 完善基础设施和公共平台建设 - 培育具有首都特色的行业模型 商业化应用 [28] - 发挥大模型技术创新在赋能行业应用中的作用 - 从小切口和实际场景着手 - 围绕行业热点和社会关切 - 支持大模型企业、系统集成服务商、行业用户 - 开展API调用、云端模型微调、大模型私有化部署、智能体和智能助手开发等 - 鼓励大模型企业和装备制造商合作 - 开发嵌入式大模型组件和智能系统 联合研发平台建设 [29] - 部署和建设多个北京AI应用场景联合研发平台 - 整合行业资源和优质数据 - 开放行业场景需求 - 构建联合研发环境 - 吸引和聚集优势创新团队 - 促进行业应用和行业级AI实施 分组1 - 发展目标:充分发挥北京优势,以政府引导、创新驱动、应用为导向、开放合作为原则,提升自主创新能力,形成标准化、大规模、跨界的协同应用实施路径,加速千行百业智能化 [4] - 重点应用项目:依托首都资源和能力,在机器人、教育、医疗等领域组织实施重大项目,促进核心技术突破,增强工程化能力,提升行业水平,构建跨界协同创新模式 [5] - 试点应用:围绕典型行业,支持主管部门、区域、企业等配对,孵化试点应用,克服实施难题,探索标准化、可复制的应用路径,完善基础设施和培育特色行业模型 [13][14] 分组2 - 商业化应用:发挥大模型在赋能行业应用中的作用,支持API调用、云端微调、私有化部署、智能系统开发等,鼓励大模型企业与装备制造商合作 [28] - 联合研发平台:部署多个AI应用场景联合研发平台,整合资源和数据,开放需求,构建创新环境,吸引优势团队,促进行业应用和行业级AI实施 [29]