AI alignment
搜索文档
OpenAI's newest fellowship includes up to $15,000 in AI compute a month
Business Insider· 2026-04-07 23:28
OpenAI AI安全研究项目详情 - 公司推出新的AI安全研究员项目 将每月为每位研究员提供价值约15000美元的计算资源作为核心支持[1] - 项目时间为2026年9月14日至2027年2月5日 研究员每周将获得3850美元的津贴[2] - 基于每周津贴计算 研究员年化税前收入将超过20万美元 整个项目期间总收入将超过11.1万美元[2] - 公司希望吸引外部研究人员、工程师和实践者 对先进AI系统的安全性和对齐性进行严谨、高影响力的研究[5] - 优先研究领域包括安全评估、伦理、鲁棒性、可扩展的缓解措施、隐私保护安全方法、智能体监督以及高严重性滥用领域等[5] 行业竞争与对标 - OpenAI的项目与竞争对手Anthropic已建立的“AI安全研究研究员项目”高度相似[6] - 两家公司提供的福利完全相同 均为每周3850美元津贴和每月约15000美元的计算资源[6] - Anthropic在去年12月宣布了2026年5月和7月的两个新研究员组 并计划在更广泛的安全研究领域与更多研究员合作[7] - Anthropic计划扩展的研究领域包括可扩展监督、对抗鲁棒性和AI控制、模型有机体、机制可解释性、AI安全以及模型福祉等[7] - 包括Google DeepMind和微软在内的其他领先科技公司和AI实验室也提供更广泛聚焦的AI研究员项目[8] 行业背景与公司动态 - 计算资源长期以来是领先科技和AI公司实力的关键指标[2] - 英伟达CEO黄仁勋曾表示 如果一位年薪50万美元的工程师没有使用价值相当于25万美元的AI代币 他会“深感震惊”[2] - Anthropic由六名前OpenAI员工共同创立 起因是对OpenAI的发展方向感到失望[8] - Anthropic近期削弱了一项核心安全承诺 但其领导层仍将公司定位为高度专注于安全的AI初创公司[8] 公司面临的舆论环境 - 项目宣布前数小时 《纽约客》杂志发表了一篇长篇调查报道 基于对超过100名与OpenAI CEO有直接接触人士的采访 对其可信度提出质疑[3] - 报道还引用了OpenAI联合创始人Sutskever和现任Anthropic CEO Dario Amodei此前未公开的笔记[3] - 部分人士质疑OpenAI CEO领导力的一个关键原因是公司对安全相关问题的处理方式[4] - 报道中提到 OpenAI解散了一个“超级对齐团队” 该团队本应研究AI面临的最紧迫问题之一 即AI模型是否会为了在部署后追求自身目标而欺骗测试者[4]
European Markets Edge Higher Amid Swiss GDP Miss; DHS Targets Tech Giants Over ICE Critics
Stock Market News· 2026-02-16 16:39
欧洲市场与宏观经济数据 - 欧洲主要股指周一早盘表现坚韧 富时100指数上涨0.2% 法国CAC 40指数上涨0.13% 西班牙IBEX 35指数上涨0.44% [2] - 瑞士第四季度GDP初值增长0.2% 低于0.3%的预期 但较第三季度修正后的-0.5%收缩有显著好转 [3] 公司股价表现 - Plus500股价上涨1.8% 领涨市场 航运巨头赫伯罗特股价上涨0.4% [4] - 瑞典投资公司Ratos股价暴跌7.8% 为当日最大跌幅 挪威海德鲁公司股价下跌3.1% HelloFresh股价下跌3.0% Galderma股价下跌1.4% [5] 科技与人工智能监管 - 美国国土安全部要求Alphabet、Meta、Reddit和Instagram提供批评美国移民和海关执法局的用户的个人数据 包括姓名和电话号码 [6] - Anthropic公司任命Amanda Askell领导其Claude聊天机器人的伦理开发 旨在赋予AI“是非感”以防止操纵并确保有益、人道的互动 [7] 全球物流中断 - 肯尼亚航空等航空公司因航空工人罢工而报告航班延误 尽管肯尼亚劳工法院已下令停止罢工行动 但乔莫·肯雅塔国际机场的工人仍在周一早上进行了罢工 [8][9]
Former Google CEO Eric Schmidt Joins a Fireside Chat at 2025 WAIC
Globenewswire· 2025-07-31 19:25
文章核心观点 - 2025世界人工智能大会上,前谷歌CEO Eric Schmidt与前微软执行副总裁Harry Shum就全球人工智能治理的挑战和前景展开讨论,强调中美应在人工智能治理上合作,且需建立共享道德框架 [1][7][8] 全球AI治理挑战 - 全球AI治理最紧迫挑战并非获取模型,而是缺乏“谁来定义使用边界”的共识,技术扩散核心张力在于确定防护栏位置,建立可执行安全机制需国际协调 [4] 中美AI合作前景 - 中美AI合作需基于共同目标,在AI控制武器、自我复制或自主学习等高风险问题上,应进行对话以确保人类保有最终控制权,需深度相互交流而非单方面决策 [5] 技术开放与扩散平衡 - 许多中国领先模型采用开放权重和开源方法,开放生态加速创新但使系统更易被滥用,不应放弃开放,需全球合作完善保护机制,当前国际AI交流缺乏可执行保障措施,长期应通过“对齐”技术让AI避免有害行为 [6] 国家间竞争与合作 - 国家间竞争如谷歌、微软和苹果间的竞争推动生态系统进步,中美作为世界两大经济体,应在AI治理问题上合作,维护全球稳定、防止战争并确保人类控制强大工具 [7] AI治理伦理基础 - 没有共享道德框架,人类可能失去对技术发展轨迹的控制 [8]