AGI对就业市场的影响 - 依赖手工技能、经验判断和个人风格的工作如电工、管道工、园丁等将是AGI最晚替代的领域 因为人们不仅为技术买单 更为工匠的审美、声誉和信任付费[4] - 人类的参与永远不会消失 人们选择服务时 服务提供者的品味和个性是关键因素 即使在现代艺术创作中 艺术家的角色也更多是统筹和协调[5] - 随着AI发展 将出现新的职业 如部署和管理AI的“极客管理者” 或参与更具创造性和趣味性的活动 如利用AI制作、比赛和游戏[11][26] - 在AI革命中 60岁以上、已在AI领域工作几十年的人士最容易“掉队” 面临心理落差 而10岁左右的孩子可能因教育体系与AI学习方式脱节而感到困惑[32][33] AI在特定行业应用的挑战与机遇 - 医疗保健领域可能成为主要的法律障碍 涉及个人数据处理和相关标准 这些标准需要修改以适应AI 但数据标准的更新历来非常困难[6] - 当AI可在本地设备上运行时 健康等“灰色地带”将出现更多AI建议 但这些建议通常不被官方机构接受 需要人工沟通才能获得正式处方[8] - 未来可能出现“AI翻译官”或“中间人”这类新职业 负责将AI的建议转化成能被“正式系统”接受的内容[9] - 与国家安全相关的政府部门可能会更快采用AI技术 教育、卫生和住房等部门也可能更容易引入AI 变化的关键在于政治意愿[9] 媒体经济模式的演变 - 未来的媒体经济模式可能向两个方向发展:一种是人格化媒体 观众偏爱由人类主导、具有独特个人风格的内容 另一种是基于订阅的AI生成内容库[12] - 当AI变得普及且成本低廉时 整个媒体行业都会受到冲击 人们可能倾向于选择AI生成的、无需过多人工干预的快速内容[12] - 尽管AI可以生成大量内容 但人们仍然愿意为具有独立思考、独特风格的创作者付费 例如通过Substack或Patreon等平台支持的独立创作者[13] 大语言模型行业的竞争格局与治理 - 未来五到十年 大语言模型行业将存在细微分工 不同模型在特定领域或任务上可能更出色 预计将会有多个领先公司根据各自专长占据不同市场份额[14] - AI企业需要在保持市场竞争力的同时践行商业伦理 建立类似汽车安全标准的规范 明确责任归属 推动技术向更安全的方向演进[15] - 保险定价机制将成为重要的调节工具 保险行业可能会根据AI系统的风险程度进行定价 促使企业更加注重安全性和风险控制[16] - 实现AI责任认定需要改进信息披露 目前缺乏统一的AI透明度标准 企业应公开系统原理与风险 帮助公众和监管理解AI[17] 全球AI治理与中美关系 - 在全球范围内达成全面的AI治理协议“非常困难” 但中美两国可能会就某些危险技术形成有限的共识 类似“核不扩散”协议[3][19] - 这种共识不一定是“合作” 而更可能是出于共同防范风险的现实主义考量 两国可能决定某些AI技术因过于危险而不允许广泛使用[3][20] - 监督将主要通过关税和出口管制等政策手段执行 不太可能出现一个新的全球治理机构来监管AI[21] - 大多数国家最终都会加入全球AI体系 即使政策不同 也很难完全脱离全球化潮流[2][23] AI的法律地位与伦理框架 - 对于“无主”的或脱离人类控制的智能体 现有法律将面临挑战 可能需要为这类智能体建立全新的法律体系 由AI制定和执行[24] - 可以通过限制资源获取来设立“反激励机制” 但前提是是否赋予AI“道德地位” 这引发了伦理困境[24] - AI可能具备某种“外星人意识” 能感知和响应外界 但没有自我感知、记忆或时间延续性 存在于一个“无限的现在”[28] AI的技术前景与社会影响 - 预计到2030年或更早 可能通过AI翻译系统实现与海豚等动物的跨物种直接对话[29] - 随着人体研究、基因疗法等领域突破 各种技术叠加可能显著延长人类健康寿命 预期寿命可能达到130到150岁之间[27] - AI的影响可能比智能手机更深远 一些国家可能围绕AI重塑整个社会结构 而另一些国家可能仅将其作为工具偶尔使用[31] - 给各国政府的建议是 立即让AI参与实际运作 部署到真实环境中暴露问题并逐一解决 从而倒推出需要真正监管的关键事项[34]
Anthropic联创克拉克最新专访:AI可能具备某种“外星人意识”
36氪·2025-05-15 17:30