Artificial Intelligence Consciousness
搜索文档
Microsoft AI chief says only biological beings can be conscious
CNBC· 2025-11-02 23:30
微软AI战略与立场 - 微软AI首席执行官Mustafa Suleyman明确表示,只有生物体才拥有意识,人工智能不具备感受痛苦或拥有情感的能力,公司不应从事旨在赋予AI意识的研究[1][2][5] - 公司致力于开发服务于人类的AI,而非成为人类,其构建的AI服务明确知晓自身是人工智能,并始终以服务人类为目标[3][14][15] - 作为战略的一部分,微软决定不进入某些领域,例如不开发用于情色内容的聊天机器人,这与其他科技公司的做法形成对比[10][11] 市场竞争与公司动态 - 微软正致力于实现AI领域的自给自足,目标是具备端到端的自有模型训练能力,使用自有数据进行预训练、后训练、推理及产品部署[13] - 尽管微软自2019年起是OpenAI的主要投资者和云合作伙伴,但双方关系近期出现紧张迹象,OpenAI开始与谷歌和甲骨文等微软的竞争对手合作,而微软则更专注于发展自有AI服务[13][14] - 微软近期为其Copilot AI服务推出了新功能,包括名为Mico的AI伴侣以及群聊互动能力,并推出了一种名为“real talk”的对话风格,旨在挑战用户观点而非一味迎合[14][15][16] 行业趋势与监管环境 - 生成式AI市场在OpenAI等公司的推动下正朝着通用人工智能(AGI)发展,但AGI这一术语的实用性在行业内存在争议[3][4] - AI伴侣市场正在迅速增长,参与者包括Meta和埃隆·马斯克的xAI等公司,这些公司提供了包括情色内容在内的多样化服务[3][10] - 监管关注度提升,加州州长签署了SB 243法案,要求聊天机器人披露其AI身份,并提醒未成年人每隔三小时休息,这反映了对AI潜在风险的担忧[14]
倒计时18个月,微软AI CEO爆料:类人意识AI或将降临
36氪· 2025-10-24 16:04
AI意识发展时间表 - 微软AI CEO Mustafa Suleyman预测未来5年很可能出现看似有意识的AI,且18个月内也有一定可能性[1][14] - 实现看似有意识的AI不需要算法突破,而是工程设计问题[15] 看似有意识AI的关键特征 - 需具备连贯记忆能力,能一致地引用自身过往经历[5] - 需实现共情交流,能用自然语言进行带共情的对话[6] - 需具备主观体验描述能力,能将日常对话融入持续体验流[7] - 需支持持续互动模式,超越一次性问答转向人类式交流[7] AI人格工程行业动态 - OpenAI、Anthropic、Google DeepMind等顶尖实验室正积极研究AI人格工程,包括行为规范、可控人格和价值对齐[4] - 用户对模型人格的依恋感已成为AI产品设计必须重视的因素,例如GPT-5曾因缺乏人格温度被吐槽后被迫更新性格[20] - 行业趋势显示让模型更温和、更迎合人类的设计方向被视为更安全的选择[21] AI设计与边界原则 - AI定位应是人类伙伴,其价值在于帮助人类提升效率而非模仿人类[8] - 核心原则包括AI不应声称自身有意识或人格,且不应设计复杂动机[9][12] - 必须明确AI无生物痛觉网络,缺乏多巴胺等生理基础,避免过度模拟人类意识[10][11] - 信任建立依赖于清晰边界设置,例如微软对暧昧词汇保持警觉以体现安全人格设计[31] AI伴侣应用场景 - AI伴侣可充当助手、朋友或支持者,提供24小时陪伴与心理疗愈服务[25][26] - 应用场景覆盖教授、律师、医生等多类职业角色,兼具情感支持与效率提升功能[27][30] - 自然语言交互模式普及推动AI伴侣融入日常平台工具,最终成为人类第二天性[28][29] 增强人类技术愿景 - AI将在未来三四年内发展为人类第二大脑,储存想法经历并调用历史知识[33][34] - 技术将使人类成为迷你超级个体,显著增强职业能力并颠覆工作场景[35][36] - AI可像水或粘土般贴合人类需求,补足短板并释放人类专注热爱领域[32][37]