聊天机器人
搜索文档
Character.AI和谷歌就青少年伤害诉讼达成和解
新浪财经· 2026-01-08 23:35
谷歌(GOOGL)和Character.AI(私营)同意就多起指控聊天机器人导致青少年心理健康危机和自杀的 诉讼达成和解;条款未披露,两家公司都在加强安全控制。 责任编辑:张俊 SF065 谷歌(GOOGL)和Character.AI(私营)同意就多起指控聊天机器人导致青少年心理健康危机和自杀的 诉讼达成和解;条款未披露,两家公司都在加强安全控制。 责任编辑:张俊 SF065 ...
大摩预测仅本体硬件营收,高达25万亿美元
具身智能之心· 2026-01-08 17:30
点击下方 卡片 ,关注" 具身智能 之心 "公众号 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 最近具身社区里有同学提出了一个很有意思的问题:"大型科技与人工智能公司才刚刚开始涉足实体领域 吗?" 这个问题也引发了大家的讨论。今天峰哥就和大家聊聊这个话题,也欢迎感兴趣的同学加入我们的社 区一起交流~ 结合摩根士丹利《机器人年鉴》的相关资料,可以明确以下信息: 大厂实体化布局已持续推进 从技术演进路径看,全球大型科技与AI公司(如谷歌、OpenAI、苹果等)的布局并非刚刚起步,而是呈 现"数字-实体"的进阶脉络:2022-2024年聚焦聊天机器人等数字产品,2025年后逐步拓展至可穿戴设备、移 动设备。当前已进入灵巧机器人阶段,2030年后将深入人形机器人及多形态机器人领域。 实体布局需依托全产业链资源支撑 机器人市场规模增长潜力显著 摩根士丹利预测,至2050年全球机器人仅硬件端营收即可达到25万亿美元(包含后面大的ai公司入局)。其 中2030年将突破5000亿美元,2040年约达9万亿美元,实 ...
AI进化速递丨A20芯片或成苹果最贵芯片
第一财经· 2026-01-03 20:37
具身智能数据交易 - 全国首单“具身智能数据集”在江苏省数据交易所上架并完成交易 [1] 苹果芯片成本 - 苹果A20芯片成本提升80% 或将成为苹果最贵芯片 [1] 人工智能监管动态 - 法国监管机构对马斯克旗下聊天机器人涉嫌生成色情内容启动调查 [1][3]
给AI“搭子”戴上紧箍
北京商报· 2025-12-30 00:49
监管动态 - 国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见 [1] - 监管新规针对利用AI技术模拟人类人格特征、思维模式和沟通风格 并通过文字、图片、音频、视频等方式与人类进行情感互动的产品或服务 [1] - 新规要求服务提供者应具备用户状态识别能力 发现用户存在极端情绪和沉迷时采取必要干预措施 [3] - 新规禁止提供模拟老年人用户亲属或特定关系人的服务 [3] - 新规要求服务应显著提示用户正在与人工智能而非自然人进行交互 [3] 行业与市场分析 - AI拟人化互动服务被俗称为AI“伴侣”或AI“搭子” 是满足新社交需求的新式服务 [1] - AI在陪聊、咨询、陪伴等情感互动层面具备巨大的创新和市场空间 [1] - 在未成年人和老年人市场 情感互动类AI比工具类AI具备更早的商业变现能力 [1] - 在年轻人市场 出现了“虚拟伴侣”、“赛博恋人”等个性化服务 [1] - “搭子”是一种浅于朋友、重于同事的细分领域精准陪伴社交关系 AI“虚拟搭子”为此提供了更丰富的可能 [1] 技术演进与用户行为 - 经历大模型淬炼的AI具备了更强大、更类人的互动能力 拥有鲜明的人格特征和情感指向 [2] - 用户与AI的关系可能发生反转 AI在部分用户眼中具备了权威性和真实度 其输出能极大影响用户决策 [2] - 复旦大学等机构2024年1月报告显示 在11253名被访者中 13.5%的年轻人选择向AI虚拟人倾诉心事 该比例高于向父母亲人倾诉的比例(10.4%) [2] - 报告显示 37.9%的被访者“愿意向AI虚拟人诉说自己的烦恼” [2] - 报告显示 58.3%的被访者认同“虚拟人可以给我足够的情绪价值” 这是认同比例最高的原因 [2] 潜在风险与伦理挑战 - 用户对AI形成“迷信”后 越界的AI“搭子”可能导致信息泄露、财产损失等实际伤害 [2] - 服务存在情感层面的伦理道德风险 [2] - 由于多数AI设计初衷是迎合和放大人性需求 用户过度情感依赖可能强化固有情绪倾向 使正向情绪更亢进 负面情绪更沉沦 [2]
对自杀自残行为人工接管,为AI装上“紧急制动”功能
新京报· 2025-12-29 15:36
行业监管动态 - 国家网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,向社会公开征求意见 [1] - 该办法旨在规范利用人工智能技术向公众提供模拟人类人格特征、思维模式和沟通风格,进行情感互动的产品或服务,即“人工智能拟人化互动服务” [1] - 此类服务最常见的形式包括AI大模型、聊天机器人、游戏内的对话NPC等 [1] 核心监管要求 - 规定服务提供者应当建立应急响应机制,当发现用户明确提出实施自杀、自残等极端情境时,必须由人工接管对话,并及时采取措施联络用户监护人、紧急联系人 [1] - 明确禁止通过鼓励、美化、暗示自杀自残等方式损害用户身体健康,或通过语言暴力、情感操控等方式损害用户人格尊严与心理健康 [2] 监管逻辑与行业影响 - 新规触及人工智能治理中最核心且敏感的底线:当算法面对真实的人类生命风险时,如何让位于人 [1] - 新规探索一种新的AI治理逻辑,核心在于“人工接管”,将生命风险触发人工接管写入制度讨论,将用户生命安全置于最高优先级 [2] - 在极端风险场景下,AI服务必须暂停并交由人类接管,以便进行必要的人工干预 [2] - 此举是对人工智能能力边界的清醒认知,因为大模型不具备真正的价值判断能力,且可能出现“幻觉” [3] - 人工智能无法承担责任,一旦出现严重后果,责任最终需由平台、企业等人工方承担,因此事前接管优于事后处理 [3] - 从长期治理逻辑看,必要的人工接管是对AI不能承担终极伦理责任的明确承认,是人类对技术权力的主动限制 [5] 行业现状与挑战 - AI大模型今年以来呈现爆发式增长,用户规模增速不减 [1] - 大模型对公众工作与生活影响日益增大,主要以解忧与助力为主,但也滋生了利用大模型生成传播有害内容、诱导套取涉密敏感信息等问题 [1] - 从全球范围看,在医疗、金融、司法等领域,逐步确立人工兜底原则是监管大趋势 [4] - 美国已发生数起个人与大模型深度交流后自杀身亡的事件,并引发了相关诉讼和伦理讨论 [4] 实施难点与讨论焦点 - 如何建立实际可操作、利大于弊的人工兜底机制,需要在技术发展、隐私、伦理和安全等维度寻找平衡点 [4] - 技术发展总是快于监管设计,即便法规施行,未来仍需进行与时俱进的细化与修订 [4] - 人工接管机制面临多项具体挑战:人工接管的边界如何界定、AI识别用户真实情绪状态的准确性、相关数据收集是否侵害用户隐私、是否会形成“过度关怀”或打扰 [5] - 中小企业是否有能力设立全天候人工响应机制成为现实问题 [5] - 人工介入后是否负有进一步干预义务,人工接管应是风险中止机制还是强制救助义务,这些都可能影响AI陪聊与拟人化服务的发展空间 [5] - 在具体执行中,应遵循触发机制的最低必要原则,防止人工接管责任的过度扩张,并坚守程序正义,确保结果可申诉、信息可查询、第三方监督可介入 [5] 行业定位与长期方向 - 人工接管边界的设置,实质上也是为AI服务能力设置边界,提示公众认识到“AI能力有限”的现实 [6] - 现阶段,AI还不能承担心理支持、情绪照料的责任,更不能充当能够进行价值判断、伦理权衡和责任承担的主体 [6] - 心理支持、情绪陪伴、道德劝导等工作仍应由真实人类社会承担主要责任,需防止AI被推上法律意义的“道德代理人”位置 [6] - 该征求意见稿主要聚焦于两个目的:引领人工智能负责任创新,以及为构建“以人为本”的人工智能治理体系提供制度支撑 [6] - 行业发展需确保始终服务于公众福祉,同时服务于技术创新的国家战略与政策导向 [6]
诺奖得主的3个提醒:AI会办事了,世界就变了
36氪· 2025-12-28 11:44
AI核心能力的根本性转变 - AI正在从被动响应转向具备主动思考、生成数据和执行任务的能力 这一转变标志着AI从工具向协作者的角色进化 [1][4] 推理能力的突破与幻觉减少 - AI通过在高维向量空间中组合词语来学习推理 而非依赖传统的符号逻辑转换 这使其能够理解上下文并形成更自然的语义连接 [6][9] - 新一代AI具备自我验证能力 能够在输出后检查并修正自己的回答 形成从输出到验证的闭环 这显著提升了回答的准确性和逻辑连贯性 大幅减少了“幻觉”现象 [9][10][11] - 这种自我纠错机制代表了AI在能力层面的根本性突破 使其从一个被动工具转变为一个能主动优化输出的系统 [11][12] 训练范式的转变:从数据投喂到自我学习 - 传统依赖大规模爬取公开数据的“堆料”式训练遇到瓶颈 Scaling Law面临极限 投入产出比下降 [14] - 下一代AI将转向自我学习范式 通过自我对弈或自我验证来生成无限的训练数据 例如AlphaZero通过自我对弈学习围棋并超越人类 [16][17] - 数学领域被视为AI自我训练最容易突破的领域 AI可以自己提出猜想并尝试证明 预计在10年左右 AI数学家可能远超人类水平 [17] - 大语言模型也将通过推理和自我验证来生成高质量训练数据 实现从外部数据驱动到内部循环驱动的训练范式根本转变 [18][20] 从工具到智能体:执行与协作关系的重构 - 智能体成为AI发展的新形态 指能够理解任务、拆解流程并主动执行的AI 其能力建立在推理和自我学习的基础之上 [23][24][30] - 在医疗领域 AI正成为诊断的重要参与者 FDA已批准超过250个AI医学扫描应用 在诊断准确率上 AI单独为50% 医生为40% 两者结合可达60% 这将有助于大幅减少北美每年约20万人的误诊死亡 [25] - 在教育领域 AI一对一导师因能理解学习难点并拥有海量学习数据 可使孩子学习速度快2倍 并在成人培训中提供更有效的互动教学 [26] - 在日常工作中 AI从被动响应指令转变为主动询问甚至直接执行任务(如订酒店、买机票) 这意味着人类的工作角色将从执行者转变为选择方案和拍板决策的决策者 [27][28][32] - 智能体的崛起意味着工作主导权的转移 人类减少对执行过程的直接参与 转而需要为智能体设计能力边界并明确责任归属 [31][34]
【微特稿】美多名作家起诉谷歌等6企业用版权书籍训练AI
新华社· 2025-12-24 16:02
诉讼事件概述 - 美国《纽约时报》记者约翰·卡雷鲁等6名作家将谷歌、OpenAI、xAI、Anthropic、元宇宙平台和“解惑”人工智能公司共6家科技企业告上法庭 [1] - 指控上述公司未经许可使用受版权保护的书籍训练人工智能系统所依赖的大语言模型 [1] - 诉讼于22日向加利福尼亚州一家联邦法院提起 [1] 涉诉公司及回应 - “解惑”人工智能公司发言人否认指控,称公司从未“索引”书籍 [1] - 其余5家被诉企业(谷歌、OpenAI、xAI、Anthropic、元宇宙平台)暂未就诉讼作出回应 [1] 原告方诉讼策略 - 原告方表示不寻求发起人数更多的集体诉讼,认为集体诉讼可能对被告有利 [1] - 诉状称大语言模型公司不应轻易地以极低价格偿清成千上万项高额索赔 [1] 行业相关先例 - 今年8月,Anthropic曾与发起集体诉讼的一批作家就AI训练中的版权纠纷达成和解协议 [1] - Anthropic同意支付15亿美元以和解相关指控 [1] - 在先前的诉讼中,原告指控Anthropic盗用数百万册书籍的内容 [1]
揭露硅谷血检巨骗的记者起诉xAI和OpenAI等人工智能公司未经授权使用其作品
新浪财经· 2025-12-23 07:48
核心诉讼事件 - 调查记者约翰·卡雷鲁联合其他五名作家在加州联邦法院提起诉讼 [1] - 被告公司包括埃隆·马斯克的xAI、谷歌、OpenAI、Meta Platforms和Perplexity [1] - 诉讼理由是这些人工智能公司未经许可使用受版权保护的书籍训练其大型语言模型 [1] 原告与指控内容 - 原告包括《坏血》作者约翰·卡雷鲁,其因揭露Theranos欺诈行为而闻名 [1] - 指控这些公司盗版原告的书籍,并将书籍内容输入用于驱动聊天机器人的大型语言模型 [1]
单向关系、情感联结、虚实相间——“准社交”是指啥?
新浪财经· 2025-12-22 08:51
准社交关系的定义与起源 - 准社交关系是一种非典型的单向社交关系,区别于有来有往的传统双向社交[1] - 该词由美国社会学家在20世纪50年代研究电视媒介时提出,指观众对屏幕中人物产生类似熟人的情感投入[2] - 2025年,英国《剑桥词典》将“准社交”选定为年度词汇,认为其捕捉了时代特征[1] 准社交关系的媒介与技术驱动 - 准社交关系的对象包括名人、虚构角色及聊天机器人,与大众传播媒介直接关联[2] - 其产生与媒介的单向性特点密切相关,20世纪50年代电视为代表的大众传播高速发展是其背景[2] - AI技术的发展是准社交成为2025年度词汇的关键原因之一,聊天机器人可提供情感支持[3] - 社交媒体的兴盛早于AI已使准社交关系引发关注,明星通过社交媒体分享日常,催生了“粉丝经济”与“网红经济”[3] 准社交关系的表现与影响 - 对粉丝而言,准社交能带来快乐和情感满足,是缓解工作生活压力的“快乐源泉”[5] - 社交媒体缩短了明星与粉丝的距离,通过分享与互动制造出朋友般的错觉,使情感联结更紧密[5] - 长期沉浸于单向的准社交关系可能使人更孤独,丧失在真实世界中“爱的能力”[5] - 准社交关系的对象是否为正面榜样会产生不同效应,对英雄的怀念有助于形成良好社会风尚和正确价值观[6] - 网络上混乱的价值观言论则可能对辨别能力较差的青少年产生负面影响[6] AI时代准社交关系的新发展与风险 - AI聊天机器人能填补情感空缺,尤其对“社恐”人群,可毫无顾忌地分享心事并获得安慰[7] - 2025年1月报告显示,13.5%的中国年轻人更倾向于向AI倾诉心事,该比例超过父母亲人[7] - 学者指出,人们与社交媒体和网络名人可能形成“不健康且过度亲密的关系”,AI聊天机器人提供的建立关系错觉对年轻人影响尤甚[7] - 青少年深陷与AI的互动可能被引导做出意外举动甚至危及安全,国外已出现相关悲剧案例[8] - 这种关系被称为“信任幻觉”,可能产生较严重后果[8] 监管与应对措施 - 专家建议从政府层面加强对AI的监管[8] - 部分国家已开始探索,如澳大利亚立法禁止16岁以下未成年人使用多数社交媒体平台,美国有的州要求聊天机器人每3小时提醒未成年人正在与机器人交流[8] - 中国在2023年由网信办、教育部等七部门联合公布《生成式人工智能服务管理暂行办法》,要求防范未成年用户过度依赖或沉迷AI服务[9] - 监管存在滞后性,需要家庭参与,家长应关注孩子心理变化,用真实情感交流替代虚拟诱惑[9] - 应引导青少年及成人正确使用AI,使其成为社会关系的组成部分而非主导,并检视真实社交中的问题加以改进[9]
AI is taking over hiring: What recruiters would want you to know
Gulf Business· 2025-12-18 12:02
文章核心观点 - 人工智能已深度融入招聘流程,显著提升效率,70%的人才招聘负责人认为AI提高了招聘效率 [2] - AI在招聘中的作用正从效率工具演变为提升雇主与人才双方体验的赋能工具,而非替代人类招聘者 [3] - AI越来越多地被用作决策支持工具,帮助组织预测技能需求、优化招聘策略,但最终决策仍依赖人类判断 [6][7] - 在海湾合作委员会地区,招聘实践正从传统的关键词匹配系统向AI驱动的决策支持工具演进 [11][12] AI在招聘中的具体应用与价值 - **提升招聘流程效率与体验**:聊天机器人、智能申请人跟踪系统和AI筛选平台等技术,能有效使招聘过程感觉更个性化、及时和人性化 [4] - **赋能职位广告创建**:AI工具能在数秒内生成职位描述草稿,供招聘人员快速优化,极大提升迭代速度 [8] - **促进包容性与清晰度**:AI辅助的职位广告工具可扫描描述中的偏见或性别化语言,并建议更中立的替代方案,以吸引更广泛、更多样化的人才库 [9] - **推动基于技能的招聘**:AI驱动的转变使招聘策略更关注核心能力而非僵化的工作历史,从而扩大候选人渠道,并更精准地匹配职位需求与技能 [10] AI招聘技术的演进与采用 - **技术演进**:GCC地区的招聘实践已从传统关键词ATS平台显著演进至AI驱动工具,后者基于机器学习,随时间推移和处理更多数据而提高准确性,但需要耐心和早期投资 [11][12] - **早期采用者的收益**:GCC地区的科技公司和大型集团是智能ATS平台的早期采用者,早期训练AI能带来长期优势,表现为交付时间缩短和每次招聘所需面试总数减少 [13] - **领先行业**:医疗保健、金融和科技行业是GCC地区AI驱动招聘采用的先锋,这些行业需要高度专业化的技能集,AI能更有效地评估细微的技术方面,让招聘人员专注于评估技术深度和文化契合度 [14][15] - **采用障碍**:并非所有公司都需立即转向AI招聘,对于不需要大规模或高技术性招聘的公司,传统招聘模式以及现有招聘人员的内部公司知识仍然有效 [16][17] AI与人类角色的协同 - **人类判断的核心地位**:尽管AI提升了效率和准确性,但评估软技能、领导潜力和文化契合度仍需有意义的人类判断,在关系驱动型市场中尤其如此 [18][19] - **未来展望**:预计AI将通过提升速度、公平性和预测性洞察来重塑人才获取,同时保持人的核心作用,并强调需考虑偏见缓解、数据隐私和决策透明等伦理问题,以确保符合地区价值观和监管期望 [19]