Workflow
AI幻觉
icon
搜索文档
AI翻译的「最后一公里」
创业邦· 2025-12-16 18:09
来源丨新智元 (ID: AI_era ) 作者丨艾伦 图源丨Midjourney 在巴布亚新几内亚的一个原始部落,情感的中心是肝脏而非心脏;在纳米比亚,有一个专门的词形容 「光脚踩在热沙上」。这些人类经验的细微差别,正成为AI翻译难以逾越的「最后且最远的一英 里」。 在巴布亚新几内亚的丛林深处,阿瓦人(Awa)并不相信心脏是情感的中心。 如果你想对他们表达真诚,你不能说「敞开心扉」,而应该说「敞开你的肝脏」。 而在同一个岛屿的另一端,拉瓦人(Rawa)则坚信,人类的灵魂与情感栖息在胃里。 这些细微且致命的文化差异,曾是翻译者数百年来无法逾越的天堑。 但现在,硅谷最前沿的AI正在试图填平这个天堑。 被遗忘的语料荒漠 对于ChatGPT或Gemini这样的通用大模型来说,英语是「富人区」,中文和法语是「中产阶级」, 而像阿瓦语这样的语言,则是彻底的「贫民窟」。 在AI的训练集中,英语占据了90%以上的份额。 这种数据的极度不平衡创造了一种「算法霸权」:模型倾向于用英语的逻辑去理解世界。 2022年,Meta开源了名为「不让任何语言掉队」的AI模型 NLLB-200 (No Language Left Behind ...
AI与人|“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 13:26
&sp "深度伪造"指利用AI伪造或篡改影音,目的在于欺骗,从虚假政治演讲到诈骗语音皆属此 类,其关键在于以假乱真。"AI幻觉"则属技术错误,聊天机器人可能引用不存在的研究,或编造法律案 例,本质是模型在预测词语时出现了偏差。而"AI垃圾"范围更广,也更随意:当人们用AI批量生产内容 却疏于核对准确性与逻辑时,便会产生此类垃圾。它们堵塞信息渠道,抬高广告收益,用重复无意义的 内容占据搜索结果。其错误源于敷衍,而非欺骗或技术局限。 技术滥用与贪婪心态成推手 科技日报记者 刘霞 如今的互联网上,看似信息海量,但也充斥着大量单调、重复且缺乏质量的内容。 美国《纽约时报》网站在12月8日的报道中指出,当前网络,尤其社交平台正泛滥一种被称为"AI垃 圾"(AI Slop)的内容。英国《新科学家》网站10日也发表文章称,今年,许多人感觉仿佛置身于一堆 华而不实的"AI垃圾"中。英国《经济学人》杂志更是将"Slop"一词选为2025年度词汇。这类错漏百出、 古怪甚至令人尴尬的内容遍布各平台,也在悄然侵蚀着人们的思想。 "假冒伪劣"信息充斥网络 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的 ...
“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 10:20
◎科技日报记者 刘 霞 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的浪潮,一些如同"Slop"的 垃圾内容正在互联网上肆意蔓延。 "AI垃圾"特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化 内容农场。 美国科技网站CNET在10月28日的报道中提到,如今社交平台上"AI垃圾"五花八门:OpenAI的Sora可让 人几秒内生成滑稽荒诞的视频;LinkedIn上满是由AI包装的"专家箴言",例如"有时领导力就是保持沉 默的能力";谷歌搜索结果也宛如AI杂货铺,竟会出现"姜黄能治愈心碎"这类无稽之谈。 "AI垃圾"与"深度伪造"或"AI幻觉"虽有重叠,却并不相同,其区别在于意图与质量。 "深度伪造"指利用AI伪造或篡改影音,目的在于欺骗,从虚假政治演讲到诈骗语音皆属此类,其关键在 于以假乱真。"AI幻觉"则属技术错误,聊天机器人可能引用不存在的研究,或编造法律案例,本质是模 型在预测词语时出现了偏差。而"AI垃圾"范围更广,也更随意:当人们用AI批量生产内容却疏于核对准 确性与逻辑时,便会产生此类垃圾。它们堵塞信息渠道,抬高广告收益,用重复无 ...
“AI垃圾”泛滥 最后的防线在人类自身
科技日报· 2025-12-16 08:23
"假冒伪劣"信息充斥网络 如今的互联网上,看似信息海量,但也充斥着大量单调、重复且缺乏质量的内容。 美国《纽约时报》网站在12月8日的报道中指出,当前网络,尤其社交平台正泛滥一种被称为"AI垃 圾"(AI Slop)的内容。英国《新科学家》网站10日也发表文章称,今年,许多人感觉仿佛置身于一堆 华而不实的"AI垃圾"中。英国《经济学人》杂志更是将"Slop"一词选为2025年度词汇。这类错漏百出、 古怪甚至令人尴尬的内容遍布各平台,也在悄然侵蚀着人们的思想。 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的浪潮,一些如同"Slop"的 垃圾内容正在互联网上肆意蔓延。 "AI垃圾"特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化 内容农场。 美国科技网站CNET在10月28日的报道中提到,如今社交平台上"AI垃圾"五花八门:OpenAI的Sora可让 人几秒内生成滑稽荒诞的视频;LinkedIn上满是由AI包装的"专家箴言",例如"有时领导力就是保持沉 默的能力";谷歌搜索结果也宛如AI杂货铺,竟会出现"姜黄能治愈心碎"这类无稽之谈。 "AI垃 ...
AI翻译的“最后一公里”
36氪· 2025-12-15 20:55
在巴布亚新几内亚的一个原始部落,情感的中心是肝脏而非心脏;在纳米比亚,有一个专门的词形容「光脚踩 在热沙上」。这些人类经验的细微差别,正成为AI翻译难以逾越的「最后且最远的一英里」。 在巴布亚新几内亚的丛林深处,阿瓦人(Awa)并不相信心脏是情感的中心。 如果你想对他们表达真诚,你不能说「敞开心扉」,而应该说「敞开你的肝脏」。 而在同一个岛屿的另一端,拉瓦人(Rawa)则坚信,人类的灵魂与情感栖息在胃里。 这些细微且致命的文化差异,曾是翻译者数百年来无法逾越的天堑。 但现在,硅谷最前沿的AI正在试图填平这个天堑。 被遗忘的语料荒漠 对于ChatGPT或Gemini这样的通用大模型来说,英语是「富人区」,中文和法语是「中产阶级」,而像阿瓦语 这样的语言,则是彻底的「贫民窟」。 在AI的训练集中,英语占据了90%以上的份额。 这种数据的极度不平衡创造了一种「算法霸权」:模型倾向于用英语的逻辑去理解世界。 当你输入一个复杂的中文成语,AI往往会先将其「脑补」成英文语境下的对应概念,再翻译回来,导致原意的 流失。 而在那些仅有数千人使用的「低资源语言」中,情况更为糟糕。 互联网上几乎不存在这些语言的文本数据,AI无书 ...
火上浇油,Grok在悉尼光明节枪击案上大规模造谣
36氪· 2025-12-15 18:45
马斯克的Grok这两天再次大规模「翻车」,在邦迪海滩枪击案等重大事件中胡言乱语,将救人英雄误认为修树工人和以色列人质,甚 至混淆枪击与气旋。 这不仅是技术故障,更暴露了生成式AI在处理实时信息时致命的 「幻觉」 缺陷。当算法开始编造现实,我们该如何守住真相的底线? 马斯克的Grok又双叒叕失控了。 这次它把矛头对准了邦迪海滩(Bondi Beach)的枪击惨案。 这两天发生在悉尼的一场光明节聚会期间的悲剧中,至少有12人不幸遇难。 现场视频显示,43岁的路人艾哈迈德·阿尔·艾哈迈德(Ahmed al Ahmed)挺身而出,解除了其中一名袭击者的武装。 10 1997 这一英勇之举在社交媒体上广受赞誉,但也有杂音出现:一些人借机散布仇视伊斯兰教的言论,试图通过否认这位路人身份报道的真实 性来利用这场悲剧。 局面本就混乱,Grok却还在火上浇油。 截至周日早上,该机器人似乎出现了严重的故障,不仅回复无关内容,有时甚至胡言乱语。 当有用户询问艾哈迈德制服枪手的视频的背景故事时,Grok竟称这只是一段「一名男子在停车场爬棕榈树修剪枝叶,导致树枝掉落砸坏 停放车辆」的陈年旧视频,并表示查无实据,质疑其真实性。 荒谬不止 ...
如果你非得用DeepSeek看病,建议这么看(附详细提问模版)
36氪· 2025-12-03 11:23
AI在医疗领域的应用定位 - 当前AI不能替代专业医生进行诊断和治疗,因其无法执行医学专家所需的全面检查、个性化问诊和复杂决策 [2][23] - 生成式AI普遍存在“幻觉”问题,可能输出看似合理但不准确的信息,在医疗应用中存在潜在风险 [3] - 国家法规明确规定人工智能软件不得替代医师本人提供诊疗服务,且严禁使用AI自动生成处方 [23][24] AI作为医疗助手的具体应用场景 - 智能门诊分诊:输入病史后AI可推荐挂号科室,帮助患者精准就医 [4] - 智能就医咨询:提供就诊流程、注意事项(如空腹要求)等准备工作指导 [4] - 医疗知识科普:确诊后解释疾病信息、医学名词和健康管理方法 [4] - 用药指导辅助:咨询药物副作用、相互作用等用药安全问题 [4] 优化AI医疗咨询效果的方法 - 提供完整病史模板需包含性别年龄、症状细节、过敏史、女性月经情况等核心信息 [8][9] - 选填病史包括既往病史、生活习惯、家族史等可显著提高诊断准确性,例如腹痛患者补充“末次月经40天前”需排查宫外孕 [11][13] - 上传近期检验检查结果及历史报告对比,可为判断疾病进展提供辅助依据 [15][16] AI医疗咨询的局限性及使用规范 - 紧急症状如胸痛、呼吸困难等需直接拨打急救电话,不应先咨询AI [17] - AI给出的治疗建议或方案调整需经医生确认后方可执行,尤其涉及处方药使用时 [21][23] - 当AI建议与医生诊断冲突时,应优先参考医生的专业判断和权威医疗指南 [19][23] 行业发展现状与前景 - 全国近百家医院已完成DeepSeek本地化部署,应用于临床辅助诊疗、医院管理等多个环节 [23] - AI在解释医学名词、推荐科室等基础信息提供方面准确性较高,具有重要参考价值 [23] - 行业认为AI目前主要起参考辅助作用,其“仅供参考”的提示体现了对医疗安全性的高度重视 [24]
“问道”大模型:当好伦理风险防控“专家”
科技日报· 2025-12-01 08:45
产品核心功能 - 拥有伦理风险评估与审计、伦理困境模拟与决策推演、伦理对齐辅助设计、动态知识库与案例教学、伦理学前沿探索与范式革新五大功能 [1] - 构建了覆盖伦理治理全流程的功能矩阵 可作为企业伦理“审查官”自动审核商业决策、广告文案、算法模型的伦理风险 [2] - 可作为AI研发的合规检测工具 在产品设计之初注入伦理考量 从源头避免偏见和风险 [2] - 可作为学生的伦理“导师” 通过模拟真实道德困境培养批判性思维和道德决策能力 [2] 技术特点与创新 - 减少“AI幻觉”的方式依靠“结构化知识构建+多模式应答+分层安全机制+自动优化循环”四大体系形成的技术闭环 [3] - 在通用大模型基座基础上 灌注了经典伦理学著作、重大伦理学案件、涉及伦理学的法律法规及社会热点事件中的伦理规范 [4] - 采用目录感知方式输入数据 形成“知识树” 使用户了解输出内容的具体来源章节 提供结构化知识图谱并降低“幻觉”概率 [4] 目标用户与应用场景 - 旨在帮助科研机构、科技企业、伦理审查机构、政策制定者以及公众洞察多元价值 [1] - 致力于成为用户的伦理思考伙伴与决策支持系统 处理复杂技术与社会问题 [1] - 未来将拓展在科研、产业与教育等场景的深度应用 [4] 开发背景与团队 - 由东南大学AI伦理实验室主任王珏牵头设计 [1][2] - 由东南大学移动通信全国重点实验室、毫米波全国重点实验室、教育部移动信息通信与安全前沿科学中心及江苏省道德发展智库等跨学科平台共同研发 [2]
人工智能赋能制造业优化升级
证券日报· 2025-11-27 00:28
人工智能发展新阶段 - 人工智能发展正进入思维与行动双轮驱动的2.0新阶段 [1] - 2025年全国智慧企业发展大会主题为“AI驱动创新 数智引领未来”,旨在促进人工智能与实体经济深度融合 [1] - 需推动企业加快形成数据驱动、场景引领、系统推进为特征的数智化发展新格局 [1] AI在制造业的应用与挑战 - AI应用落地呈微笑曲线特征,生产制造端应用慢,管理运营和营销服务端应用快 [2] - 大模型在工业领域的应用尚未深入触及生产制造核心环节,如工业关键流程控制、排产调度等 [2] - 工业场景容错率低,大模型细微差错可能导致产品质量下降、生产线停工甚至安全事故 [2] - 工业系统设备复杂、行业标准化程度低,导致大模型技术整合困难且难以跨行业泛化 [2] 制造业AI发展路径 - 推动AI深入生产制造核心环节需“通用大模型+专业小模型”协同发展,以平衡性能、效率和成本 [3] - AI赋能工业应优先推进高价值场景应用,如效率革命、复杂性决策、个性化需求等 [3] - AI可将隐性知识显性化,将老师傅的操作经验和专家工艺知识转化为可复制的算法模型 [3] - AI融入核心生产环节将驱动制造业从离散、被动模式向连续、主动、全局优化模式升级 [3] 大模型发展现状与数据重要性 - 截至2025年7月,中国已发布超1500个大模型,数量居全球首位 [4] - 大模型存在“AI幻觉”问题,即回答内容可能不忠实于用户意图或与提问无关 [4] - 基于科学数据的专业大模型能有效解决通用大模型在专业问题上准确性不高的问题 [4] - 高质量、多样化的数据是大模型性能突破和落地应用的关键生产要素 [4][5] - 企业需汇聚数据资源,建立知识图谱和垂直应用AI模型,以数据要素驱动创新配置 [5]
企业正在召回被AI顶替的员工,AI还没那么聪明
36氪· 2025-11-19 08:14
AI替代人力资源的现状与挑战 - 亚马逊计划实施公司史上最大规模裁员,将一次性裁撤超过3万名员工,原因是开始使用AI来完成原本由人类执行的任务[1] - 尝试用AI代替人类以降本增效的情况在各国此起彼伏,但并非孤例[1] 企业重新聘用被裁员工的趋势 - 人力分析公司Visier对全球142家公司共240万员工的数据分析显示,被裁员工中约有5.3%会再次被原雇主聘用[2] - 这一比例自2018年以来相对稳定,但近两年明显上升且呈现加速爬升态势[2] - Visier将这种情况形容为"企业与AI之间的冷静期",反映企业面对AI工具实际能力和局限性的现实[2] AI投资的经济效益问题 - 麻省理工学院研究报告指出,95%的企业AI投资未能产生经济效益,陷入"高投入、零回报"困境[4] - 有企业主表示AI革命仅体现为合同处理速度加快,本质上未带来改变[5] AI的能力局限与工作替代困境 - 世界经济论坛研究表明,50%到60%的典型初级任务已可由AI完成,包括报告起草、研究综述、代码修复、日程安排、数据清理[5] - AI通常只能接管任务而不是接管岗位,搭建AI基础设施需要大量资金投入且费用往往远超预算[2] - AI在大规模取代岗位的同时为人类创造新工作来清理AI留下的"烂摊子"[5] AI工作质量问题与"Workslop"现象 - 出现"AI工作垃圾"现象,设计师、写作者、数字艺术家需要弥补AI在复杂任务中的错误[5] - 有员工吐槽需要花时间验证AI生成报告、召开额外会议核实信息,最后只能亲自重写[7] - Workslop被形容为垃圾食品,缺乏营养、原创性和真实意义[7] AI技术局限性根源分析 - AI幻觉问题不可避免,源于AI大模型底层逻辑是基于海量质量参差不齐文本的统计权重,而非人类循序渐进的强鲁棒性知识网络[7] - AIGC实质是从万亿参数数据库中围绕关键词进行内容排列组合,检索+拼接必然导致与物理世界不一致[7] - AI存在"知识诅咒",被创造为全知全能工具但实际懂得很多却存在幻觉[9] AI应用实践中的操作难题 - 用户使用AI时往往给出模糊目标,使AI在百万计结果中选择,选中合乎心意选项的概率微乎其微[9] - 人类员工修复AI结果相当于不断添加约束条件筛选结果,但能设计结构化、标准化目标的高层次人才稀少[9] - 许多企业使用AI是希望代替初级职位,而非寻找AI管理者[9]