大模型幻觉
搜索文档
潘云鹤,最新发声!
证券时报· 2025-09-27 16:56
AI与平台经济发展 - AI+将引领平台经济进入2.0时代,推动平台经济从消费服务型扩展至技术服务型 [1] - 平台企业将聚集大数据应用AI,形成利用算法和模型从事经济活动的组织形式 [1] - AI将催生各类技术服务平台崛起,如产业链合作平台、创新设计平台、内容创作平台等 [1] 中国人工智能规划方向 - 自2017年以来,中国AI规划聚焦五个方向:大数据智能、跨媒体智能、群体智能、人机混合增强智能和自主智能系统 [1] - 五大方向中思维模拟和行动模拟各占一半,分别对应大模型和具身智能两大发展轨迹 [1] 大模型发展趋势与挑战 - 大模型幻觉问题是重要挑战,指模型生成与事实、逻辑或上下文不符的内容,本质是统计概率驱动的合理猜测 [1] - 在工程、科学、技术等应用领域出现大模型幻觉可能导致严重问题 [1] - 专用大模型越发重要,成为解决幻觉问题的趋势之一 [1] 大模型幻觉的解决方案 - 解决方案之一是使用专业大数据和教科书级数据训练专业大模型 [1] - 另一解决方案是重构大模型发展路径,可从专用走向通用,即专业技术大模型成熟后交叉训练、联合训练成通用大模型 [2] - 从专用到通用的发展路径被类比为人先成为专才再成为通才的过程 [2] 具身智能与产业发展 - 具身智能将进一步泛化和深化,机器人将演变为具身智能并进化为更广泛的智能终端 [4] - 单个智能自主系统可包含机器人、无人机、智能终端、智能设备等,产业规模有望极大扩展 [4] - 智能体概念将跨越硬软界限,成为具有感知、决策、行动能力的应用软硬件系统 [4] 具身智能技术演进 - 具身智能将联合跨媒体走向智能发展,由VA模型演进为更先进的VLA+力学模式 [4]
潘云鹤,最新发声!
证券时报· 2025-09-27 16:53
AI+平台经济发展趋势 - AI+将引领平台经济进入2.0时代,推动其从消费服务型扩展至技术服务型,催生产业链合作平台、创新设计平台、内容创作平台等技术服务平台的崛起[2] - 平台企业将通过聚集大数据应用AI,形成以算法和模型从事经济活动的组织形式[2] - 中国AI规划自2017年起聚焦五大方向:大数据智能、跨媒体智能、群体智能、人机混合增强智能和自主智能系统[2] 大模型发展路径与挑战 - 大模型存在幻觉问题,即生成与事实、逻辑或上下文不符的内容,其本质源于统计概率驱动的合理猜测,在工程、科学、技术等应用领域可能导致严重问题[3] - 解决幻觉问题的趋势是发展专用大模型,通过使用专业大数据和教科书级数据进行训练[4] - 大模型发展存在两条路径:从通用走向垂直专用,或从专用走向通用,后者可能更自然顺畅,即专业技术大模型成熟后可交叉联合训练成通用大模型[4] 具身智能与智能体产业前景 - 具身智能将进一步泛化和深化,推动机器人演变为更广泛意义的智能终端,产业空间将更加广阔[6] - 单个智能自主系统可包含机器人、无人机、智能终端、智能设备等,产业规模有望极大扩展[6] - 智能体概念将跨越硬软界限,成为具有感知、决策、行动能力的应用软硬件系统,具身智能将联合跨媒体发展,由VA模型演进为更先进的VLA+力学模式[6]
面对已读乱回的AI,到底要如何分辨真假?哈工大&华为大模型幻觉综述!
自动驾驶之心· 2025-09-17 07:33
大模型幻觉定义与分类 - 大模型幻觉指大语言模型在回复中出现的常见错误,包括事实矛盾、事实编造、指令不一致、内容不一致和逻辑不一致 [2][8][9][10][11] - 事实型幻觉分为事实矛盾(实体错误和关系错误)和事实编造(不可验证和夸大幻觉) [8] - 忠实型幻觉分为指令不一致、内容不一致和逻辑不一致 [9][10][11] 大模型训练与幻觉原因 - 大模型训练包括预训练、监督微调(SFT)和从人类反馈中强化学习(RLHF)三个阶段 [7] - 数据部分导致幻觉的原因包括错误数据、社会偏见、知识边界和低质量未校准数据 [17][18][19][21][23] - 训练部分导致幻觉的原因包括预训练阶段模型结构限制、微调阶段过拟合和RLHF阶段谄媚现象 [26][30][32] 幻觉检测方法 - 事实检测分为事实提取和事实验证(外部检索和内部检查) [42] - 不确定性估计方法包括LLM内部状态(标记概率、熵、自我评估)和LLM行为(直接查询、间接查询、多agent视角) [42][43][44] - 忠实性幻觉检测指标包括基于事实、分类、问答、不确定性和LLM评判的方法 [47][48][49][50][51] 幻觉基准 - 幻觉评估基准量化LLM产生幻觉的倾向,重点关注长尾知识和易引起捏造虚假的问题 [53] - 幻觉检测基准评估现有幻觉检测方法性能,针对特定任务如数据生成文本和机器翻译 [54] - 现有基准包括TruthfulQA(817条数据)、REALTIMEOA(动态数据)、HaluEval(30,000条通用数据)等 [55] 幻觉缓解策略 - 通过数据减少幻觉的方法包括数据过滤、模型编辑(定位-编辑和元学习)和检索增强生成(RAG) [57][58][61] - 减少训练产生幻觉的方法包括优化模型结构、训练方式以及避免SFT和RLHF阶段数据冲突 [62] - 减少推理产生幻觉的方法包括事实增强解码和忠诚增强解码(上下文一致性和逻辑一致性) [64][65] 检索增强生成中的幻觉 - 检索失败原因包括用户查询制定(盲目检索、模糊查询、复杂查询)、检索数据源可靠性和检索器性能 [68][69][71][72] - 生成瓶颈涉及上下文感知(嘈杂检索、上下文冲突、未充分利用上下文)和上下文对齐(来源归属和忠实解码) [74][75]
蚂蚁数科鲁玮:用AI守护数字世界的真相
南方都市报· 2025-09-13 21:55
文章核心观点 - 蚂蚁数科AI科技产品总监鲁玮在2025外滩大会见解论坛上系统阐述了公司应对生成式AI三大真实性挑战(身份伪造、凭证造假、大模型幻觉)的技术实践与治理思考 [1][3] - 公司强调防患于未然的安全理念 并展示了针对关键业务场景的系列解决方案 包括数字身份验证、智能票据验真和大模型内容安全防御 [3] - 随着AI能力跃升 行业将面临更复杂的安全议题 需要产业、学界与媒体协同共建规范透明可信的AI治理体系 [4] AI带来的真实性挑战 - AI对物理世界和数字世界带来三大挑战:身份伪造、凭证伪造和大模型幻觉 [3] - 黑产借助AI技术通过深度伪造人脸、合成虚假票据和证件等方式进行诈骗、虚假开户和贷款申请 给个人与社会带来巨大风险 [3] - 现场展示的AI伪造图像案例中 9张数字人脸照片有2张是AI生成 但观众难以通过肉眼分辨 [3] 应对身份伪造的技术实践 - 公司依托蚂蚁天玑实验室这一国际前沿的生物识别安全实验室 在开户、支付、信贷等关键场景中确保个人数字身份的可验证与可信赖 [3] - 核心目标是保证数字世界中的身份真实和可信 [3] 应对凭证造假的技术实践 - 针对黑产借助AI的凭证造假低成本、规模化趋势 公司推出"光鉴智能验真"解决方案 [3] - 该方案通过防伪、质检、识别 结合大小模型进行多重信息抽检 核心逻辑是保证物理世界中的票据、身份、凭证防伪 [3] 应对大模型幻觉的技术实践 - AI生成内容幻觉的危害在于滥用人类信任 若出现在问诊、商业决策或司法裁判等场景将造成严重后果 [3] - 公司推出"蚁天鉴"大模型内容安全防御服务 针对提问与回答的交互模式构建多层防御护栏 进行风险预防、内容过滤和动态策略调优 [3] 未来AI安全趋势与行业呼吁 - 随着具身智能、AI for Science与智能体加速落地 AI能力跃升将伴随更复杂的安全议题 包括人机互动责任边界、价值对齐与伦理问题 [4] - 呼吁产业、学界与媒体加强协同 共建规范、透明、可信的AI治理体系 [4]
OpenAI的新论文,为什么被业内嘲讽是营销?
虎嗅· 2025-09-12 17:16
文章核心观点 - OpenAI发布论文指出大模型幻觉的主要根源并非模型架构问题,而是当前技术社区的评估机制倾向于奖励猜测并惩罚承认不确定的行为,迫使模型在不确定时也进行猜测[1][3] - 论文主张改变主流评估基准,应对高自信错误施以惩罚并为恰当的不确定表达给出分数,使激励从“大胆猜”转向“知之为知之”[3][4] - 该研究将“幻觉”从工程缺陷转化为技术社区的“激励设计”问题,若发展方向改变,未来关注点将从准确率小幅上涨转向模型在不确定时自然说“我不知道”[4][5] - 技术社区对论文存在争议,有观点认为其内容不新颖、水平不高,更像是一场营销而非研究[6][7][8] - 幻觉的本质可能源于机器学习中模型拟合度与泛化性的内在权衡,任何在训练数据外进行泛化的模型要么产生幻觉,要么遭遇模式崩溃[14][15] - 低幻觉大模型可能演变为高效串联已知事实的自然语言搜索引擎,这对AI Agent和企业AI落地是利好,但对其泛化能力存疑[17][20][22] - OpenAI的倡议具备号召力,其背后可能旨在强调GPT-5等模型在AI Agent和企业应用领域的优势,并推动自身应用业务发展[33][35][36] 大模型幻觉的根源与OpenAI的解释 - 大模型出现幻觉的主要原因是训练与评测机制奖励猜测并惩罚承认不确定的行为,迫使模型在高度不确定时倾向猜测性作答以博取准确率分数[1] - 在预训练层面,大模型通常只接触正面示例,即给定提示词后输出完整回答,未接触拒绝回答的示例,因此学不会拒绝回答的行为[2] - OpenAI以自家模型为例,在SimpleQA基准中,旧模型o4-mini准确率22%,新模型GPT-5-thinking-mini准确率24%,但旧模型错误率75%远高于新模型的26%,因其更少“弃答”[3] 技术社区对论文的争议与批评 - 有观点认为该论文既不新颖水平也不高,相关研究早已出现,且论文技术水平像初级研究人员所写[7] - 纽约大学数据中心助理教授Ravid Shwartz Ziv直言论文更像是一场营销而不是研究[8] - 批评指出幻觉概念至今未被严格定义,现有研究多是对幻觉的分类,如模型过度自信、解码随机性等[10] 幻觉的本质与机器学习视角 - 幻觉本质可用曲线拟合类比,不同模型具备不同拟合度和泛化性,任何模型生成的不同于训练数据的新数据都可能是幻觉[14] - 机器学习或大语言模型不擅长分布外泛化,其泛化能力更多是在已有观测点范围内估计未知值[15] - 理论研究指出模型在训练数据外泛化时,会产生幻觉或遭遇模式崩溃,这是一致性和广度之间的内在权衡[15] 低幻觉模型的影响与潜在形态 - 若保证训练数据和测试数据分布大致相同且模型过拟合,能保证很低错误率或幻觉率,低幻觉大模型可能演变为高效串联已知事实的自然语言搜索引擎[16][17] - 这种模型对拼写、标点等细节响应灵活,对多次引用的事实基本准确,但对单次出现的事实可能出错并选择拒绝回答,这对AI Agent和企业AI落地是利好底座[20] - 企业数据通常领域独立、长尾、稀疏,训练出的大模型潜在幻觉点多,增加拒答率可帮助企业优化模型[21] 幻觉检测与置信度方法 - 当前没有很好的自动化检测幻觉方法,复杂检测方法效果甚至与分析响应长度方法相当[24] - 简单方法让LLM生成多个独立答案比较一致性,但计算成本高昂,后续研究利用答案间重复部分缓存节省成本[25][26] - 高效方法是在推理过程中计算模型内部置信度信号,动态过滤低质量推理路径,如论文方法在AIME 2025达到99.9%的“@512准确率”,生成文本长度减少84.7%[26] - 置信度可定义为生成下一个token时候选词概率分布越不均匀、越集中在少量词则置信度越大,也可直接让模型输出不确定性词语表达置信度[28][30] OpenAI的倡议与潜在战略意图 - 论文创新之处不在方法,而像是面向技术社区的倡议,若社区认同,大模型将向不鼓励猜测答案方向发展[31] - OpenAI指出惩罚不确定答案的“流行病”只能通过社会技术缓解措施解决,作为大模型时代奠基者具备号召力[32][33] - 结合GPT-5低幻觉招牌、低幻觉对AI Agent和企业AI的重要性,以及公司近期收购io Products、成立“应用”板块等举措,推测OpenAI希望社区认可GPT-5成就并强调其在企业应用优势[34][35] - 公司自身也要认真发展应用业务[36]
爆火AI神器“智算一体机”,如何迎接Agent元年?
21世纪经济报道· 2025-08-11 18:05
智算一体机市场发展 - 伴随DeepSeek推动AI大模型低成本化,智算一体机作为新兴形态迅速走红,市场已涌现百款接入DeepSeek的产品 [1] - 行业面临应用落地挑战,需解决"最后一公里"问题,确保企业配置后"上手即好用" [1] - AI大模型持续进化,需减少模型幻觉并应对技术演化趋势,供应商已开始思考解决方案 [1] 智算一体机技术特点 - 智算一体机是预集成硬件、软件平台、模型、应用的一体化解决方案,降低AI普及门槛并推动基础设施向边缘端演进 [2] - 需通过性能优化、定制化能力和业务创新打造差异化竞争力,避免同质化价格战 [2] - 核心关注算力、模型、应用三方面:提供异构加速算力满足多元化需求,模型需开源开放,应用需软硬件协同优化实现成本最优 [2] 行业应用现状与挑战 - 中兴AiCube一体机已在知识问答、客服助手、代码助手等场景商用,但行业数据质量不均、高价值场景挖掘困难、缺乏专业AI人才等问题限制应用深度 [3] - 企业需根据业务需求灵活调整算力,同时引入更高能力模型并持续优化应用落地效果 [3] - 中兴引入AIS一站式智能平台和Co-Sight智能体工厂,提供低代码开发工具协助企业打通端到端流程 [4] 模型幻觉与解决方案 - 大模型幻觉是技术自带属性,与训练数据质量、人类观念分歧相关,生成式模型的概率特性决定幻觉必然存在 [4][5] - 短期可通过RAG、安全护栏、有监督微调等技术提升准确性,长期需联合产学研力量探索机理并改进评测标准 [5] Agent与一体机结合 - Agent降低开发门槛并具备复杂任务处理能力,与一体机形成"身体+灵魂"关系,结合后实现1+1>2效果 [5] - 一体机提供强大计算能力,Agent增强任务处理适应性,但传统一体机在固定功能场景仍具价值 [6] - 中兴一体机将在代码编程、客户服务等领域持续拓展,并向工业设计、电力能源等更多行业渗透 [6]
欢迎OpenAI重返开源大模型赛道,谈一谈我关注的一些要点
36氪· 2025-08-06 15:55
文章核心观点 - OpenAI于2025年8月5日发布两款开源大模型GPT-OSS 120B和GPT-OSS-20B,这是公司自2019年11月以来首次发布开源模型,标志着其重返开源赛道[1] - 公司此次开源主要是为了满足企业客户对数据本地化部署、定制化微调和成本控制的需求,以争夺被竞争对手占据的市场[3][4] - 本次开源在技术层面影响有限,因其未披露最新技术、完整训练细节和核心语料库,属于“开放权重”而非完全开源,但证实了外界对其技术路线的猜测大部分正确[5][6][8] 行业竞争格局 - 在OpenAI开源前,全球主流AI开发商中仅OpenAI和Anthropic未发布新版开源模型,而谷歌、Meta、Mistral、阿里巴巴等均已有开源产品[2] - 2025年成为“开源之年”,百度、OpenAI、Meta、阿里巴巴等纷纷发布或加速开源模型,仅Anthropic和字节跳动未提供开源版本[4][5] - 开源策略有助于模型快速普及和生态构建,如DeepSeek因开源迅速获得政企客户,LLaMA在欧美深受大企业欢迎[4] 开源模型的商业动因 - 开源模型支持本地化部署,客户可将数据存储在本地硬件,保障国家或商业机密安全[3] - 客户可基于行业需求对开源模型进行微调,尤其适合医疗、金融等敏感或复杂场景[3] - 本地运行开源模型可能比购买闭源模型使用权更经济,例如GPT-OSS-20B可运行于笔记本电脑[3] 技术细节与性能 - GPT-OSS 120B和20B的参数规模分别为1200亿和200亿,训练数据截止于2024年6月,性能与GPT-4o3相当[6] - 模型采用混合专家架构,120B版本每层有128个专家,20B版本每层有32个专家,每次激活4个专家[6] - 思维链架构在后训练阶段实现,并采用CoT RL技术,但未压制“大模型幻觉”,导致深度推理模式幻觉率较高[6][7] - 训练算力基于英伟达H100 GPU,120B版本消耗210万H100小时,若训练45天需1944张H100,未使用最新Blackwell架构[9][10] 开源内容的局限性 - OpenAI未公布训练用的脚手架模型、Reward模型、预训练语料库及独家工具,因此属于“开放权重”而非完全开源[8] - 技术白皮书仅确认了外界已有猜测,未透露核心独门技术,对行业技术进步的直接影响有限[5][7] - 公司更先进的模型如GPT-4(参数1.37万亿)仍闭源,算力资源可能优先用于GPT-4.5/GPT-5训练[10]
紫东太初开源视觉神经增强方法,即插即用终结多模态幻觉 | ACL 2025
量子位· 2025-06-27 18:57
核心观点 - 中科院自动化所联合新加坡国立大学、东南大学等团队提出大模型幻觉的高效解决方案VHR,通过"视觉神经增强"机制直接放大模型中的视觉关键注意力头输出,显著降低模型的幻觉现象 [1][2] - 此前主流方法如对齐训练或输出层分布修正仅作用于模型最终输出阶段,未能深入干预其内部表征和生成机制,难以实现高效精准的幻觉抑制 [3] - 大型视觉语言模型(LVLMs)常因过度依赖语言先验知识而非图像真实内容导致事实性错误,这种幻觉是受内部语言建模偏好的系统性影响 [4][5] - 研究发现注意力机制内部的不平衡性是幻觉根本原因,少数注意力头对视觉信息敏感,大多数头更依赖语言规律 [7][8] - 提出视觉感知头散度(VHD)指标量化注意力头对视觉输入的响应强度,并开发视觉感知头增强(VHR)技术强化视觉敏感注意力头输出 [8][9] - VHR在多个基准测试中优于现有方法,几乎不增加额外时间开销 [8][16] 技术方法 VHD指标 - 提出VHD指标量化每个注意力头对视觉信息的敏感度,通过对比有无图像输入时注意力头输出的差异计算 [9] - 仅有少数注意力头表现出高VHD值,表明模型内部存在视觉感知与语言偏好头的显著分化 [9] - 进一步提出Token-VHD(T-VHD)指标评估生成每个词时模型对视觉信息的依赖程度,统计表明幻觉词通常对应较低的T-VHD值 [10][11] VHR技术 - VHR通过三个步骤动态强化视觉敏感的注意力头:异常VHD过滤、注意力头选择与强化、分层渐进式增强 [14][15] - 每层选择VHD得分前50%的注意力头,将其输出缩放α倍以增强视觉上下文的贡献 [15] - 采用逐层强化策略避免层间干扰,并在首步生成时确定每层的关键注意力头 [16] SSL方法 - SSL方法从语义引导角度出发,通过分析模型内部表征空间缓解LVLMs幻觉问题 [19] - 利用稀疏自编码器(SAE)识别"幻觉"和"真实"两种语义方向,在特定层进行针对性干预 [19] - 在视觉信息融合阶段注入真实语义方向增强视觉表示忠实性,在语言生成阶段抑制幻觉语义方向投影 [19] - SAE识别的语义方向在不同架构LVLMs中展现出良好跨模型迁移能力 [22] 实验结果 - 在MSCOCO数据集CHAIR评估中,VHR在InstructBLIP、LLaVA-1.5和LLaVA-NeXT模型上分别达到85.52、85.47和88.87分,优于其他基线方法 [17] - SSL方法在POPE数据集上取得显著F1分数提升,同时保持推理效率 [20] - VHR和SSL方法均保持高效性,几乎不增加额外时间开销 [16][20]
海致科技港股IPO:自称技术实力全球领先 研发费用及费用率连续下降且低于同行
新浪证券· 2025-06-20 15:39
公司概况 - 海致科技于2025年6月17日向港交所递交招股说明书,联席保荐人为招银国际、中银国际和申万宏源香港 [1] - 公司自称是中国首家通过知识图谱有效减少大模型幻觉的AI企业,但AI智能体业务收入占比仅为17.2%(2024年)[1] - 2024年公司主营业务国内市占率仅1.11%,AI智能体业务市占率为2.8% [1] 财务表现 - 2022-2024年营业收入分别为3.13亿元、3.76亿元、5.03亿元,年复合增长率26.7% [4] - 同期净亏损分别为1.76亿元、2.66亿元、0.94亿元,呈现亏损收窄趋势 [4] - Atlas图谱解决方案收入占比从100%(2022年)降至82.8%(2024年),AI智能体收入占比从0升至17.2% [3][4] 市场地位 - 2024年中国产业级AI服务市场规模453亿元,公司对应市盈率1.11% [4] - 在以图为核心的AI解决方案细分市场(规模100亿元)中占据5%份额 [4] - 在集成知识图谱的产业级AI智能体市场(规模31亿元)排名第五,份额2.8% [5] - 跨行业产业级AI智能体解决方案供应商中按收入排名第一(收入0.87亿元)[5] 研发投入 - 研发费用连续两年下降:2022年8694万元→2023年7271万元→2024年6068万元 [6][8] - 研发费用率从27.8%(2022年)降至12.1%(2024年),显著低于同行明略科技(25.56%)和星环科技(61.19%)[6][9] - 员工福利费用从6629.5万元(2022年)降至5225.2万元(2024年)[7][8] 技术优势 - 采用图模融合技术减少大模型幻觉,该技术将知识图谱与大语言模型协同 [10] - 中国集成知识图谱的产业级AI智能体市场规模预计从2亿元(2024年)增至132亿元(2029年),CAGR达140% [10] - 2025年最后一轮融资后估值达33亿元,估值逻辑基于减少大模型幻觉的技术叙事 [10] 行业竞争 - 互联网巨头正布局类似技术,可能引发价格战 [11] - 大模型自身推理能力突破可能弱化知识图谱的"补丁"价值 [11]
DeepSeek R1幻觉率降低,用户喊话:想要R2
第一财经· 2025-05-29 23:13
DeepSeek-R1模型更新 - 公司发布R1模型更新,重点提升深度思考能力、减少幻觉并优化创意写作[2] - 新版模型在数学、编程与通用逻辑基准测评中表现国内领先,接近国际顶尖模型如o3与Gemini-2.5-Pro[9] - 幻觉率降低45%-50%,旧版模型幻觉率为21%,在SuperCLUE中文大模型测评中排名第五[9][10] 性能提升与优化 - 在AIME 2025数学测试中准确率从70%提升至87.5%[12] - 优化议论文、小说等文体输出,生成更长且结构更完整的内容[12] - 代码能力显著提升,在Live CodeBench中性能接近OpenAI的o3-high模型[12] 技术参数与开源 - 模型参数为685B,开源版本上下文长度128K,网页端/API支持64K[13] - 仍基于2024年12月发布的DeepSeek V3 Base模型,通过增加算力提升推理能力[12][13] - 开源权重采用MIT License,允许用户自由使用与二次训练[13] 行业动态与用户反馈 - 用户对下一代R2模型期待强烈,猜测公司可能因基准测试未超越o3而暂缓发布[13] - 行业关注基座模型竞争,公司未回应外界猜测,可能优先更新V4模型[13] - SuperCLUE测评显示推理模型平均幻觉率22.95%,非推理模型为13.52%[11]