Natural Language Processing
搜索文档
EXL named a Leader and Star Performer in Everest Group Payment Integrity Solutions PEAK Matrix® Assessment 2025
Globenewswire· 2025-05-05 22:32
文章核心观点 - EXL被评为Everest Group 2025年支付完整性解决方案PEAK Matrix评估的领导者和明星表现者,凭借其多样化、适应性强且集成先进技术的支付完整性解决方案,满足行业不断变化的需求 [1][2][4] 公司信息 - EXL是一家全球数据和人工智能公司,成立于1999年,总部位于纽约,约有6万名员工,为多个行业的企业提供服务和解决方案,核心价值观包括创新、协作、卓越、诚信和尊重 [5] - Everest Group是一家全球领先的研究公司,其PEAK Matrix评估能为企业提供分析和见解,帮助做出关键决策,服务提供商也可借此评估自身产品 [6] 评估情况 - Everest Group对24家支付完整性解决方案提供商进行详细分析,根据愿景、能力和市场影响评估企业,通过年度行业调查、客户参考检查和市场分析确定企业定位 [3] - EXL因多样化、适应性强且集成生成式AI、自然语言处理和机器学习的支付完整性解决方案参与模式获认可,能提供端到端支付完整性结果,用于增强索赔验证、欺诈检测和覆盖差距分析 [2] 行业趋势 - 支付完整性市场正从支付后恢复转向主动的支付前准确性,由人工智能驱动的欺诈检测、实时索赔验证和预测风险建模推动 [4] 公司举措与展望 - EXL针对行业需求变化推出近乎实时的供应商人口统计和数据完整性监测解决方案,并采用基于结果的定价模式,获得更好的客户反馈 [4] - EXL总裁表示公司连续第二年获Everest Group领导者称号并成为明星表现者,未来将进行新投资,为客户提供更强大、完全透明的支付完整性解决方案 [3]
ICLR 2025 Oral|差分注意力机制引领变革,DIFF Transformer攻克长序列建模难题
机器之心· 2025-04-28 16:04
Transformer架构的局限性 - 传统Transformer架构在自然语言处理领域取得巨大成功,但在处理长文本、关键信息检索及对抗幻觉等任务时表现受限,主要因过度关注无关上下文[2] DIFF Transformer的创新架构 - DIFF Transformer由微软和清华团队提出,基于差分注意力机制,通过计算两组Softmax注意力图的差值放大关键上下文关注并消除噪声干扰[3][8] - 核心数学表达式为差分注意力公式,采用可学习标量参数调节两组注意力图权重[9][10] - 引入多头机制提升表达能力,每个头独立计算差分注意力并拼接输出,采用RMSNorm保持梯度一致性[15][16] DIFF Transformer的性能优势 - 语言建模效率显著提升:仅需65%参数规模或训练数据量即可达到与传统Transformer相当性能,如6.8B参数DIFF Transformer性能对标11B参数Transformer[4][21] - 长文本建模能力突出:在64K上下文长度下,累积平均负对数似然指标全面优于Transformer[23] - 关键信息检索准确率大幅提高:在64K上下文中,答案位于25%深度时准确率比Transformer高76%[25] - 数学推理能力领先:20B token微调后准确率差距达11%,第二阶段蒸馏后平均准确率再提升7.5%[35][37] 跨任务与跨模态潜力 - 在幻觉评测中表现优异:文本摘要任务准确率提升最高达0.19(XSum数据集),问答任务提升0.11(Qaspe数据集)[32] - 激活值异常减少:注意力激活值Top-1最大激活值比Transformer低8倍,更适配低比特量化[33] - 初步验证跨模态适用性:DiffCLIP研究已扩展至视觉与多模态领域,显示通用潜力[41] 行业影响与未来方向 - 获ICLR 2025 Oral论文收录(入选率1.8%),集成至Hugging Face transformers库引发广泛讨论[5][40] - 未来可探索低比特注意力算子设计、键值缓存剪枝及多模态应用[41]