自然语言处理

搜索文档
同花顺:上半年净利润同比增长38.29% 拟10派1元
格隆汇APP· 2025-08-22 20:13
财务表现 - 2025年上半年实现营业收入17.79亿元 同比增长28.07% [1] - 实现归属于上市公司股东的净利润5.02亿元 同比增长38.29% [1] - 拟向全体股东每10股派发现金红利1元(含税) [1] 业务驱动因素 - 受资本市场回暖影响 公司网站和APP用户活跃度上升 [1] - 广告及互联网推广服务业务收入增加 [1] - 投资者对金融信息服务需求上升 增值电信业务收入增加 [1] 技术发展 - 报告期内公司大模型、智能语音、自然语言处理技术取得较大突破 [1] - 机器翻译、图形图像等技术应用取得较大突破 [1]
腾讯申请问答处理方法相关专利,显著提升了生成答复文本中“幻觉”现象的识别准确率
金融界· 2025-08-22 10:57
公司专利技术动态 - 腾讯科技申请问答处理专利 公开号CN120525059A 申请日期2025年5月 [1] - 专利涉及人工智能和自然语言处理领域 通过大语言模型生成问题文本的答复文本 [1] - 方法包括计算答复文本置信度或与问题文本的匹配度 据此确定可信度并输出目标答复结果 [1] 公司基本信息 - 腾讯科技成立于2000年 注册资本200万美元 位于深圳市 [2] - 公司属于软件和信息技术服务业 对外投资15家企业 参与招投标264次 [2] - 拥有商标信息5000条 专利信息5000条 行政许可537个 [2]
拓尔思中标南方电网信息及情报分析项目
新浪财经· 2025-08-21 14:26
公司业务动态 - 拓尔思中标南方电网信息及情报分析项目 [1] - 项目基于自然语言处理、文本挖掘和信息处理技术实现自定义专题政策事件的快速发现、追踪和比对 [1] - 技术应用包括政策资讯解读、政策变迁分析和政策对比分析 [1] 技术能力 - 公司具备政策信息快速解析与智能归纳能力 [1] - 系统可自动构建政策事件发展脉络 [1]
监控时代:通过创新推动变革
Refinitiv路孚特· 2025-08-19 14:03
全球贸易监控领域变革 - 全球贸易监控正从基于规则的监管合规工作转变为数据驱动的战略学科 对企业运营模式产生深远影响 [1] - 近半数外汇公司认为贸易监控与防范市场滥用行为是管理或降低风险敞口的关键重点领域 [2] - 企业将监控视为优化业务运营的契机 而不仅仅是规避监管审查的手段 [1] 合规职能战略化转型 - 合规团队在企业决策进程中拥有更大影响力 从业务运营阻碍转变为业务发展推动因素 [3][6] - 合规职能演变为风险管理战略顾问 成为企业理解市场和管理数据的重要组成部分 [2] - 企业内各层级专业人员而不仅仅是专职合规人员都需承担更多监控和风险责任 [2] 三大变革驱动力 - 数据量爆炸式增长:市场交易量和交易报告数量稳步增长并在2025年创下历史新高 [7] - 监管要求日益严格:监管机构在数据治理、模型校准和运营韧性等领域提出更高要求 [9] - 市场结构复杂化:企业面临部署跨资产、跨市场监控系统的压力 需要整合统一数据源 [10] 数据治理挑战 - 数据粒度、时间顺序和资产关联性对构建可靠监控体系至关重要 [10] - 绝大多数企业认为跨市场/跨资产预警是贸易监控面临的最大挑战 [10] - 许多企业正借鉴交易报告等受监管职能领域的最佳实践来确保数据完整性、质量和可追溯性 [10] 技术创新应用 - AI与自然语言处理技术进步使企业从单纯检测转向预防 实现实时行为纠正 [15] - 企业开始部署AI解决方案在可能出现不当行为的对话场景中对员工进行教育 [16] - 实时聊天对话中使用AI可根据对话方向提醒用户潜在风险并引导回归合规行为 [16] 监控系统整合 - 需要将贸易监控与通信监控相结合 通信能揭示贸易数据无法体现的意图 [17] - 企业应采取基于风险的有针对性数据收集方式 而非收集所有数据 [17] - LSEG与Global Relay合作提供"合规存档"解决方案 整合来自50多个不同来源的通信监控数据 [17][23] 运营效率提升 - 监控工具产生大量误报问题 使团队被无关信息淹没 [12] - 企业可运用RTS 22交易报告等专为市场滥用行为检测设计的数据集校准预警机制 [12] - 三管齐下策略可保持调查深度的同时提高运营效率:校准预警机制捕捉极端行为 将更多资源投入基于商业情报的主题调查 [13]
AI“职通站”24小时不打烊 产业工人职称申报有智能顾问了
镇江日报· 2025-08-14 07:42
平台上线背景 - 全市首个24小时职称政策咨询智能化线上平台AI"职通站"于8月13日正式上线 由市总工会指导所属职工技术协会围绕八大工程评审打造 [1] - 职称申报信息发布渠道从人社局主渠道改为第三方评价单位发布 导致信息渠道分散 产业工人难以掌握对口评审要求 [1] - 传统咨询方式效率低下 电话占线 答复不专业 现场奔波费时 企业人力资源部门政策理解有限或人员分散导致政策传达覆盖不全 [1] 平台功能特点 - 平台以AI为核心驱动 构建政策知识图谱 语义检索和智能画像一体化能力 系统性梳理八大工程职称评审政策条款 适用范围 材料清单与时效要求 [2] - 依托大模型自然语言理解与向量语义检索 实现用问题找政策和用场景配条款 解决政策找不准 看不懂 用不上痛点 [2] - 搭载智能工会小助手 运用自然语言处理技术快速理解用户提问意图 给予准确专业实时答复 提供全天候不间断在线咨询服务 [2] - 基于数据质量评估与版本追踪 确保政策信息权威 更新及时 可追溯 提升政策触达精准度与获取效率 [2] 平台应用效果 - 用户可在平台对话框输入评审条件 申报流程或材料准备细节等问题 立即获得清晰解答 [1] - 平台显著降低职工获取信息门槛和时间成本 将复杂政策转化为可理解可操作行动指南 [2] - 平台为产业工人职业成长和技能提升注入强劲动能 获得职工高效便捷体验好评 [1][2]
用时间积累换突破——月之暗面专注通用人工智能领域
经济日报· 2025-08-12 06:12
公司概况 - 北京月之暗面科技有限公司(Moonshot AI)成立于2023年4月,专注于通用人工智能(AGI)研发,目标是探索智能极限并实现普惠AI [1] - 公司位于北京海淀区中关村,拥有约300名员工,其中50%为90后,团队涵盖算法、工程、产品及运营领域的顶尖人才 [2] - 创始人杨植麟具有10年自然语言处理(NLP)研究经验,团队具备超大规模计算集群运维和深度学习框架开发能力 [1][2] 技术产品 - 核心产品Kimi智能助手于2023年10月上线,是全球首个支持20万字长文本处理的AI助手,半年后长文本能力扩展至200万字 [2][4][5] - 2024年7月发布开源大模型Kimi K2,参数规模达万亿级别但激活参数仅320亿,成本效益显著提升 [3][6] - Kimi K2在多项基准测试中表现优异,特别在自主编程、工具调用和数学推理三方面能力突出,成为全球开源模型榜单前五名中唯一的开源模型 [6] - 产品线持续扩展,包括K1.5视觉思考模型、Kimi-Researcher深度研究模型及浏览器助手等 [2] 技术创新 - 坚持无损数据压缩技术路线,拒绝滑动窗口等捷径方案,实现200万字长文本处理突破 [5] - 首次将创新优化器应用于万亿参数规模模型训练,验证了训练效率的技术突破 [8] - 开发具备Agent能力的模型,可自主探索使用工具并与电子/真实世界交互,推动AI进入智能体时代 [7][8] - 开源策略使Kimi K2成为API调用量和下载量增长最快的大模型,将顶尖技术能力开放给开发者社区 [6] 市场表现 - 2024年Kimi用户量实现100倍增长,从几十万跃升至数千万级别 [5] - Kimi K2已接入部分国际主流开发平台,在3D/游戏/动画制作等场景展现强大交互能力 [3][7] - 产品演示显示可在4分钟内根据指令创建3D森林环境,并具备软件开发、英语学习应用创建等多元功能 [7] 发展理念 - 坚持"技术理想主义",通过长期积累实现突破,专注通用人工智能而非垂直领域解决方案 [8] - 追求"将能源转化为智能的最优解",致力于发展通用泛化能力而非单一技能 [8] - 产品设计强调个性化定制,打破技术专用性壁垒,实现"代码人人可用"的普惠目标 [7]
电话外呼系统的市场现状与发展趋势
搜狐财经· 2025-08-09 15:14
市场现状 - 全球智能呼叫服务平台市场规模从2022年的21.0亿美元增长到2024年的32.2亿美元,年复合增速达23.8% [2] - 中国基于AI的智能呼叫服务平台市场规模从2022年的18.3亿元增长到2024年的30.3亿元,占全球市场比重约24% [2] - 预计2025年中国智能外呼系统市场规模达180亿元人民币,年复合增长率约20% [2] - 中国外呼行业市场规模预计突破万亿元,年复合增长率保持在15%以上,金融、电商、教育三大领域贡献超60%市场份额 [2] 行业应用 - 金融与保险、电商零售、医疗健康、呼叫中心、邮政物流、教育培训、餐饮食品、游戏娱乐、汽车后市场等领域加速外呼电话系统平台应用渗透 [3] - 金融领域用于客户贷款回访、理财产品推荐,电商零售用于订单确认、客户满意度调查,医疗健康用于患者预约提醒、健康回访 [3] 技术发展趋势 - AI语音引擎通过深度神经网络和情感计算技术突破"机械感"瓶颈,可识别方言、语速变化并实时调整话术策略 [5] - 合力亿捷语音外呼系统实测对话自然度达98.7%,"动态情绪响应"模块捕捉300余种微情绪信号,外呼转化率提升45%以上 [5] - 大数据驱动精准外呼整合CRM、社交媒体行为、消费历史等数据构建客户360°画像,某银行外呼成功率较随机外呼提升3.2倍 [6] - 合力亿捷系统内置2000余个行业特征模型,某保险企业通过"需求预测+动态外呼"模式将沉默客户激活成本降低62% [6] 系统智能化 - AI实时分析语义、声纹和对话节奏动态调整策略,如0.5秒内推送定制化对比数据或触发开放式提问挽留对话 [8] - 合力亿捷外呼系统3个月内将首句话术吸引力评分从72分优化至89分,挂断率下降37% [8] 合规与隐私 - AI在拨号前自动校验客户授权状态,对敏感信息脱敏处理并通过区块链留存操作日志 [9] - 合规与隐私保护成为外呼系统核心竞争力之一 [9]
模型显示鲍威尔开场白鸽派倾向下降 整体中性
快讯· 2025-07-31 03:07
金十数据7月31日讯,根据一项基于自然语言处理的分析工具,美联储主席鲍威尔在开场讲话中的表态 略微不那么鸽派,整体处于中性立场。分析师指出:"尽管有两位理事投出鸽派异议票,鲍威尔的言论 依然非常中性。虽然9月降息仍在讨论范围内,但从模型结果看,他的言论并未明确让市场为这一可能 性做好准备。接下来的会议纪要以及杰克逊霍尔年会的讲话才更可能成为给9月行动铺路的机会。" 模型显示鲍威尔开场白鸽派倾向下降 整体中性 ...
刚刚,DeepSeek梁文锋NSA论文、北大杨耀东团队摘得ACL 2025最佳论文
机器之心· 2025-07-31 00:25
ACL 2025大会概况 - 本届ACL大会投稿数创历史新高,达8000多篇,较去年4407篇增长81% [3] - 主会论文接收率20.3%,Findings接收率16.7% [3] - 中国作者占比首次过半达51.3%,远超美国14.0% [4] - 共颁发4篇最佳论文、2篇最佳社会影响力论文、3篇最佳资源论文等多项奖项 [6] 最佳论文研究成果 - DeepSeek团队与北大杨耀东团队包揽4篇最佳论文中的2篇 [10] - 杨耀东团队论文揭示大模型存在"弹性机制",导致对齐困难且需与预训练相当的资源 [24][25] - DeepSeek提出NSA注意力机制,在27B参数模型上实现长上下文高效训练与推理 [33][40] - NSA通过分层token建模实现260B token预训练,性能媲美Full Attention但计算效率更高 [37][41] 技术创新方向 - 大模型安全领域突破:发现模型参数存在抵抗对齐的结构性惯性 [24] - 高效训练技术:NSA实现硬件对齐的稀疏注意力,解码速度随序列长度增加而提升 [36][41] - 数据质量评估:Meta-rater提出四维度数据选择方法提升预训练效率 [55] - 评估效率优化:SubLIME方法可将LLM评估成本降低80%-99% [56] 行业影响与趋势 - 华人团队学术影响力显著提升,包揽最佳论文半数奖项 [10] - 大模型基础架构创新持续涌现,注意力机制优化成为关键突破点 [33][37] - 模型安全与对齐挑战凸显,需重新评估现有技术路线 [24][25] - 高效训练与推理技术获重点关注,推动商业化应用落地 [40][41]
金工周报-20250729
中邮证券· 2025-07-29 15:29
根据提供的研报内容,以下是量化模型与因子的详细总结: 量化模型与构建方式 1. **模型名称**:OpenReasoning-Nemotron推理模型 **模型构建思路**:基于Qwen2.5架构,通过从6710亿参数的DeepSeek R1 0528模型中蒸馏提炼而成,旨在为数学、科学及代码生成等结构化任务提供高效推理支持[12] **模型具体构建过程**: - 利用NeMo Skills框架生成500万个涵盖数学证明、科学推导和编程解决方案的高质量数据轨迹 - 通过纯监督微调(SFT)而非强化学习进行训练,确保逻辑一致性和符号推理精准度 - 采用GenSelect算法实现"重型推理模式",通过并行启动多个智能体生成候选解并筛选最优答案 - 公式:GenSelect@64技术,在32B模型上将HMMT数学竞赛成绩从73.8提升至96.7[13] **模型评价**:在GPQA、MMLU-PRO和AIME24等基准测试中刷新同参数规模纪录,32B版本在AIME24获得89.2分,超越OpenAI的o3-high模型[15] 2. **模型名称**:Qwen3-Coder **模型构建思路**:以4800亿参数规模、原生支持256K上下文窗口的混合专家架构(MoE)为核心,实现开源编程模型的性能突破[19] **模型具体构建过程**: - 采用稀疏化MoE设计,总参数4800亿但每次推理仅激活350亿参数,包含160个专家网络并动态选择8个参与计算 - 使用7.5万亿token的语料库,其中70%为代码数据,覆盖80余种编程语言及20多种标记语言 - 通过Qwen2.5-Coder对低质量数据清洗改写,生成高质量合成数据 - 引入代码强化学习与长程强化学习,构建分布式系统并行运行2万个独立环境[19] **模型评价**:HumanEval pass@1正确率达93.7%,超越Claude 3.5的92.4%;在SWE-Bench Verified上以31.4%任务成功率首次超过GPT-4的30.9%[20] 3. **模型名称**:AI评审框架 **模型构建思路**:通过赋予AI评审员自主调用外部工具的能力,构建兼具效率与严谨性的混合评审体系[25] **模型具体构建过程**: - 采用三级决策机制:初始领域评估、工具调用环节(事实核查/代码执行/数学核查)、综合评审结论生成 - 工具优先策略,仅在无适用工具时回退至基线模型评审 - 模块化设计实现领域适配,数学核查工具可灵活替换为Wolfram Alpha等专业引擎[26] **模型评价**:将数学问题评审错误率从纯模型评估的28%降至6%,代码评审误判率下降逾40%[29] 模型的回测效果 1. **OpenReasoning-Nemotron模型** - AIME24得分:32B版本89.2分,7B模型78.2分,1.5B模型45.6分[15] - LiveCodeBench得分:从70.2提升至75.3[13] - HMMT数学竞赛成绩:GenSelect@64技术下从73.8提升至96.7[13] 2. **Qwen3-Coder模型** - HumanEval pass@1正确率:93.7%[20] - SWE-Bench Verified任务成功率:31.4%[20] - 上下文处理能力:原生256K扩展至1M token[20] 3. **AI评审框架** - 数学问题评审错误率:从28%降至6%[29] - 代码评审误判率:下降逾40%[29] - MMLU基准测试指标一致性:提升约15%[29] 量化因子与构建方式 (注:研报中未明确提及量化因子的构建内容,故本部分暂缺) 因子的回测效果 (注:研报中未提及量化因子的测试结果,故本部分暂缺) 以上总结严格基于研报中涉及的量化模型相关内容,未包含风险提示、免责声明等非核心信息。模型构建细节引用自原文技术描述部分,测试结果数据均来自基准测试报告[12][13][15][19][20][25][26][29]