Workflow
自然语言处理
icon
搜索文档
7月19日,相聚北京!一起聊聊ACL 2025爆点研究
机器之心· 2025-07-10 16:35
AI领域发展动态 - 2025年AI领域持续高速发展,技术更新节奏极快,每隔几周甚至几天就有新突破[1][3][4] - 行业呈现"跟不上就会掉队"的竞争态势,从业者需频繁跟踪arXiv、GitHub等平台的前沿研究[5] - ACL 2025总投稿数达8000多篇创历史新高,反映NLP领域研究热度持续攀升[6] ACL 2025会议亮点 - 会议设置Keynote、论文分享、圆桌对话、Poster交流及企业展位等丰富环节[6] - 上午Keynote由哈工大车万翔教授主讲ACL 2025趋势及展望,分析NLP研究重点与演化方向[9][15][17] - 下午Keynote由上海交大刘鹏飞副教授探讨大模型强化学习与复杂推理的突破与应用[11][19] - 圆桌对话聚焦"上下文工程"的价值探讨,吸引行业高度关注[11] 重要研究成果 - 清华大学邱寒团队研究LLMs内在自我修正机制的潜在问题[9] - 北京大学团队探索语言模型对齐抵抗现象的数据证据[9] - 南京大学程紫峰提出无需训练的Token Prepending方法提升句子嵌入质量[12] - 哈工大团队开发Token Recycling技术加速大模型推理[12] - 清华团队研发APB技术通过跨GPU传递压缩上下文块加速长上下文推理[12] 行业活动与合作 - 机器之心联合举办多场顶级学术会议活动,包括ICLR、CVPR、NeurIPS等[25] - 活动提供企业展台等合作形式,助力合作伙伴吸纳人才和品牌建设[26] - 会议通过机器之心视频号和黄大年茶思屋科技网站进行双平台直播[21][23]
企业数字化转型的创新利器:DigitLangPro 语言处理平台
江南时报· 2025-07-08 22:12
平台概览 - DigitLangPro是一款专注于企业数字化转型的语言处理平台 由杨骁鹰女士开发 通过收集和分析企业内部数据及员工反馈 利用自然语言处理技术评估员工参与度并生成综合数字化转型指数 [2] - 该平台能帮助企业深入了解员工真实需求 为管理层提供数据驱动的决策支持 助力企业在复杂市场环境中保持竞争力 [2] 实践案例 - 华机制造有限公司引入DigitLangPro后 员工参与度提升35% 转型需求识别准确率达88% 整体转型效率提升23% [3] - 平台通过情感分析判断员工对转型态度 帮助管理层制定针对性培训计划和沟通策略 加速数字化转型进程 [3] 商业效能 - 华机应用DigitLangPro后 项目实施周期缩短23% 直接节省14%运营成本 综合转型指数从64提升至81 [4] - 平台将员工反馈转化为量化数据 提升决策科学性 减少主观判断风险 提供实时转型进度监控指标 [4] 行业影响 - DigitLangPro推动企业重视数字化转型中管理理念和员工参与度的变革 帮助企业在竞争中脱颖而出 [5] - 平台的成功应用为行业提供参考经验 促进整个行业对数字化转型的重视和投入 [5] 未来应用 - 平台有望在金融行业评估客户对数字化服务接受度 优化银行产品设计 [6] - 在医疗领域可辅助医院提升患者满意度 优化服务流程 推动社会数字化进程 [6]
中美AI差距有多大,AI竞争焦点在哪?《全球人工智能科研态势报告》全球首发
钛媒体APP· 2025-07-03 18:36
全球AI科研态势 - 报告基于2015-2024年96961篇AI领域文献分析,由联合国工业发展组织与东壁科技数据联合发布,采用东壁指数评价体系 [2] - 全球AI科研演进分为四个阶段:初始起步期(2015-2016年论文量4421→3628篇)、快速发展期(2017-2019年突破万篇)、成熟高峰期(2020-2023年达17074篇)、波动调整期(2024年回落至14786篇) [5][6] - 技术路径从传统机器学习(2015-2017)→深度学习/计算机视觉(2018-2020)→大语言模型/生成式AI(2021-2023)→可解释性AI/多智能体系统(2024-) [6] 中美AI人才对比 - 全球AI人才57.7%集中在中美两国,美国6.3万人领先,中国5.2万人以28.7%年复合增速追赶 [7][8] - 美国形成"人才旋转门"机制(高校企业流动率37%),中国互通率不足15% [10] - 华人学者在美表现突出:全球百人榜中20位在美学者里华人占10位,女性榜11位在美学者含3位华人女性 [3] 机构与企业表现 - 顶尖机构榜:中国占38席(中科院2386人才/4639篇论文),美国35席(总论文35117篇/被引228万次) [7] - 美国企业学术产出优势显著:谷歌(2895篇)+微软(1582篇)+Meta(1419篇)总量是中国TOP3企业(腾讯1354+阿里1034+华为885)的1.8倍 [9][10] - 中国企业应用导向突出:计算机视觉论文比美国高40.8%,知识图谱高50.1%,在自动驾驶/移动支付等场景落地强劲 [11] 技术发展趋势 - 深度学习关键词频率十年增长84倍,2018-2023年均增速217%,2024年进入平台期(增速30%) [14] - 计算机视觉形成"目标检测(78%热词)-语义分割-视觉应用"闭环,语义理解类关键词2022年后年均增45% [14] - Transformers技术2022年后崛起,工程化关键词如特征提取/优化持续升温 [15] 区域与性别特征 - 亚太创新中心崛起:北京/上海/深圳/新加坡/首尔进入全球20大人才聚集区,微软在华部署714人占其全球AI人才29% [13] - 中国AI女性人才占比仅9.3%(美国20.1%),头部企业女性占比6.1%远低于谷歌/微软的18.7% [12][13]
突破通用领域推理的瓶颈!清华NLP实验室强化学习新研究RLPR
机器之心· 2025-06-27 08:49
核心观点 - 清华大学自然语言处理实验室提出基于参考概率奖励的强化学习(RLPR)技术,解决了现有RLVR范式在通用领域的应用局限 [4][7][24] - RLPR通过Prob-to-Reward方法和动态过滤机制显著提升奖励质量和训练稳定性,在Gemma、Llama、Qwen等主流模型上验证有效 [7][8][22][24] - 该方法利用大语言模型生成参考答案的概率作为奖励信号,无需领域特定规则验证器,实现领域无关的高效奖励生成 [13][14] 技术原理 - 观察到LLM生成参考答案的概率与推理质量高度相关,错误推理会导致参考答案生成概率显著下降 [11] - 提出构建不含思维链过程的对照奖励,通过差值计算去除无关因素干扰,实现奖励纠偏 [16] - 采用基于奖励标准差的动态过滤机制,结合EMA更新阈值,提升训练稳定性 [17] 性能优势 - PR奖励在0.5B规模即优于规则奖励和验证器模型奖励,通用领域质量可达0.91 ROC-AUC [19] - 在Qwen2.5 3B模型上使用不同训练模板均能取得稳定性能提升 [21] - 在Gemma、Llama等基座模型上超越使用规则奖励的RLVR基线 [22] 应用价值 - 突破现有RLVR局限于数学/代码领域的限制,可拓展至自然语言通用领域 [3][4][24] - 仅需一次前向传播即可生成奖励,显著降低人力和工程资源投入 [13] - 相关代码、模型、数据和论文已全部开源 [8][9]
股吧散户评论是股市的晴雨表吗?
东北证券· 2025-06-25 15:12
报告核心观点 - 基于东方财富网上证指数吧散户评论构建的指标与上证指数有同步走势关系,但不同年份关联不稳定 [2][116] - 散户情绪易被短期价格波动影响,情绪指标是价格波动结果,看多或看空观点是对当前价格反应 [3][116] - 以技术分析思路观察情绪指标,其突破阈值时市场走势会相应转变,可辅助判断市场后续走势 [3][111][117] 前言 - 互联网普及使投资者在评论区发表观点,可能影响交易决策,可通过自然语言处理分析评论信息 [10] - 采用 BERT 模型和情感词典方法识别评论情感,分析散户评论行为及价值 [11] 自然语言处理方法之 BERT 模型介绍 - 自然语言处理融合多学科,含理解和生成两方面,旨在实现人机有效沟通 [12] - 2018 年 BERT 模型问世改写局面,其是基于 Transformer 的双向预训练语言模型,表征基于所有层左右语境 [13][15] - BERT 技术原理是“双向预训练 + 任务特定微调”,预训练基于掩码语言模型与下一句预测任务 [18] - BERT 核心优势是通用性,学习到的语言表征可迁移到几乎所有 NLP 任务 [32] 基于投资者评论文本的情感分析 投资者文本数据的获取和预处理 - 东方财富网上证指数吧评论可刻画投资者情绪,对市场舆情判断有参考意义 [34] - 对评论进行筛选,保留近 500 万条评论文本数据,其长度、月度发帖等分布与散户评论行为认知一致 [37] 基于 BERT 模型的评论文本分析 - 用 BERT 模型对评论进行情感标注,分为看多、看空和中性三类 [48] - 评估模型分类效果,BERT 模型在训练集和测试集上有一定准确度 [54] - 情绪得分多数为负值,与行情同步,与指数涨跌幅、成交额相关性随机不稳定 [67] 基于情感词典的评论文本分析 - 基于情感词典的文本分析通过匹配词汇计算得分判断文本情感,金融情感词典更适配金融文本 [69] - 采用姚加权等人的金融情感词典,结合正式和非正式用语词典分析评论 [72] - 基于情感词典的评论情感标签分布与 BERT 模型结果相近,看空评论多于看多评论 [79] - 定义情绪分歧度,其反映多空情绪强弱,与市场走势有关,分歧度高可能预示市场变化 [82][84] - 看空情绪指标与上证指数走势同步,无显著领先性,上下行关系不稳定 [91] - 看空情绪指标边际变化与当天上证指数涨跌幅负相关,与次日无显著相关性 [95] - 当日看空情绪变化与次日上证指数成交额负相关,相关性随时间推移减弱 [107] - 从技术分析角度,情绪指标突破阈值时可预示市场走势变化 [111][112] 总结 - 分析股吧评论特征及价值,考察相关指标与上证指数关系,走势关系同步但不稳定 [116] - 散户情绪受价格波动影响,评论是情绪宣泄,情绪指标可辅助判断市场走势 [116][117] 参考文献 - 引用姚加权等人关于金融情绪词典的论文和 Devlin 等人关于 BERT 模型的论文 [118]
大佬面对面!斯坦福2025 CS336课程全公开:从零开始搓大模型~
自动驾驶之心· 2025-06-24 19:47
课程概述 - 斯坦福大学2025年春季CS336课程「从头开始创造语言模型」已全面上线网络 提供完整课程视频和主页链接[2][4] - 课程目标为引导学生从零开发语言模型 覆盖预训练数据收集 Transformer构建 模型训练及部署评测全流程[5] 师资团队 - 核心讲师Tatsunori Hashimoto为斯坦福计算机科学系助理教授 研究成果累计引用超3万次 研究方向聚焦机器学习模型性能权衡[3] - 联合讲师Percy Liang为斯坦福副教授兼基础模型研究中心主任 学术引用量超10万 主导多项AI领域研究项目[3] 课程模块 - 五大模块涵盖基础 系统 扩展 数据 对齐和推理强化学习 强调实践操作与深度技术掌握[7] - 实践要求包括Python编程能力 PyTorch熟练度 系统优化经验及数学基础(线性代数 概率统计等)[7] 实践作业 - 作业1要求实现BPE分词器 Transformer架构和Adam优化器 仅允许使用PyTorch原语进行模型训练[8] - 作业2聚焦GPU加速 需在Triton中实现Flash Attention 2及分布式并行优化[8] - 作业3涉及Scaling Law拟合 学生需在有限计算预算内通过训练API收集数据点[8] - 作业4侧重数据工程 要求完成Common Crawl数据清洗 去重及有害内容过滤[8] - 作业5要求实现监督微调 专家迭代等对齐技术 在Qwen 2 5 Math 1 5B模型上运行强化学习[8] 课程安排 - 18周课程包含16次讲座和2次嘉宾分享 内容覆盖分词 GPU并行 混合专家系统 推理优化等核心技术[9] - 作业周期与课程紧密衔接 例如第5周完成作业1提交后立即发布作业2 强化学习实践贯穿后期课程[9]
报名开启!别再一个人刷论文了,来ACL 2025论文分享会一起面对面交流
机器之心· 2025-06-24 09:46
AI领域发展动态 - AI领域在2025年保持高速发展 大模型演化、多模态系统融合、推理能力与可解释性持续突破 [1] - AI技术迭代速度极快 新模型和新框架几乎每隔数周就有突破性进展 [2] - 系统性参与学术交流、深入学习最新研究成果、与顶尖研究者对话成为掌握前沿技术的关键 [3] 顶级学术会议的重要性 - ACL、NeurIPS、ICML、CVPR等全球顶级会议是AI技术交汇的核心场域 提供观察发展脉络的窗口 [4] - ACL 2025总投稿数达8000多篇创历史新高 会议将于7月27日-8月1日在维也纳举办 [5] - 机器之心持续举办NeurIPS、CVPR、ACL论文分享会 受到海内外高校和企业广泛关注 [6] ACL 2025论文分享会详情 - 机器之心将于7月19日在北京举办ACL 2025论文分享会 设置Keynote、论文分享、圆桌对话等环节 [7] - 活动包含企业招聘宣讲、论文Poster展示和企业展位交流 邀请顶级专家与论文作者参与 [7] - 线下参与名额限制200名 详细日程将通过后续公告发布 [8][13] 合作伙伴与活动历史 - 黄大年茶思屋科技网站是推动科技交流的开放平台 汇聚全球科学家分享前沿学术成果 [10][11] - 机器之心曾联合举办云帆・ICLR 2025、CVPR 2025论文分享会等多场活动 助力企业吸纳人才 [12] - 企业可通过指定联系方式参与学术顶会活动的合作共建 [13][14]
研判2025!中国自然语言处理行业产业链、相关政策及市场规模分析:技术突破推动行业增长,低成本算力与小样本学习加速技术落地[图]
产业信息网· 2025-06-08 10:10
行业概述 - 自然语言处理(NLP)是计算机科学与人工智能的重要分支,旨在实现计算机对人类语言的理解、解释和生成,广泛应用于搜索、翻译、语音交互等场景 [2] - NLP技术类型分为基于规则的方法、统计方法和深度学习方法三大类 [2] - 2024年中国NLP行业市场规模约为126亿元,同比增长14.55% [1][15] 行业发展历程 - 萌芽期(20世纪50-60年代):以机器翻译为起点,基于简单规则实现单词级处理,受限于计算能力和数据规模 [4] - 规则主导期(20世纪70-80年代):手工构建复杂规则系统,涉及语法分析与引用处理,但规则灵活性不足问题显现 [4] - 统计学习期(20世纪90年代-2012年):统计模型与机器学习结合,利用大规模语料库提升性能,神经语言模型和词嵌入概念奠定深度学习基础 [5] - 深度学习期(2013年至今):深度学习模型(如RNN、LSTM、Transformer)与预训练语言模型(如BERT、GPT)主导,推动NLP性能跃升 [6] 行业产业链 - 上游包括硬件设备(高性能服务器、GPU、TPU等)、数据服务、开源模型、云服务等 [8] - 中游为NLP技术研发环节 [8] - 下游应用领域包括金融、医疗、教育、智能制造等行业 [8] - 2024年中国云服务市场规模约为5326.5亿元,同比增长11.95%,为NLP行业提供弹性计算资源 [10] 相关政策 - 2025年3月,教育部等部门印发《关于加强数字中文建设 推进语言文字信息化发展的意见》,提出到2027年建成国家语言文字大数据中心,到2035年提升中文在数字空间的使用占比 [12] - 2024年1月,工信部等七部门发布《关于推动未来产业创新发展的实施意见》,明确利用人工智能等技术支撑新型工业化 [14] - 2024年6月,工信部发布《国家人工智能产业标准化体系建设指南(2024版)》,提出制定50项以上自然语言处理相关标准 [14] 重点企业经营情况 - 百度集团:NLP技术覆盖机器阅读理解、跨模态交互等前沿方向,文心ERNIE 3.0刷新54个中文NLP任务基准,2024年总营收1331亿元 [17][21] - 科大讯飞:智能语音技术全球领先,AI学习机、智医助理等产品市场占有率领先,发布"讯飞超脑2030计划" [17][20] - 阿里巴巴:达摩院推动NLP技术突破,发布"通义千间"大模型,技术深度融入电商、金融场景 [17][20] - 拓尔思:聚焦智能风控、智能消保等金融场景,覆盖5大国有银行,2025年一季度营收1.25亿元,同比下降29.89% [18][20] 行业发展趋势 - 大模型与多模态融合:预训练语言模型参数量级跃升至万亿级,跨模态语义理解技术成为研发重点 [24] - 垂直领域深化与智能硬件融合:NLP技术深度融入医疗、金融、教育等行业,智能硬件渗透率达62% [25][26] - 数据安全与伦理规范:《数据安全法》与《个人信息保护法》推动NLP企业建立数据合规使用框架,推动"可信AI"演进 [27]
Gemini2.5弯道超车背后的灵魂人物
虎嗅· 2025-06-05 11:14
Gemini 2.5 Pro崛起背后的底层逻辑 - 大语言模型训练的核心步骤包括预训练、监督微调和对齐阶段,过去一年行业重点转向对齐阶段,特别是强化学习方向的探索[2] - Google在Gemini系列迭代中积累了坚实的基座模型训练经验,并更加重视强化学习的作用,引入"让AI批判AI"的机制[3] - 编程能力成为各家模型竞争焦点,Anthropic在预训练阶段优先投入高质量代码数据,使其在代码生成质量上领先[4][5] - Google通过整合预训练和强化学习优势,在Gemini 2.5中实现编程和数学等高确定性任务的突破性表现[3][11] - 模型能力差异源于数据配比和训练优先级选择,Anthropic专注编程导致其他能力稍弱,OpenAI侧重人类偏好输出[5][10] Google技术团队与资源整合 - Google DeepMind由Jeff Dean、Oriol Vinyals和Noam Shazee三位专家形成技术铁三角,分别代表预训练、强化学习和自然语言处理能力[15] - Google Brain与DeepMind合并实现强强联合,前者擅长大规模资源调度和预训练,后者专精强化学习[16][17] - Sergey Brin回归带来"Founder Mode",显著提升团队士气和工作强度,推动Gemini快速迭代[19][20] - Google拥有全球最强计算资源、人才储备和近乎无限的资源投入能力,为Gemini快速反超奠定基础[20] Google的API价格优势 - Google十年前开始布局TPU生态,避免依赖NVIDIA GPU并节省"NVIDIA税"[22] - 基础设施能力远超同行,拥有动态调度大规模集群的独家优势,OpenAI等仍需依赖第三方云服务[22][23] - 软硬件一体化优化能力使Google在成本控制上具备天然优势,API定价策略具有显著竞争力[22][23] - 行业数据显示AI服务存在高溢价空间,Google凭借规模效应可承受更低利润率[23][24] 行业竞争格局演变 - OpenAI早期凭借人类偏好输出领先,Anthropic通过代码能力突破建立优势,Google最终以推理能力实现反超[10][11] - 模型能力发展呈现螺旋式上升,各家在不同领域轮流领跑:写作→代码→推理[10][11] - XAI的Grok在数学领域表现突出,反映创始团队背景对模型特化能力的影响[12] - 编程能力商业化成为焦点,Anthropic明确追求生成可直接投入生产的代码而不仅是解题[12]
消失的人工客服,“智障”的AI客服
36氪· 2025-06-04 18:33
AI客服行业现状 - AI客服在电商、金融、物流、教育、通信、医疗等行业广泛应用,但存在沟通不畅、答非所问、转接人工客服难等问题,损害消费体验[1] - 2024年电商售后服务领域与"智能客服"相关的投诉同比增长56.3%[2] - 30款互联网App实测显示40%无法接通人工客服,接通后超半数需12分钟以上响应[3] AI客服主要痛点 - 无法解决个性化问题、回答生硬机械、不能准确理解提问是用户最不满的三大缺点[2] - 30.98%用户反映智能客服无法照顾老年人、残障人士等特殊群体[2] - 用户需刻意调整说话方式(如咬字清晰)才能与AI客服沟通,稍有不慎即导致理解错误[2] 企业服务策略问题 - 部分企业将AI客服作为削减成本工具,背离"以用户为中心"宗旨[6] - 技术应用存在服务逻辑悖论:用户拨打语音客服时通常问题较复杂,而AI客服应对能力不足[7] - 缺乏有效人工客服转接通道,仅11%App能在4分钟内接通人工服务[3] 技术改进方向 - 需通过优化算法、扩充语料库、提升自然语言处理能力强化AI客服技术[7] - "智能体"技术可提升多系统串联能力(如旅游平台整合机票、酒店等数据)[7] - 应明确AI客服适用场景边界,标准化服务可通过App等渠道完成[7] 消费者行为反馈 - 实测显示消费者明显倾向选择纯人工客服(假设企业同时提供两种服务时)[2] - 中老年用户因操作困难已放弃使用客服热线[5] - 当前AI客服仅代表高效而非优质服务,实际能力与宣传存在差距[5]