自然语言处理
搜索文档
金美信消费金融引入DeepSeek大模型,开启智能化新篇章
财富在线· 2025-07-23 17:46
数字化转型与智能化升级 - 金美信消费金融完成DeepSeek大模型部署上线,标志着公司数字化转型与智能化升级进入新阶段 [1] - 技术升级夯实数字化底层能力,依托生成式AI提升办公效率与业务处理效能 [1] - 公司坚守"以科技为手段、以普惠金融为目标"战略,深耕消费信贷全流程智能化建设 [1] 技术应用与业务赋能 - DeepSeek大模型具备轻量化部署、高性能推理优势,构建垂直领域智能知识库体系 [2] - 系统基于自然语言处理与深度语义匹配技术,实现毫秒级精准检索与智能问答响应 [2] - AI技术将应用于征信数据解析、行为画像分析及风控模型动态校验,构建精准风险防控体系 [2] - 大模型驱动智能审批引擎,实现个性化贷款方案推荐与额度智能匹配,缩短审批周期 [2] 全渠道服务与运营模式 - 公司通过全线上运营模式打破渠道与服务边界,提供7×24小时一体化服务 [1] - 自有平台(移动端APP、微信公众号、微信小程序)及头部互联网平台合作渠道覆盖广泛 [1] - 结合智能客服和实时风控预警体系,实现信贷支持全时可达、随处可享 [1] 未来战略布局 - 深挖AI在消费金融核心业务场景的深度应用,包括监管政策解读、合规监测及反欺诈领域 [2] - 以"科技+服务"双轮驱动,探索消费金融与前沿技术融合创新 [3] - 目标为用户打造更优质、便捷、可信赖的金融服务体验,构建开放、安全、高效的智慧金融生态 [3]
突发!美科技巨头解散上海AI研究院,首席科学家发声
是说芯语· 2025-07-23 17:38
AWS亚马逊云科技上海AI研究院解散事件 - AWS亚马逊云科技上海AI研究院于7月22日正式解散 这是AWS最后一个海外研究院 [1] - 公司回应称解散决定基于对组织、发展重点及未来战略方向的评估 目的是优化资源并持续投资创新 [1] - 解散决定以内部通知形式突然传达 团队措手不及 [2] - 研究院核心团队完整 王敏捷表示希望与本土团队合作开发世界级AI产品 [3] 研究院历史与成就 - 研究院成立于2018年世界人工智能大会期间 是AWS在亚太地区首个AI研究机构 [5] - 初期聚焦深度学习和自然语言处理 后拓展至图神经网络和智能推荐系统等前沿领域 [5] - 开发的Deep Graph Library(DGL)成为全球图神经网络领域标杆开源项目 为亚马逊电商业务创造显著价值 [5] - 累计发表论文超90篇 覆盖机器学习顶会 与卡内基梅隆大学、复旦大学等全球高校建立合作网络 [5] 员工影响与行业趋势 - 员工安置方案尚未披露 部分员工已被国内科技企业接洽 [4] - 团队在AI Agent、图神经网络等领域经验或加速本土技术突破 [4] - 2025年以来跨国科技巨头在华研发收缩成趋势 IBM关闭运营32年的中国研发中心裁员约1800人 [7] - 微软迁移上海AI实验室数百名专家至美澳等地 英特尔和高通缩减在华5G与AI芯片投资转向东南亚 [7] 院长观点与技术背景 - 首任院长张峥是开源深度学习平台MXNet和DGL的共同创始人 [6] - 张峥曾强调AI发展需兼顾创新与伦理 指出技术对齐是关键挑战 [6] - 认为ChatGPT等生成式AI的崛起标志着"世界模型"的初步形成 [6]
明天,围观学习ACL2025论文分享会,最后报名了
机器之心· 2025-07-18 11:14
AI领域发展动态 - 2025年AI领域持续高速发展,科技公司和机构发布大量研究成果,技术更新节奏极快,每隔几周甚至几天就有突破性进展出现[1][3][4] - DeepSeek和视频生成模型Veo 3等代表性技术推动行业进步,从业者需频繁跟踪arXiv、GitHub等平台以保持技术前沿性[2][5] ACL 2025会议概况 - ACL 2025总投稿数突破8000篇创历史新高,会议将于7月27日-8月1日在维也纳举行[6] - 国内配套活动7月19日在北京举办,包含Keynote演讲、论文分享、圆桌对话等环节,设置企业展位交流[6][7][14] 学术研究热点 - 上午Keynote聚焦ACL趋势与NLP研究热潮,车万翔教授将分析2025年研究重点与演化方向[18][20][21] - 下午Keynote由刘鹏飞教授主讲大模型强化学习与复杂推理,探讨认知工程范式转变及测试时扩展技术[22][24] - 论文分享涵盖大语言模型自校正、分布式长上下文推理加速、token回收等前沿课题[11][12][14] 行业专家阵容 - 圆桌讨论主题为"上下文工程价值",嘉宾来自阿里巴巴、腾讯、上海交大,涵盖大模型强化学习、游戏AI等方向[16][31][33][35] - 腾讯AI Lab专家研究员王琰曾获ACL 2021杰出论文奖,开发过Temp-Lora、Block-Attention等业界知名技术[35] 活动合作生态 - 活动由机器之心联合黄大年茶思屋科技网站举办,后者是聚焦前沿科技交流的开放平台[39][41] - 设置论文Poster展示环节,并通过双平台直播扩大影响力[37][41]
小哥硬核手搓AI桌宠!接入GPT-4o,听得懂人话还能互动,方案可复现
量子位· 2025-07-16 15:02
AI宠物技术实现 - 核心硬件采用3D打印底座和圆锥形头顶,悬挂一条触手结构,触手源自SpiRobs机器人,能抓取尺寸相差超两个数量级、重量达自身体重260倍的物体[8][10] - 视觉系统通过立体摄像头追踪触手末端,使用YOLO模型进行3D三角测量校准[12][31] - 触手控制采用2D映射简化操作,通过电脑触控板拖动光标即可调整触手动作[22][23] 控制系统架构 - 低级控制层结合开环预设动作(如点头)和闭环RL策略(如手指跟踪),立体视觉约束RL观察空间[25][26] - 高级控制层采用GPT-4o实时API处理语音与视觉事件,无需微调即可下达底层指令[26][27] - 为增强生命感,在待机状态加入轻微摇摆行为,并通过Prompt工程解决LLM调用问题[28][29] 强化学习与仿真优化 - 在MuJoCo中重建软体触手模型,设置目标跟踪环境,使用PPO策略梯度结合MLP和帧堆叠训练[33] - 添加动力学随机化(质量、阻尼、摩擦)以贴近真实环境,通过控制惩罚和指数移动平均解决抖动问题[36][37] - 最终实现仿真到真实环境的迁移,验证控制策略有效性[38] 开发者背景与灵感来源 - 开发者Matthieu Le Cauchois为ML工程师,研究方向包括强化学习、NLP,曾创立AI公司Typeless并被Doctolib收购[39][41][42] - 项目灵感源自皮克斯台灯机器人,强调通过动作和时机传递情绪意图,动物形态设计增强宠物陪伴感[48][49][53] - 工程文件开源,包含3D打印CAD数据和控制脚本,支持低成本复现[20][54]
7月19日,相聚北京!一起聊聊ACL 2025爆点研究
机器之心· 2025-07-10 16:35
AI领域发展动态 - 2025年AI领域持续高速发展,技术更新节奏极快,每隔几周甚至几天就有新突破[1][3][4] - 行业呈现"跟不上就会掉队"的竞争态势,从业者需频繁跟踪arXiv、GitHub等平台的前沿研究[5] - ACL 2025总投稿数达8000多篇创历史新高,反映NLP领域研究热度持续攀升[6] ACL 2025会议亮点 - 会议设置Keynote、论文分享、圆桌对话、Poster交流及企业展位等丰富环节[6] - 上午Keynote由哈工大车万翔教授主讲ACL 2025趋势及展望,分析NLP研究重点与演化方向[9][15][17] - 下午Keynote由上海交大刘鹏飞副教授探讨大模型强化学习与复杂推理的突破与应用[11][19] - 圆桌对话聚焦"上下文工程"的价值探讨,吸引行业高度关注[11] 重要研究成果 - 清华大学邱寒团队研究LLMs内在自我修正机制的潜在问题[9] - 北京大学团队探索语言模型对齐抵抗现象的数据证据[9] - 南京大学程紫峰提出无需训练的Token Prepending方法提升句子嵌入质量[12] - 哈工大团队开发Token Recycling技术加速大模型推理[12] - 清华团队研发APB技术通过跨GPU传递压缩上下文块加速长上下文推理[12] 行业活动与合作 - 机器之心联合举办多场顶级学术会议活动,包括ICLR、CVPR、NeurIPS等[25] - 活动提供企业展台等合作形式,助力合作伙伴吸纳人才和品牌建设[26] - 会议通过机器之心视频号和黄大年茶思屋科技网站进行双平台直播[21][23]
企业数字化转型的创新利器:DigitLangPro 语言处理平台
江南时报· 2025-07-08 22:12
平台概览 - DigitLangPro是一款专注于企业数字化转型的语言处理平台 由杨骁鹰女士开发 通过收集和分析企业内部数据及员工反馈 利用自然语言处理技术评估员工参与度并生成综合数字化转型指数 [2] - 该平台能帮助企业深入了解员工真实需求 为管理层提供数据驱动的决策支持 助力企业在复杂市场环境中保持竞争力 [2] 实践案例 - 华机制造有限公司引入DigitLangPro后 员工参与度提升35% 转型需求识别准确率达88% 整体转型效率提升23% [3] - 平台通过情感分析判断员工对转型态度 帮助管理层制定针对性培训计划和沟通策略 加速数字化转型进程 [3] 商业效能 - 华机应用DigitLangPro后 项目实施周期缩短23% 直接节省14%运营成本 综合转型指数从64提升至81 [4] - 平台将员工反馈转化为量化数据 提升决策科学性 减少主观判断风险 提供实时转型进度监控指标 [4] 行业影响 - DigitLangPro推动企业重视数字化转型中管理理念和员工参与度的变革 帮助企业在竞争中脱颖而出 [5] - 平台的成功应用为行业提供参考经验 促进整个行业对数字化转型的重视和投入 [5] 未来应用 - 平台有望在金融行业评估客户对数字化服务接受度 优化银行产品设计 [6] - 在医疗领域可辅助医院提升患者满意度 优化服务流程 推动社会数字化进程 [6]
中美AI差距有多大,AI竞争焦点在哪?《全球人工智能科研态势报告》全球首发
钛媒体APP· 2025-07-03 18:36
全球AI科研态势 - 报告基于2015-2024年96961篇AI领域文献分析,由联合国工业发展组织与东壁科技数据联合发布,采用东壁指数评价体系 [2] - 全球AI科研演进分为四个阶段:初始起步期(2015-2016年论文量4421→3628篇)、快速发展期(2017-2019年突破万篇)、成熟高峰期(2020-2023年达17074篇)、波动调整期(2024年回落至14786篇) [5][6] - 技术路径从传统机器学习(2015-2017)→深度学习/计算机视觉(2018-2020)→大语言模型/生成式AI(2021-2023)→可解释性AI/多智能体系统(2024-) [6] 中美AI人才对比 - 全球AI人才57.7%集中在中美两国,美国6.3万人领先,中国5.2万人以28.7%年复合增速追赶 [7][8] - 美国形成"人才旋转门"机制(高校企业流动率37%),中国互通率不足15% [10] - 华人学者在美表现突出:全球百人榜中20位在美学者里华人占10位,女性榜11位在美学者含3位华人女性 [3] 机构与企业表现 - 顶尖机构榜:中国占38席(中科院2386人才/4639篇论文),美国35席(总论文35117篇/被引228万次) [7] - 美国企业学术产出优势显著:谷歌(2895篇)+微软(1582篇)+Meta(1419篇)总量是中国TOP3企业(腾讯1354+阿里1034+华为885)的1.8倍 [9][10] - 中国企业应用导向突出:计算机视觉论文比美国高40.8%,知识图谱高50.1%,在自动驾驶/移动支付等场景落地强劲 [11] 技术发展趋势 - 深度学习关键词频率十年增长84倍,2018-2023年均增速217%,2024年进入平台期(增速30%) [14] - 计算机视觉形成"目标检测(78%热词)-语义分割-视觉应用"闭环,语义理解类关键词2022年后年均增45% [14] - Transformers技术2022年后崛起,工程化关键词如特征提取/优化持续升温 [15] 区域与性别特征 - 亚太创新中心崛起:北京/上海/深圳/新加坡/首尔进入全球20大人才聚集区,微软在华部署714人占其全球AI人才29% [13] - 中国AI女性人才占比仅9.3%(美国20.1%),头部企业女性占比6.1%远低于谷歌/微软的18.7% [12][13]
突破通用领域推理的瓶颈!清华NLP实验室强化学习新研究RLPR
机器之心· 2025-06-27 08:49
核心观点 - 清华大学自然语言处理实验室提出基于参考概率奖励的强化学习(RLPR)技术,解决了现有RLVR范式在通用领域的应用局限 [4][7][24] - RLPR通过Prob-to-Reward方法和动态过滤机制显著提升奖励质量和训练稳定性,在Gemma、Llama、Qwen等主流模型上验证有效 [7][8][22][24] - 该方法利用大语言模型生成参考答案的概率作为奖励信号,无需领域特定规则验证器,实现领域无关的高效奖励生成 [13][14] 技术原理 - 观察到LLM生成参考答案的概率与推理质量高度相关,错误推理会导致参考答案生成概率显著下降 [11] - 提出构建不含思维链过程的对照奖励,通过差值计算去除无关因素干扰,实现奖励纠偏 [16] - 采用基于奖励标准差的动态过滤机制,结合EMA更新阈值,提升训练稳定性 [17] 性能优势 - PR奖励在0.5B规模即优于规则奖励和验证器模型奖励,通用领域质量可达0.91 ROC-AUC [19] - 在Qwen2.5 3B模型上使用不同训练模板均能取得稳定性能提升 [21] - 在Gemma、Llama等基座模型上超越使用规则奖励的RLVR基线 [22] 应用价值 - 突破现有RLVR局限于数学/代码领域的限制,可拓展至自然语言通用领域 [3][4][24] - 仅需一次前向传播即可生成奖励,显著降低人力和工程资源投入 [13] - 相关代码、模型、数据和论文已全部开源 [8][9]
股吧散户评论是股市的晴雨表吗?
东北证券· 2025-06-25 15:12
报告核心观点 - 基于东方财富网上证指数吧散户评论构建的指标与上证指数有同步走势关系,但不同年份关联不稳定 [2][116] - 散户情绪易被短期价格波动影响,情绪指标是价格波动结果,看多或看空观点是对当前价格反应 [3][116] - 以技术分析思路观察情绪指标,其突破阈值时市场走势会相应转变,可辅助判断市场后续走势 [3][111][117] 前言 - 互联网普及使投资者在评论区发表观点,可能影响交易决策,可通过自然语言处理分析评论信息 [10] - 采用 BERT 模型和情感词典方法识别评论情感,分析散户评论行为及价值 [11] 自然语言处理方法之 BERT 模型介绍 - 自然语言处理融合多学科,含理解和生成两方面,旨在实现人机有效沟通 [12] - 2018 年 BERT 模型问世改写局面,其是基于 Transformer 的双向预训练语言模型,表征基于所有层左右语境 [13][15] - BERT 技术原理是“双向预训练 + 任务特定微调”,预训练基于掩码语言模型与下一句预测任务 [18] - BERT 核心优势是通用性,学习到的语言表征可迁移到几乎所有 NLP 任务 [32] 基于投资者评论文本的情感分析 投资者文本数据的获取和预处理 - 东方财富网上证指数吧评论可刻画投资者情绪,对市场舆情判断有参考意义 [34] - 对评论进行筛选,保留近 500 万条评论文本数据,其长度、月度发帖等分布与散户评论行为认知一致 [37] 基于 BERT 模型的评论文本分析 - 用 BERT 模型对评论进行情感标注,分为看多、看空和中性三类 [48] - 评估模型分类效果,BERT 模型在训练集和测试集上有一定准确度 [54] - 情绪得分多数为负值,与行情同步,与指数涨跌幅、成交额相关性随机不稳定 [67] 基于情感词典的评论文本分析 - 基于情感词典的文本分析通过匹配词汇计算得分判断文本情感,金融情感词典更适配金融文本 [69] - 采用姚加权等人的金融情感词典,结合正式和非正式用语词典分析评论 [72] - 基于情感词典的评论情感标签分布与 BERT 模型结果相近,看空评论多于看多评论 [79] - 定义情绪分歧度,其反映多空情绪强弱,与市场走势有关,分歧度高可能预示市场变化 [82][84] - 看空情绪指标与上证指数走势同步,无显著领先性,上下行关系不稳定 [91] - 看空情绪指标边际变化与当天上证指数涨跌幅负相关,与次日无显著相关性 [95] - 当日看空情绪变化与次日上证指数成交额负相关,相关性随时间推移减弱 [107] - 从技术分析角度,情绪指标突破阈值时可预示市场走势变化 [111][112] 总结 - 分析股吧评论特征及价值,考察相关指标与上证指数关系,走势关系同步但不稳定 [116] - 散户情绪受价格波动影响,评论是情绪宣泄,情绪指标可辅助判断市场走势 [116][117] 参考文献 - 引用姚加权等人关于金融情绪词典的论文和 Devlin 等人关于 BERT 模型的论文 [118]
大佬面对面!斯坦福2025 CS336课程全公开:从零开始搓大模型~
自动驾驶之心· 2025-06-24 19:47
课程概述 - 斯坦福大学2025年春季CS336课程「从头开始创造语言模型」已全面上线网络 提供完整课程视频和主页链接[2][4] - 课程目标为引导学生从零开发语言模型 覆盖预训练数据收集 Transformer构建 模型训练及部署评测全流程[5] 师资团队 - 核心讲师Tatsunori Hashimoto为斯坦福计算机科学系助理教授 研究成果累计引用超3万次 研究方向聚焦机器学习模型性能权衡[3] - 联合讲师Percy Liang为斯坦福副教授兼基础模型研究中心主任 学术引用量超10万 主导多项AI领域研究项目[3] 课程模块 - 五大模块涵盖基础 系统 扩展 数据 对齐和推理强化学习 强调实践操作与深度技术掌握[7] - 实践要求包括Python编程能力 PyTorch熟练度 系统优化经验及数学基础(线性代数 概率统计等)[7] 实践作业 - 作业1要求实现BPE分词器 Transformer架构和Adam优化器 仅允许使用PyTorch原语进行模型训练[8] - 作业2聚焦GPU加速 需在Triton中实现Flash Attention 2及分布式并行优化[8] - 作业3涉及Scaling Law拟合 学生需在有限计算预算内通过训练API收集数据点[8] - 作业4侧重数据工程 要求完成Common Crawl数据清洗 去重及有害内容过滤[8] - 作业5要求实现监督微调 专家迭代等对齐技术 在Qwen 2 5 Math 1 5B模型上运行强化学习[8] 课程安排 - 18周课程包含16次讲座和2次嘉宾分享 内容覆盖分词 GPU并行 混合专家系统 推理优化等核心技术[9] - 作业周期与课程紧密衔接 例如第5周完成作业1提交后立即发布作业2 强化学习实践贯穿后期课程[9]