Workflow
机器翻译
icon
搜索文档
“翻译界哈佛”倒闭,AI杀死首个世界名校?
虎嗅APP· 2025-09-05 19:27
学校关闭决策 - 蒙特雷国际研究学院(MIIS)将于2027年6月正式停止招收研究生[3] - 学院所有住校研究生项目和部分在线学位课程将在明年6月前终止[8] - 该决定直接源于财务压力 学院目前面临2500万美元年度亏损[30] 财务与运营状况 - 明德学院今年4月出现1410万美元巨额赤字 其中870万美元由MIIS直接造成[23] - 全日制入学人数自2009年持续下降 目前仅440名学生 不足850人目标的一半[30] - 削减教职工福利和扩大招生等自救措施适得其反 引发师生大规模抗议[24][25] 行业冲击与职业影响 - 微软研究报告将口译和笔译员列为TOP 40高危职业首位 替代评分达0.49[11][40] - 该职业在美国就业人数为51,560人 AI覆盖度0.98 完成度0.88[12][42] - 专业翻译人员收入锐减 "译后编辑"(PED)工作报酬仅为正常翻译的1/4[52] 技术发展现状 - AI翻译实现毫秒级延迟 Meta AI实时翻译模型延迟已缩短至2秒内[56] - 谷歌翻译支持超70种语言实时双向对话[31] - 技术仍存在局限 术语管理和分类仍需人工干预[62][64] 市场反应与个案影响 - 高端学术会议已普遍采用AI口译服务[2] - 从业15年的专业翻译面临生计困难 医疗制药等专业领域同样受影响[48][50] - 有翻译从业者转行从事清洁工等职业[52]
腾讯混元最新开源成“最强翻译”:国际机器翻译比赛获30个语种第一
量子位· 2025-09-03 13:49
国际翻译比赛表现 - 腾讯混元Hunyuan-MT-7B模型在ACL WMT2025比赛中获得31个语种中的30个第一名 处于绝对领先地位[4] - 该模型以7B总参数量击败了众多参数更大的模型 包括Gemini-2.5-Pro、GPT-4.1、Qwen3-235B等大型模型[4][5] - 比赛要求参数规模≤20B 且只能使用公开数据训练 在严格约束下取得优异成绩[5][29] 技术框架创新 - 采用协同增强策略优化(Shy)框架 包含基础模型开发和集成策略两大组成部分[15][19] - 基础模型开发通过持续预训练、监督微调和GRPO强化学习三阶段构建[16][17] - 集成策略采用学习型集成方法 通过生成多个候选翻译并训练专门模型进行智能选择或组合[18][26][27] 算法突破 - 首次在机器翻译领域应用GRPO(组相对策略优化)算法 采用组内相对优势替代全局基线[21][22] - GRPO算法显著降低梯度方差 提升训练稳定性 并提高样本效率加速模型收敛[23][24] - 采用复合奖励函数r=0.2×BLEU+0.4×XCOMET+0.4×DeepSeek 综合评估准确性、语义质量和流畅性[24] 模型性能优势 - 支持33个语种和5种民汉语言/方言互译 包括中文、英语、日语及捷克语、马拉地语等小语种[1][4] - 在Flores200测评数据集上表现卓越 明显领先同尺寸模型 与超大尺寸模型效果相当[6][8][9] - 在英语-简体中文翻译任务中AutoRank达到满分1.0 得分87.2 领先第二名Gemini-2.5-Pro的85.2分[5] 应用与部署优势 - 计算效率高 7B模型推理速度快 经FP8量化压缩后推理性能提升30%[30] - 部署友好 可在从高端服务器到边缘设备的多样化硬件环境中运行[30] - 已接入腾讯会议、企业微信、QQ浏览器、翻译君等多个业务产品[30] 开源生态建设 - 模型完全开源 基于Hunyuan-7B基础模型构建[2][31] - 使用OPUS Collection、ParaCrawl、UN Parallel Corpus等公开数据集训练[16][31] - 提供GitHub和HuggingFace等多个平台访问渠道 降低技术门槛[35] 行业方法论价值 - 为垂直领域专业化优化提供可借鉴模板 涵盖数据、算法、架构等多维度系统性设计[33][34] - 学习型集成方法实现从启发式到学习型的跃升 为模型融合提供新思路[26][34] - GRPO算法证明强化学习在序列生成任务中的潜力 具有行业推广价值[21][34]
全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
搜狐财经· 2025-09-02 19:32
模型开源与性能 - 腾讯混元于9月1日开源轻量级翻译模型Hunyuan-MT-7B 总参数量7B 支持33个语种及5种民汉语言/方言互译 [1] - 同步开源业界首个翻译集成模型Hunyuan-MT-Chimera-7B 可综合多个模型结果生成更优翻译 支持接入Deepseek等第三方模型 [3] - 在ACL WMT2025比赛中 该模型获得31个语种中30个第一名 涵盖中文英语日语及捷克语等小语种 [4] 技术优势与突破 - 模型采用完整训练范式 覆盖预训练CPT监督调参翻译强化和集成强化全链条 [4] - 基于FP8量化压缩技术 推理性能提升30% 支持高端服务器到边缘设备的多硬件部署 [6] - 在Flores200测评数据集上表现卓越 效果领先同尺寸模型且不逊于超大尺寸模型 [4] 应用场景与生态建设 - 模型已接入腾讯会议企业微信QQ浏览器翻译君等业务 助力产品体验提升 [6] - 公司自2023年起持续开源文生文文生图视频生成及3D生成能力工具集 相关模型多次登顶开源社区热度榜 [7] - 模型已在腾讯官网Huggingface及Github提供下载 技术报告与论文同步公开 [7]
AI模型终于能翻译“拼多多砍一刀”了
36氪· 2025-09-02 16:25
腾讯混元机器翻译模型发布 - 腾讯混元开源首批翻译模型Hunyuan-MT-7B和Hunyuan-MT-Chimera-7B 支持33个语种互译 包括粤语、维吾尔语、藏语等少数民族语言或方言 [1] - 模型重点优化中文与少数民族语言双向翻译 采用针对性数据整理和优化措施 显著提升资源匮乏环境下的翻译效果 [4] - 模型基于腾讯自研AngelSlim大模型压缩工具进行FP8量化压缩 推理性能提升30% 7B尺寸可在消费级GPU流畅运行 [7] 模型性能表现 - 在WMT 2025通用机器翻译任务中 Hunyuan-MT-7B在31对语言组合互译中获得30项第一 涵盖中文、英语等资源丰富语言及捷克语、冰岛语等资源匮乏语言 [4] - 在FLORES-200和WMT24pp等基准测试中 模型表现超越同尺寸模型及谷歌翻译等专用系统 甚至击败参数数十倍于它的DeepSeek-V3等模型 [2][23] - 在汉语与少数民族语言翻译任务中 Hunyuan-MT-7B获得0.6082分 Hunyuan-MT-Chimera-7B获得0.6089分 高于所有竞品 最接近的Gemini-2.5-Pro为0.5811分 [27] 技术特点与创新 - 模型能精准理解网络用语、游戏用语等并结合语境意译 如将"砍一刀"准确翻译为拼多多降价机制 将"小红薯"理解为社交平台REDnote [8][9] - 采用"弱到强"强化学习方法 Hunyuan-MT-Chimera-7B在推理阶段整合不同系统的多条候选译文 生成质量超越单一候选译文的输出 [5] - 预训练数据包含1.3万亿个token的非中英文少数语种数据集 涵盖112种语言及方言 通过多语种数据质量评估模型进行加权处理 [19] 应用场景与局限性 - 模型在游戏场景、俚语表达和专业术语翻译上表现优异 能正确翻译医学术语和完整地址 而谷歌翻译往往保持原文不变 [10][12] - 但在专业翻译考试中表现一般 在CATTI真题翻译中出现会议名称错误和缩写混淆等问题 仅达到入门级译者水平 [15][16][17] - 模型在文化背景理解和语用处理上优势明显 能恰当翻译非正式语言和强调性脏话 避免直译为粗俗用语 [13] 行业意义与发展 - 机器翻译模型对开展跨国业务的企业具有现实价值 可替代或加速部分人工翻译流程 实现降本增效 [28] - 生成式AI为机器翻译带来新解决方案 越来越多厂商使用Transformer等新架构打造翻译模型 [28] - 腾讯混元通过监督微调、强化学习和弱到强强化学习三种后训练方法进一步提升模型翻译能力 [24][25]
同花顺:上半年净利润同比增长38.29% 拟10派1元
格隆汇APP· 2025-08-22 20:13
财务表现 - 2025年上半年实现营业收入17.79亿元 同比增长28.07% [1] - 实现归属于上市公司股东的净利润5.02亿元 同比增长38.29% [1] - 拟向全体股东每10股派发现金红利1元(含税) [1] 业务驱动因素 - 受资本市场回暖影响 公司网站和APP用户活跃度上升 [1] - 广告及互联网推广服务业务收入增加 [1] - 投资者对金融信息服务需求上升 增值电信业务收入增加 [1] 技术发展 - 报告期内公司大模型、智能语音、自然语言处理技术取得较大突破 [1] - 机器翻译、图形图像等技术应用取得较大突破 [1]
理想VLA实质是强化学习占主导的持续预测下一个action token
理想TOP2· 2025-08-11 17:35
核心观点 - 对predict the next token的不同理解反映了对LLM或AI潜力与实质的认知差异 [1] - 认为predict the next token超越统计学的人更倾向于认可LLM潜力大、推理过程是意识雏形、超级对齐重要 [1] - 理想VLA架构通过连续预测action token实现物理世界理解,类比OpenAI的O1O3 [1][10] - 辅助驾驶比chatbot更适合强化学习,因奖励函数更明确且仿真环境更简单 [12][13] Ilya的观点与背景 - Ilya是OpenAI前首席科学家,推动AlexNet、AlphaGo、TensorFlow等多项AI领域突破 [3] - 他认为predict the next token能超越人类表现,因足够聪明的神经网络可推断"理想人物"行为 [4][8] - 预测token的本质是理解其背后的现实世界逻辑,而非单纯统计学 [6][7] - Ilya的论证风格严谨,常以"误差范围对数刻度"等表述体现审慎态度 [9] 理想VLA的技术逻辑 - VLA架构通过传感器输入实时输出action token,结合diffusion优化轨迹,实现物理世界理解 [10] - VLA在NOA开启期间连续预测action token,其推理过程被视为一种动态意识 [11] - 理想将AI软件(神经网络权重)与硬件平台高效结合,技术整合含金量被低估 [13] 辅助驾驶与AI软件的差异 - 辅助驾驶的强化学习优势在于明确奖励函数(安全/舒适/效率)和可仿真性 [12][13] - AI软件内核是神经网络权重,与传统代码式开发范式存在根本差异 [13] - 硬件迭代速度慢于软件,AI软件需AB测试快速迭代,与硬件开发逻辑冲突 [13]