Workflow
机器翻译
icon
搜索文档
“翻译界哈佛”倒闭:有学生哭了两晚,AI冲击下译员何去何从?
第一财经· 2025-11-11 08:23
作为全球三大顶级翻译学院之一的蒙特雷国际研究院(MIIS),被誉为"翻译界哈佛",不久前宣布将于 2027年夏季正式关停线下研究生项目。和鲁沁一样,几乎全球语言界都被这则消息震动。尽管校方将其 归咎于财务与结构性问题,包括招生规模急剧下降、财务缺口扩大等,但在校生、毕业生乃至整个行业 都清楚,AI的浪潮,是那枚按下加速键的手指。 当"翻译界哈佛"都扛不住行业变革的冲击,翻译从业者早已站在了分叉路口。第一财经记者近期通过采 访多位翻译专业在校生、译员、企业、高校教授后发现,从学界到产业界,一场深刻的结构性变革已然 发生。在大浪淘沙的过程中,谁也不愿意做那个被"淘掉"的沙子,每一位翻译从业者都站在了转型的路 口,他们的现实处境,构成了这场技术洪流中最真实的注脚。 当"翻译界哈佛"都扛不住行业变革的冲击,翻译从业者早已站在了分岔路口。 "你知道吗?我们学校倒闭了。" 还处在新生欢迎周的学生鲁沁,是在逛超市时得知自己成了蒙特雷国际研究院的"末代"学生。 她马上掏出手机,看到了学校发给每位在读学生的邮件,默默念了一句,"啊,真的倒闭了。" "有学生哭了整整两个晚上" "有同学听说学校倒闭的消息后,哭了整整两个晚上,焦虑 ...
俄开发出分析机器翻译错误的应用程序
科技日报· 2025-10-27 07:43
机器翻译行业痛点 - 机器翻译在提升文字处理效率的同时,不稳定的翻译质量成为一大困扰 [1] - 尽管有各种特殊指标可用于分析和改进翻译错误,但低效的校准能力无法满足需求 [1] 新技术解决方案 - 俄罗斯苏尔古特国立大学科学家开发出一款能够分析机器翻译错误的应用程序,有助于提升机器翻译质量 [1] - 该在线翻译分析程序能提供比普通标准方法更深入、更多维的分析结果 [1] - 该程序能进行综合分析,在句法和语义传达层面发现翻译的薄弱环节 [1] - 该工具不仅能评估词汇的匹配度(选词准确度),还能评估语义准确度(意义传递是否正确)和句法结构的正确性(句子构建是否规范) [1] - 与同类工具相比,其主要优势在于将多种评估方法整合到一个自动化工具中 [1] 技术应用与测试结果 - 研究团队对主流在线翻译服务和商用神经网络的译文进行了分析 [1] - 针对每份译文都生成了详细报告,任何指标得分较低的句子都会自动标亮以供进一步分析 [1] - 部分翻译工具在词汇匹配度方面表现良好,但所有参与测试的系统在翻译复杂语法结构时都遇到了困难 [1] 工具价值与意义 - 该工具不仅能提供整体评估,更能精确识别错误类型,无论是词汇、语法还是语义 [2] - 这使分析过程更加高效,有助于明确机器翻译系统的改进方向 [2]
阿里国际Marco获WMT机器翻译大赛六项冠军,英中赛道超GPT-4.1与Gemini 2.5 Pro等巨头
财经网· 2025-10-23 13:56
赛事成绩与排名 - 阿里国际AI的翻译大模型Marco-MT-Algharb在2025年WMT大赛中斩获6项冠军、4项亚军和2项季军 [1] - 在最受关注的英中语向上,该模型超越了Gemini 2.5 Pro、GPT-4.1、Claude 4和Mistral-Medium等所有顶尖闭源AI系统,登顶榜首 [1] - 该模型在包括英译中在内的13个核心语向表现优异,并在英译中等多个语向上表现超过人工翻译 [1][3] 技术路径与创新 - 模型参加的是难度更高的受限赛道,要求仅使用开源数据和模型,且模型规模不超过200亿参数 [2] - 成功的关键在于将电商翻译训练经验与原创训练方法M2PO(多阶段偏好优化)相结合,首次将强化学习范式应用于大模型翻译领域 [2] - M2PO系统分三步提升翻译质量:通过两轮监督微调拓宽知识基础;引入强化学习让模型学会判断译文优劣;在解码阶段融合词对齐与重排序技术 [2] 行业地位与影响 - WMT的人工评测被视为机器翻译领域的“黄金标准”,其评测结果被全球学术界与工业界视为技术风向标 [1][3] - 此次获奖标志着Marco-MT从电商行业翻译迈向通用翻译的领先行列 [1] - 该模型发布于2024年,最初专注于电商场景翻译,高质量、低幻觉率等核心优势为其向通用翻译拓展打下坚实基础 [3] 业务基础与多模态能力 - 模型已接入公司旗下的电商平台,支持搜索、商品信息、对话、图片等多种场景的翻译 [3] - 跨文化、多语种的业务需求使其具备高质量、低幻觉率等核心优势 [3] - 模型在机器翻译领域展现出多模态竞争力,此前已在2025年IWSLT国际语音翻译赛事中斩获2项冠军和2项亚军 [3]
“翻译界哈佛”倒闭,AI杀死首个世界名校?
虎嗅APP· 2025-09-05 19:27
学校关闭决策 - 蒙特雷国际研究学院(MIIS)将于2027年6月正式停止招收研究生[3] - 学院所有住校研究生项目和部分在线学位课程将在明年6月前终止[8] - 该决定直接源于财务压力 学院目前面临2500万美元年度亏损[30] 财务与运营状况 - 明德学院今年4月出现1410万美元巨额赤字 其中870万美元由MIIS直接造成[23] - 全日制入学人数自2009年持续下降 目前仅440名学生 不足850人目标的一半[30] - 削减教职工福利和扩大招生等自救措施适得其反 引发师生大规模抗议[24][25] 行业冲击与职业影响 - 微软研究报告将口译和笔译员列为TOP 40高危职业首位 替代评分达0.49[11][40] - 该职业在美国就业人数为51,560人 AI覆盖度0.98 完成度0.88[12][42] - 专业翻译人员收入锐减 "译后编辑"(PED)工作报酬仅为正常翻译的1/4[52] 技术发展现状 - AI翻译实现毫秒级延迟 Meta AI实时翻译模型延迟已缩短至2秒内[56] - 谷歌翻译支持超70种语言实时双向对话[31] - 技术仍存在局限 术语管理和分类仍需人工干预[62][64] 市场反应与个案影响 - 高端学术会议已普遍采用AI口译服务[2] - 从业15年的专业翻译面临生计困难 医疗制药等专业领域同样受影响[48][50] - 有翻译从业者转行从事清洁工等职业[52]
腾讯混元最新开源成“最强翻译”:国际机器翻译比赛获30个语种第一
量子位· 2025-09-03 13:49
国际翻译比赛表现 - 腾讯混元Hunyuan-MT-7B模型在ACL WMT2025比赛中获得31个语种中的30个第一名 处于绝对领先地位[4] - 该模型以7B总参数量击败了众多参数更大的模型 包括Gemini-2.5-Pro、GPT-4.1、Qwen3-235B等大型模型[4][5] - 比赛要求参数规模≤20B 且只能使用公开数据训练 在严格约束下取得优异成绩[5][29] 技术框架创新 - 采用协同增强策略优化(Shy)框架 包含基础模型开发和集成策略两大组成部分[15][19] - 基础模型开发通过持续预训练、监督微调和GRPO强化学习三阶段构建[16][17] - 集成策略采用学习型集成方法 通过生成多个候选翻译并训练专门模型进行智能选择或组合[18][26][27] 算法突破 - 首次在机器翻译领域应用GRPO(组相对策略优化)算法 采用组内相对优势替代全局基线[21][22] - GRPO算法显著降低梯度方差 提升训练稳定性 并提高样本效率加速模型收敛[23][24] - 采用复合奖励函数r=0.2×BLEU+0.4×XCOMET+0.4×DeepSeek 综合评估准确性、语义质量和流畅性[24] 模型性能优势 - 支持33个语种和5种民汉语言/方言互译 包括中文、英语、日语及捷克语、马拉地语等小语种[1][4] - 在Flores200测评数据集上表现卓越 明显领先同尺寸模型 与超大尺寸模型效果相当[6][8][9] - 在英语-简体中文翻译任务中AutoRank达到满分1.0 得分87.2 领先第二名Gemini-2.5-Pro的85.2分[5] 应用与部署优势 - 计算效率高 7B模型推理速度快 经FP8量化压缩后推理性能提升30%[30] - 部署友好 可在从高端服务器到边缘设备的多样化硬件环境中运行[30] - 已接入腾讯会议、企业微信、QQ浏览器、翻译君等多个业务产品[30] 开源生态建设 - 模型完全开源 基于Hunyuan-7B基础模型构建[2][31] - 使用OPUS Collection、ParaCrawl、UN Parallel Corpus等公开数据集训练[16][31] - 提供GitHub和HuggingFace等多个平台访问渠道 降低技术门槛[35] 行业方法论价值 - 为垂直领域专业化优化提供可借鉴模板 涵盖数据、算法、架构等多维度系统性设计[33][34] - 学习型集成方法实现从启发式到学习型的跃升 为模型融合提供新思路[26][34] - GRPO算法证明强化学习在序列生成任务中的潜力 具有行业推广价值[21][34]
全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
搜狐财经· 2025-09-02 19:32
模型开源与性能 - 腾讯混元于9月1日开源轻量级翻译模型Hunyuan-MT-7B 总参数量7B 支持33个语种及5种民汉语言/方言互译 [1] - 同步开源业界首个翻译集成模型Hunyuan-MT-Chimera-7B 可综合多个模型结果生成更优翻译 支持接入Deepseek等第三方模型 [3] - 在ACL WMT2025比赛中 该模型获得31个语种中30个第一名 涵盖中文英语日语及捷克语等小语种 [4] 技术优势与突破 - 模型采用完整训练范式 覆盖预训练CPT监督调参翻译强化和集成强化全链条 [4] - 基于FP8量化压缩技术 推理性能提升30% 支持高端服务器到边缘设备的多硬件部署 [6] - 在Flores200测评数据集上表现卓越 效果领先同尺寸模型且不逊于超大尺寸模型 [4] 应用场景与生态建设 - 模型已接入腾讯会议企业微信QQ浏览器翻译君等业务 助力产品体验提升 [6] - 公司自2023年起持续开源文生文文生图视频生成及3D生成能力工具集 相关模型多次登顶开源社区热度榜 [7] - 模型已在腾讯官网Huggingface及Github提供下载 技术报告与论文同步公开 [7]
AI模型终于能翻译“拼多多砍一刀”了
36氪· 2025-09-02 16:25
腾讯混元机器翻译模型发布 - 腾讯混元开源首批翻译模型Hunyuan-MT-7B和Hunyuan-MT-Chimera-7B 支持33个语种互译 包括粤语、维吾尔语、藏语等少数民族语言或方言 [1] - 模型重点优化中文与少数民族语言双向翻译 采用针对性数据整理和优化措施 显著提升资源匮乏环境下的翻译效果 [4] - 模型基于腾讯自研AngelSlim大模型压缩工具进行FP8量化压缩 推理性能提升30% 7B尺寸可在消费级GPU流畅运行 [7] 模型性能表现 - 在WMT 2025通用机器翻译任务中 Hunyuan-MT-7B在31对语言组合互译中获得30项第一 涵盖中文、英语等资源丰富语言及捷克语、冰岛语等资源匮乏语言 [4] - 在FLORES-200和WMT24pp等基准测试中 模型表现超越同尺寸模型及谷歌翻译等专用系统 甚至击败参数数十倍于它的DeepSeek-V3等模型 [2][23] - 在汉语与少数民族语言翻译任务中 Hunyuan-MT-7B获得0.6082分 Hunyuan-MT-Chimera-7B获得0.6089分 高于所有竞品 最接近的Gemini-2.5-Pro为0.5811分 [27] 技术特点与创新 - 模型能精准理解网络用语、游戏用语等并结合语境意译 如将"砍一刀"准确翻译为拼多多降价机制 将"小红薯"理解为社交平台REDnote [8][9] - 采用"弱到强"强化学习方法 Hunyuan-MT-Chimera-7B在推理阶段整合不同系统的多条候选译文 生成质量超越单一候选译文的输出 [5] - 预训练数据包含1.3万亿个token的非中英文少数语种数据集 涵盖112种语言及方言 通过多语种数据质量评估模型进行加权处理 [19] 应用场景与局限性 - 模型在游戏场景、俚语表达和专业术语翻译上表现优异 能正确翻译医学术语和完整地址 而谷歌翻译往往保持原文不变 [10][12] - 但在专业翻译考试中表现一般 在CATTI真题翻译中出现会议名称错误和缩写混淆等问题 仅达到入门级译者水平 [15][16][17] - 模型在文化背景理解和语用处理上优势明显 能恰当翻译非正式语言和强调性脏话 避免直译为粗俗用语 [13] 行业意义与发展 - 机器翻译模型对开展跨国业务的企业具有现实价值 可替代或加速部分人工翻译流程 实现降本增效 [28] - 生成式AI为机器翻译带来新解决方案 越来越多厂商使用Transformer等新架构打造翻译模型 [28] - 腾讯混元通过监督微调、强化学习和弱到强强化学习三种后训练方法进一步提升模型翻译能力 [24][25]
同花顺:上半年净利润同比增长38.29% 拟10派1元
格隆汇APP· 2025-08-22 20:13
财务表现 - 2025年上半年实现营业收入17.79亿元 同比增长28.07% [1] - 实现归属于上市公司股东的净利润5.02亿元 同比增长38.29% [1] - 拟向全体股东每10股派发现金红利1元(含税) [1] 业务驱动因素 - 受资本市场回暖影响 公司网站和APP用户活跃度上升 [1] - 广告及互联网推广服务业务收入增加 [1] - 投资者对金融信息服务需求上升 增值电信业务收入增加 [1] 技术发展 - 报告期内公司大模型、智能语音、自然语言处理技术取得较大突破 [1] - 机器翻译、图形图像等技术应用取得较大突破 [1]
理想VLA实质是强化学习占主导的持续预测下一个action token
理想TOP2· 2025-08-11 17:35
核心观点 - 对predict the next token的不同理解反映了对LLM或AI潜力与实质的认知差异 [1] - 认为predict the next token超越统计学的人更倾向于认可LLM潜力大、推理过程是意识雏形、超级对齐重要 [1] - 理想VLA架构通过连续预测action token实现物理世界理解,类比OpenAI的O1O3 [1][10] - 辅助驾驶比chatbot更适合强化学习,因奖励函数更明确且仿真环境更简单 [12][13] Ilya的观点与背景 - Ilya是OpenAI前首席科学家,推动AlexNet、AlphaGo、TensorFlow等多项AI领域突破 [3] - 他认为predict the next token能超越人类表现,因足够聪明的神经网络可推断"理想人物"行为 [4][8] - 预测token的本质是理解其背后的现实世界逻辑,而非单纯统计学 [6][7] - Ilya的论证风格严谨,常以"误差范围对数刻度"等表述体现审慎态度 [9] 理想VLA的技术逻辑 - VLA架构通过传感器输入实时输出action token,结合diffusion优化轨迹,实现物理世界理解 [10] - VLA在NOA开启期间连续预测action token,其推理过程被视为一种动态意识 [11] - 理想将AI软件(神经网络权重)与硬件平台高效结合,技术整合含金量被低估 [13] 辅助驾驶与AI软件的差异 - 辅助驾驶的强化学习优势在于明确奖励函数(安全/舒适/效率)和可仿真性 [12][13] - AI软件内核是神经网络权重,与传统代码式开发范式存在根本差异 [13] - 硬件迭代速度慢于软件,AI软件需AB测试快速迭代,与硬件开发逻辑冲突 [13]