书生·万象InternVL3.5

搜索文档
腾讯研究院AI速递 20250902
腾讯研究院· 2025-09-02 00:01
Meta与Scale AI合作破裂及高管变动 - Meta与Scale AI合作仅两个月后出现裂痕 随Scale AI前CEO进入Meta的高管Ruben Mayer已离职[1] - Meta内部研究人员抱怨Scale AI数据质量过低 公司转向与Scale AI竞争对手Mercor和Surge合作[1] - Meta完成143亿天价挖人后多次重组AI部门 Scale AI失去Meta支持后丢失OpenAI和谷歌等大客户并经历大规模裁员[1] Anthropic模型性能问题与修复 - Claude Opus 4.1在上午10-11点期间出现性能显著下降 处理文稿任务频繁出错且仅白天发生[2] - 分析认为性能下降可能因Anthropic采用1.58位量化(仅用-1/0/1三个值表示参数)导致模型丢失关键信息[2] - Anthropic官方承认推理堆栈问题 本意为提升模型效率却影响响应质量 已将Claude Opus 4.1和4.0版本回滚[2] 腾讯混元翻译模型开源与技术突破 - 腾讯开源7B参数翻译模型Hunyuan-MT-7B 支持33个语种和5种民汉语言/方言互译 在WMT2025比赛31个语种中获30个第一[3] - 同步开源业界首个翻译集成模型Hunyuan-MT-Chimera-7B 能根据原文和多个翻译模型结果生成更优翻译[3] - 模型采用AngelSlim压缩工具进行FP8量化 推理性能提升30% 已接入腾讯会议/企业微信/QQ浏览器等业务[3] 阶跃星辰语音大模型发布与性能表现 - 阶跃星辰发布端到端语音大模型Step-Audio 2 mini 统一建模语音理解/音频推理与生成 支持语音原生Tool Calling能力[4] - 模型在MMAU基准测试获73.2分位列开源端到端语音模型榜首 中英互译和语音识别任务大幅领先其他模型[4] - 采用真端到端多模态架构 引入链式思维推理与强化学习联合优化 可精细理解情绪/语调/音乐等副语言和非语音信号[4] 书生·万象3.5模型升级与技术特性 - 上海AI实验室开源发布书生·万象InternVL3.5系列模型 包含10亿至2410亿参数九种尺寸 通用能力/推理能力和部署效率全面升级[5] - 旗舰模型InternVL3.5-241B-A28B在多项基准超越GPT-5 MMMU获77.7分(开源最高) 通过级联式强化学习将推理性能较上代提升16.0分[5][6] - 创新引入动态视觉分辨率路由与解耦部署框架 单次推理延迟由369ms缩短至91ms(提升约4倍) 增强GUI智能体/具身空间推理等核心能力[6] 韩国AI玩偶应用与养老解决方案 - 韩国政府向数万名独居老人分发Hyodol开发的AI玩偶 具备24小时陪伴聊天/提醒吃饭服药/健康监测功能[7] - 玩偶内置基于ChatGPT的对话系统 颈部红外传感器检测动作 胸部麦克风记录老人日常回答 紧急情况下可通知护工[7] - 已有1.2万多台Hyodol玩偶在韩国独居老人家服务 每台售价约8160人民币 远低于护理人员成本 有效缓解养老护理人员缺口[7] AI生成内容标识新规实施与平台响应 - 《人工智能生成合成内容标识办法》9月1日正式实施 要求AI生成的视频/语音/文字/图片必须添加身份标签[8] - 生成合成服务提供者需添加显式和隐式标识 传播服务提供者需核验元数据并加注提示[8] - 腾讯/抖音/快手/B站/DeepSeek等平台已发布细化规则 为AI内容添加明显标识并提供标识功能 禁止用户删除或篡改标识[8] 具身智能强化学习框架开源与技术突破 - 清华大学/北京中关村学院/无问芯穹联合发布RLinf框架 为首个面向具身智能的渲训推一体化大规模强化学习框架[9] - 提出混合式执行模式和宏工作流到微执行流的映射机制(M2Flow) 在具身智能训练场景下实现超120%系统提速[9] - 集成Megatron+SGLang/vLLM和FSDP+HuggingFace两套后端 专为大小脑不同训练需求设计 搭载自适应通信库和自动调度模块[9] DeepSeek模型训练细节披露与合规响应 - DeepSeek发布官方公告响应《人工智能生成合成内容标识办法》 承诺给AI生成内容添加标识并警示用户勿删改[10] - 首次公开《模型原理与训练方法说明》 披露DeepSeek-V3/R1训练细节包括6850亿参数规模/预训练与优化训练流程[10] - 详细披露数据治理体系 采用过滤器自动剔除有害内容 对用户提供知情权/选择权与控制权 承认模型幻觉仍是全行业难题[10]