人工智能模型开源
搜索文档
阿里开源三款中型千问3.5新模型,可直接部署于消费级显卡
贝壳财经· 2026-02-25 16:00
公司动态 - 阿里巴巴于2月25日开源了千问3.5系列的三款中等规模新模型,包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B和Qwen3.5-27B [1] - 此次开源是在除夕开源Qwen3.5-397B-A17B之后的后续动作 [1] 技术性能 - 基于架构创新和训练突破,新开源的三款千问3.5模型均创下中等尺寸模型的性能新高 [1] - 新模型性能超越了更大尺寸的上代旗舰模型Qwen3-235B-A22B和Qwen3-VL [1] - 新模型在多榜单表现上均明显优于GPT-5 mini [1] - 千问3.5模型采用混合注意力机制,结合高稀疏的MoE架构创新,并基于更大规模的文本和视觉混合Token进行训练 [1] - 新模型以更小的总参数和激活参数量,实现了性能提升 [1] 部署与成本 - 千问3.5新模型可直接部署于消费级显卡,对开发者极为友好 [1] - 基于Qwen3.5-35B-A3B的托管模型Qwen3.5-Flash已上线阿里云百炼,每百万Token输入成本低至0.2元 [1]
阿里千问开源Qwen3-Coder-Next模型
新浪财经· 2026-02-04 07:37
公司动态 - 公司于2月4日宣布开源其高效混合专家模型Qwen3-Coder-Next [1] - 该模型专为编程智能体与本地开发设计,总参数规模达800亿,但每次推理仅激活30亿参数 [1] - 公司现阶段已正式开源Qwen3-Coder-Next的Base与Instruct两个版本,全面支持研究、评测及商业应用 [1] 行业技术趋势 - 公司此次发布展示了混合专家模型在提升推理效率方面的应用,通过仅激活部分参数(30亿/800亿)来实现高效计算 [1] - 开源专为编程场景设计的模型,有助于推动AI在代码生成与开发辅助领域的应用普及和生态发展 [1] - 同时发布基础模型与指令调优模型,为行业提供了从研究到商业化的完整工具链支持 [1]
智谱开源GLM-OCR模型:仅0.9B参数,多项基准取得SOTA表现
凤凰网· 2026-02-03 09:56
模型发布与开源 - 智谱公司正式发布并开源了GLM-OCR模型 [1] - 该模型完整SDK与推理工具链已同步开源 [1] 模型性能与参数 - GLM-OCR模型参数规模仅为0.9B [1] - 在公式识别、表格识别、信息抽取的多项主流基准中均取得SOTA表现 [1] - 处理PDF文档的吞吐量可达1.86页/秒 [1] 技术架构与部署 - 模型采用“编码器-解码器”架构,集成了自研的CogViT视觉编码器 [1] - 采用“版面分析→并行识别”的两阶段技术流程 [1] - 支持vLLM、SGLang和Ollama部署 [1] - 适用于高并发及边缘计算场景 [1] 应用场景与优化 - 模型针对手写体、复杂表格、代码文档、印章识别及多语言混排等场景进行了优化 [1] 商业化定价 - 通过API调用,其定价为0.2元/百万Tokens [1]
智谱上线并开源GLM-4.7
新京报· 2025-12-23 14:21
公司动态 - 智谱于12月23日上线并开源了其新一代模型GLM-4.7 [1] - 新模型GLM-4.7在编程、推理与智能体三个维度实现突破 [1] - GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线全新Skills模块 [1] 产品技术 - GLM-4.7面向Coding场景强化了编码能力、长程任务规划与工具协同 [1] - 新版本显著提升了模型在多语言编码和在终端智能体中的效果 [1] - 该模型可以在Claude Code、TRAE等编程框架中实现“先思考、再行动”的机制,在复杂任务上有更稳定的表现 [1] - GLM-4.7在多项主流公开基准测试中取得开源模型中的领先表现 [1] - 全新Skills模块支持多模态任务的统一规划与协作执行 [1]
通义DeepResearch重磅开源
上海证券报· 2025-09-18 13:10
核心观点 - 通义首个深度研究Agent模型DeepResearch正式开源,参数为30B(激活3B),在多个权威评测集上取得SOTA成绩 [1] 模型训练 - 构建了以合成数据驱动、贯穿预训练与后训练的完整训练链路,无需依赖昂贵的人工标注 [3] - 以Qwen3-30B-A3B模型为基座进行优化,创新性地设计了覆盖真实与虚拟环境的RL算法验证与训练模块 [3] - 结合高效异步强化学习算法及自动化数据策展流程,显著提升模型迭代速度和泛化能力 [3] - 在推理阶段设计了ReAct和基于自研IterResearch的Heavy两种模式,后者通过test-time scaling策略挖掘模型性能上限 [3] 模型性能 - 在Humanity's Last Exam(HLE)、BrowseComp、BrowseComp-ZH、GAIA、xbench-DeepSearch、WebWalkerQA以及Frames等权威Agent评测集上,以3B激活参数,性能比肩基于OpenAI o3、DeepSeek V3.1和Claude-4-Sonnet等旗舰模型的ReAct Agent [5] 模型应用 - 与高德地图共同开发的"小高老师"人工智能副驾驶,可执行复杂的旅行规划命令 [7] - 通义法睿在DeepResearch架构赋能下,能自主执行复杂的多步骤法律研究任务,模拟初级律师工作流程 [7] 模型系列 - 通义DeepResearch拥有丰富的Agent家族,包括此前开源的WebWalker、WebDancer和WebSailor等 [9] - 相关模型在Agent合成数据、Agent强化学习等领域取得业界领先成绩 [9]
腾讯混元发布4款小尺寸模型并开源 支持消费级显卡运行
新浪科技· 2025-08-04 16:08
腾讯混元模型发布 - 公司发布4款小尺寸开源模型,参数规模分别为0.5B、1.8B、4B、7B,全部开源并支持消费级显卡运行[1] - 新模型兼容主流芯片平台包括ARM、高通、MTK、Intel等,适用于手机、电脑、智能座驾及智能家居设备[1] - 模型已在Github和Huggingface等开源社区上线,获Arm、高通、Intel、联发科技等终端芯片平台支持部署[1] - 实测显示新模型在语言理解、数学、推理等领域得分达领先水平[1] 模型技术特性 - Hunyuan-4B具备32K最大输入/输出能力,总参数48B,激活参数4B,支持256K超长上下文窗口[2] - Hunyuan-7B总参数7B,激活参数7B,最大输入16K/输出32K,同样支持256K上下文窗口[2] - 4B版本适合实时响应场景,在推理性能与准确性上实现双优[2] - 7B版本知识密度显著高于同尺寸模型,专业领域效果接近更大模型,可在消费级GPU高效运行[2] 应用场景优势 - 模型支持金融、教育、医疗等垂直领域低成本微调[2] - 4B版本被推荐为智能座舱优选方案,7B版本适合家用电脑部署[2] - 所有模型支持在回答效率与深度间自由切换,更新时间均为2025年07月25日[2]