Open Source

搜索文档
腾讯,大动作!
中国基金报· 2025-06-27 23:11
腾讯混元开源混合推理MoE模型 - 腾讯混元开源首款混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数13B,是业界首个13B级别开源混合推理模型 [2][4] - 模型在多个权威测试集表现优异,在Agent工具调用和长文理解方面有突出表现,数学测试AIME2024得分87.3,BBH推理测试89.1分,ComplexFuncBench测试61.2分 [4][5] - 模型支持快思考和慢思考两种模式,仅需1张中低端GPU卡即可部署,整体吞吐量是前沿开源模型的2倍以上 [6] - 该模型已在腾讯400+业务中使用,日均请求超1.3亿次 [6] 行业开源趋势 - 2024年以来全球科技巨头已密集发布超10款开源大模型,包括OpenAI、谷歌、Meta、阿里、DeepSeek等公司 [8] - 国内字节跳动、昆仑万维、百度、阿里等公司今年均推出开源模型,头部互联网公司大模型开源加速 [8] - 开源模型通过提供模型权重和训练代码,帮助企业降低开发成本,全球超50%企业已在采用开源AI技术 [9] - 阿里巴巴开源WebAgent AI Agent,具备端到端自主信息检索与多步推理能力 [8] - 字节跳动开源多模态基础模型BAGEL,拥有70亿活跃参数,在标准多模态理解基准测试中优于现有顶级开源模型 [9] 技术发展前景 - 腾讯混元计划推出多尺寸混合推理模型,从0.5B到32B的Dense模型及多个MoE模型,适配不同需求 [9] - 混元图像、视频、3D等多模态基础模型及配套插件模型将持续开源 [9] - 开源模型的灵活性、透明度和成本优势为人工智能产业发展带来新机遇 [2]
EPAM Releases DIAL 3.0: An Evolution of Open-Source GenAI Enterprise Platform
Prnewswire· 2025-06-24 20:02
公司动态 - EPAM Systems发布开源GenAI平台DIAL 3 0 该版本体现了公司通过模块化开源方法推动企业AI采用的愿景 平衡创新速度与长期控制 互操作性和负责任治理[1] - DIAL 3 0旨在帮助客户加速价值交付 同时避免供应商锁定 弥合商业模型与开放创新之间的差距[3] - DIAL已从内部支持工具发展为全面框架 被金融服务 医疗保健 保险 消费品 零售等行业的全球客户用于实施生成式AI[4] 产品技术 - DIAL 3 0支持代理工作流和数据原生推理 解决大规模部署AI时的关键结构性问题 并引入处理结构化和非结构化数据的新方法[4] - 平台帮助组织将领域知识转化为可部署逻辑 适用于不同用例 部门和地区 为合规分析师 临床研究人员或运营负责人提供精确开发 监控和迭代AI系统的基础设施[5] - 早期采用者Altera Digital Health表示 DIAL的持续演进和开放透明承诺为其扩展AI解决方案提供了信心[6] 行业趋势 - 企业面临AI生态系统的复杂性 包括模型快速演进 供应商整合和合规要求提高 EPAM持续投资开源平台作为基础推动力[3] - 行业处于战略十字路口 需在内部能力建设与商业GenAI平台之间做出选择 EPAM提倡结合平台思维和开源灵活性的混合策略[4] 公司背景 - EPAM Systems自1993年以来凭借软件工程专长 成为数字工程 云和AI转型服务的全球领先提供商 为企业和初创公司提供业务与体验咨询[6] - 通过EPAM Continuum整合战略 体验和技术咨询 结合30多年工程经验 加速客户上市时间并提升数字投资价值[6] - 公司利用AI和GenAI提供变革性解决方案 通过EPAM AI RUN™和DIALX Lab等平台将先进AI技术融入定制业务战略[7] - 2021年入选标普500和福布斯全球2000 在财富1000信息技术服务公司中排名前15 并在IDC MarketScapes多个领域被视为领导者[10]
华为宣布“鸿蒙6来了”鸿蒙生态迈入新阶段
证券日报· 2025-06-21 00:50
鸿蒙6技术突破 - 鸿蒙6国产操作系统启动开发者公测 距离鸿蒙5公测仅8个月 [1] - 系统流畅度提升30% 运行内存节省1.5GB 续航增加近1小时 时延低达毫秒级 [1] - 内核延续全栈自研架构 方舟引擎加持 支持更高效多设备协同 [1] - 发布鸿蒙智能体框架 首批50余款鸿蒙智能体即将上线 [1] - 盘古大模型5.5在自然语言处理 多模态等5大基础模型全面升级 [1] 鸿蒙生态发展 - 超40款华为终端产品搭载鸿蒙5 系统功能增加260多项 [2] - 华为全系终端将全面搭载单框架鸿蒙操作系统 [2] - 鸿蒙开发者数量突破800万个 开源鸿蒙代码超过1.3亿行 [3] - 社区贡献者接近9000位 软硬件产品1200款 三方发行版69款 [3] - 超30000个应用及元服务在开发中 覆盖近20个行业 [3] 行业应用与合作 - 钉钉 飞书等100多个通用办公平台已"鸿蒙化" 覆盖约3800万家企业 [3] - 小红书播放器启播耗时降低 飞书文本渲染器支持20多种样式 [3] - 鸿蒙概念企业约120家 多家上市公司在HDC2025展现合作成果 [3] - 鸿蒙生态以开放姿态吸纳新力量 迈向全新发展阶段 [2][4] - 鸿蒙系统坚持分布式架构 全场景协同 为智能万物互联奠定技术基石 [4]
Claude时代终结?LMArena实测DeepSeek R1编程得分超Opus 4,但月暗称其新模型更胜一筹
AI前线· 2025-06-17 14:56
DeepSeek-R1(0528)性能突破 - 开源模型DeepSeek-R1(0528)在LMArena的WebDev Arena测试中以1408.84分超越Claude Opus 4(1405.51分),与Gemini-2.5-Pro-Preview-06-05(1433.16分)并列第一 [1][4] - 采用混合专家(MoE)架构,总参数量6850亿,单次推理激活370亿参数,支持128K tokens长上下文窗口,在数学推导和代码生成能力上显著提升 [9] - 在细分测试中表现:硬提示词第4、编程第2、数学第5、创意写作第6,多轮对话第7 [7] 开源与闭源模型竞争格局 - DeepSeek-R1以MIT许可证开源,性能对标Claude Opus 4和GPT-4.1,开发者社区认为其免费特性可能改变行业生态 [12][14] - 月之暗面同期发布开源模型Kimi-Dev-72B,在SWE-bench Verified测试中以60.4%得分创开源模型SOTA,超越R1(0528)的编码表现 [23][26] - Kimi-Dev-72B通过BugFixer与TestWriter双角色设计、1500亿数据中期训练及强化学习优化,实现真实仓库Docker修复能力 [28][30][31] 行业争议与动态 - LMArena测试平台被Cohere、斯坦福等机构指控偏袒科技巨头,Meta被指测试27个未公开模型变体以优化榜单排名 [17][19] - 社区对测试结果态度分化:部分开发者认为R1已具备碾压闭源模型的编程辅助能力,另一部分质疑WebDev Arena测试公正性 [16] - 月之暗面与DeepSeek的技术路线差异:前者侧重强化学习与自我博弈机制,后者聚焦训练后优化和计算效率 [26][31][32]
独家秘籍:探索昇思MindSpore如何让SOTA模型迁得快、对得齐
雷峰网· 2025-06-12 16:15
昇思MindSpore技术优势 - 支持大模型训练Day0迁移和推理一键部署,显著降低开发者使用成本[1] - 通过三重兼容术实现主流加速库模型0代码迁移,训练性能提升5%+[5] - 动态图重构使PyTorch开发者获得原生体验,MSAdapter工具自动转换95%以上接口[5] 训练迁移解决方案 - MindSpeed/Megatron桥接层支持PyTorch模型零代码迁移,训练脚本直接运行[5] - 精度自动对比工具实现跨框架/版本/策略调优,主流模型迁移损耗逼近于零[5] - 框架差异化技术提升训练效率,分布式并行策略保持不变的性能优化[5][6] 推理部署创新 - vLLM-MindSpore插件实现HuggingFace模型半小时部署上线[7] - 三层部署范式:HF权重直接加载/20+主流模型开箱即用/百亿模型权重加载耗时降低80%[7] - 启动时延优化至百亿模型<30秒,图编译时延压缩至毫秒级[7] 开源生态建设 - 已支持50+主流大模型,累计获得1200万次下载,覆盖130个国家及2400座城市[8] - 46000+开发者参与,代码合入请求超11万行,产出1700+学术成果[8] - 提供免费算力平台和20+技术SIG组,企业/高校共治技术路线[9][15] 性能突破 - 动态图编译优化使单卡训练效率提升40%[10] - 自动负载均衡工具解决万卡训练木桶效应,线性度突破96%[10] - 昇腾硬件上实现主流模型逐层0误差精度对齐[10]
DeepSeek新版R1直追OpenAI o3!实测来了:“小版本升级”着实不小
量子位· 2025-05-29 09:08
DeepSeek-R1-0528模型升级 - 新版本DeepSeek-R1-0528在LiveCodeBench上的表现几乎与OpenAI o3-high相当,被网友称为"R2级别更新"[1] - 模型在HuggingFace平台以MIT协议开源,包含163个safetensors文件,单个文件最大5.23GB[6][7] - 官方未更新模型卡,但社区已总结出四大亮点:深度推理能力、写作改进、独特推理风格、支持30-60分钟长时思考[10] 性能实测表现 - 成功解决"9.9-9.11=?"等难倒o3、Gemini 2.5 pro、Claude 4的数学难题[4] - 在"7米甘蔗过2米高1米宽门"测试中思考151秒,提供可执行方案并考虑答案趣味性[11][13][14] - 编程能力显著提升,仅用24秒完成Three.js太阳系模拟的代码设计[17][19][20] - 前端设计能力突出,可根据论文快速生成介绍网页[22] 技术演进背景 - 此次更新可能基于3月发布的V3-0324版本进行优化[28][30] - 延续公司"小版本大升级"的传统,类似V3升级时网友反馈"远超预期"[29] - 推动开源模型性能首次与o3、Claude 4等闭源顶级模型比肩[31] 社区反响 - 模型发布前曾因Unsloth文章模板泄露引发"DeepSeek-V3-0526"乌龙事件[25][27] - 实测结果引发广泛讨论,被视作"开源社区的重大胜利"[31] - 官方渠道(网站/App/小程序)已同步更新新模型[9]
字节开源Deep Research项目DeerFlow:可生成图文报告、语音播客
快讯· 2025-05-10 20:48
公司动态 - 字节跳动技术团队宣布推出全新开源项目DeerFlow [1] - DeerFlow基于LangStack技术开发 [1] - 项目已在ByteDance的GitHub官方组织上开源 [1]
AI开源社区来了国家队!华为百度第一时间加入
量子位· 2025-05-09 10:04
央企牵头AI开源社区 - 中国电信天翼云牵头发起魔乐社区(Modelers.cn),提供AI工具、模型、数据托管及学习交流平台 [2][6] - 社区线下成立理事会,由14家单位组成,覆盖AI芯片、模型、数据、科研机构等全产业链环节 [3][7][8] - 理事会设立治理、建设、运营委员会及秘书处,并引入特别兴趣小组(SIG)机制和淘汰机制 [11][13][15] 社区资源与生态协同 - 提供9024个开源模型(含文本、图像、音频等多模态)和1120个数据集,均完成国产硬件适配 [18][19][21] - 联合算力成员提供免费国产算力资源,支持在线体验空间快速创建AI应用 [21][22] - 产学研联动案例:上海AI实验室贡献模型/数据,硅基智能通过社区弥补大模型短板并反馈数字人技术 [24][26][27] 差异化定位与行业痛点解决 - 现有平台(如GitHub、Hugging Face)存在开放性不足、工具适配局限及产业链协同缺失问题 [30][34][35] - 魔乐社区以中立公益原则整合异构算力/工具,通过社区协调解决版权争议和敏感数据开源困境 [43][40][41] - 目标构建开放协同的AI生态,加速国产技术落地,未来计划联合高校培养人才 [45][46][29]
AI不靠“闭门造神”,海内外一线专家共探智能新纪元,GOSIM AI Paris 2025圆满收官!
AI科技大本营· 2025-05-08 08:23
开源与AI融合趋势 - 开源和开放标准正逐步成为推动人工智能发展的核心力量,企业和用户越来越需要透明、安全且可信的系统[5] - Linux基金会正在推动一项专为AI模型设计的新型许可证OpenMDW,涵盖模型架构、数据集、参数、文档与工具[7] - 开源AI的成功不仅源于代码本身,更来自于一个中立、开放且富有活力的社区[5] 大模型技术发展趋势 - 多模态统一架构成为重要方向,Meta的BLT架构展示了这一方向的可行性,2025年有望诞生具突破性的统一模型[3] - 高效注意力机制快速发展,包括线性注意力、动态稀疏注意力和混合注意力等[3] - 二阶优化正逐步应用于大规模训练场景,未来将在提升训练效率和模型泛化能力方面扮演关键角色[3] - 后训练阶段成为关键环节,在特定任务优化中发挥越来越重要的作用[6] AI基础设施演进 - Docker Model Runner可实现本地化GPU推理,加速AI应用落地[12] - Kubetorch在ML模型执行与部署流程中展现高效性与可调试性[12] - RAGFlow通过开源手段解决数据质量差、语义匹配低等难题,提升企业级RAG系统表现[13] - WGML基于Rust与WebGPU构建轻量化、高性能的GPU推理框架[13] AI应用与智能体发展 - OAKS架构以知识图谱和AI记忆系统为核心,强调开放式生态对智能体成长的意义[16] - OpenManus通过增强推理规划和跨环境运行能力,为LLM智能体应用拓展新可能性[16] - CAMEL框架深入研究智能体社群行为与协作机制[17] - Agentic Search为智能体的信息获取与决策提供新思路[17] 具身智能前沿进展 - Unitree开源G1类人机器人的运行数据集,支持多种开源解决方案[19] - 将语言模型接入机器人,通过手势、声音与表情实现人工共情[20] - 新型数据采集框架支持跨任务、跨环境的机器人泛化学习[20] - "大脑-小脑协同"框架融合高层认知推理与快速低延迟运动响应[20] 开源模型实践案例 - Qwen系列模型在多语言理解与生成任务中实现能力突破[9] - LUCIE-7B模型实现从训练代码到数据集全开放[10] - MiniCPM展示小模型在效率和性能上的平衡优势[10] - Llama 4在具身智能场景中展现自主决策与人机协作潜力[28] PyTorch生态创新 - TorchCodec优化解码流程,使视频和音频数据高效转换为PyTorch张量[27] - vLLM扩展大语言模型推理,借助多加速器部署与量化技术提升性能[27] - DeepSpeed在极大规模模型训练的计算、通信和I/O优化方面发挥作用[30] - Lightning Thunder将PyTorch代码编译为优化的分布式代码[30]
这真是逆天,早有这个工具,我的发量能保持的更好~
菜鸟教程· 2025-04-28 19:22
在日常开发工作中,无论是前端、后端还是全栈开发者,经常会用到 Github 上的一些开源项目,很多刚接触的新项目,如果没有文档几乎无从下 手。 之前介绍过一个将 Github 代码可视化的工具: 用它看代码舒服多了,一键可视化!GitHub 代码仓库秒变图表 ,这还只是变成结构图。 近期 Cognition AI 又推出了他们的新产品 DeepWiki ,一个被誉为"代码仓库维基百科"的 AI 驱动平台,彻底改变了我们探索和理解开源项目的 方式。 DeepWiki 是一个由 Cognition AI 开发的免费、开源的 AI 驱动工具,旨在将 GitHub 上的代码库转化为结构化、互动式的维基百科式知识库。 DeepWiki 利用大型语言模型(LLM)深入理解代码语义,帮助开发者快速掌握代码库的结构、逻辑与设计。 要使用它非常简单,只需将 GitHub 仓库的 URL 中的 "github" 替换为 "deepwiki"(例如,把 https://github.com/vuejs/core 改为 https:// deepwiki.com/vuejs/core ),即可免费访问公共仓库的 AI 生成文档,无需 ...