Open Source
搜索文档
华为宣布“鸿蒙6来了”鸿蒙生态迈入新阶段
证券日报· 2025-06-21 00:50
鸿蒙6技术突破 - 鸿蒙6国产操作系统启动开发者公测 距离鸿蒙5公测仅8个月 [1] - 系统流畅度提升30% 运行内存节省1.5GB 续航增加近1小时 时延低达毫秒级 [1] - 内核延续全栈自研架构 方舟引擎加持 支持更高效多设备协同 [1] - 发布鸿蒙智能体框架 首批50余款鸿蒙智能体即将上线 [1] - 盘古大模型5.5在自然语言处理 多模态等5大基础模型全面升级 [1] 鸿蒙生态发展 - 超40款华为终端产品搭载鸿蒙5 系统功能增加260多项 [2] - 华为全系终端将全面搭载单框架鸿蒙操作系统 [2] - 鸿蒙开发者数量突破800万个 开源鸿蒙代码超过1.3亿行 [3] - 社区贡献者接近9000位 软硬件产品1200款 三方发行版69款 [3] - 超30000个应用及元服务在开发中 覆盖近20个行业 [3] 行业应用与合作 - 钉钉 飞书等100多个通用办公平台已"鸿蒙化" 覆盖约3800万家企业 [3] - 小红书播放器启播耗时降低 飞书文本渲染器支持20多种样式 [3] - 鸿蒙概念企业约120家 多家上市公司在HDC2025展现合作成果 [3] - 鸿蒙生态以开放姿态吸纳新力量 迈向全新发展阶段 [2][4] - 鸿蒙系统坚持分布式架构 全场景协同 为智能万物互联奠定技术基石 [4]
Claude时代终结?LMArena实测DeepSeek R1编程得分超Opus 4,但月暗称其新模型更胜一筹
AI前线· 2025-06-17 14:56
DeepSeek-R1(0528)性能突破 - 开源模型DeepSeek-R1(0528)在LMArena的WebDev Arena测试中以1408.84分超越Claude Opus 4(1405.51分),与Gemini-2.5-Pro-Preview-06-05(1433.16分)并列第一 [1][4] - 采用混合专家(MoE)架构,总参数量6850亿,单次推理激活370亿参数,支持128K tokens长上下文窗口,在数学推导和代码生成能力上显著提升 [9] - 在细分测试中表现:硬提示词第4、编程第2、数学第5、创意写作第6,多轮对话第7 [7] 开源与闭源模型竞争格局 - DeepSeek-R1以MIT许可证开源,性能对标Claude Opus 4和GPT-4.1,开发者社区认为其免费特性可能改变行业生态 [12][14] - 月之暗面同期发布开源模型Kimi-Dev-72B,在SWE-bench Verified测试中以60.4%得分创开源模型SOTA,超越R1(0528)的编码表现 [23][26] - Kimi-Dev-72B通过BugFixer与TestWriter双角色设计、1500亿数据中期训练及强化学习优化,实现真实仓库Docker修复能力 [28][30][31] 行业争议与动态 - LMArena测试平台被Cohere、斯坦福等机构指控偏袒科技巨头,Meta被指测试27个未公开模型变体以优化榜单排名 [17][19] - 社区对测试结果态度分化:部分开发者认为R1已具备碾压闭源模型的编程辅助能力,另一部分质疑WebDev Arena测试公正性 [16] - 月之暗面与DeepSeek的技术路线差异:前者侧重强化学习与自我博弈机制,后者聚焦训练后优化和计算效率 [26][31][32]
独家秘籍:探索昇思MindSpore如何让SOTA模型迁得快、对得齐
雷峰网· 2025-06-12 16:15
昇思MindSpore技术优势 - 支持大模型训练Day0迁移和推理一键部署,显著降低开发者使用成本[1] - 通过三重兼容术实现主流加速库模型0代码迁移,训练性能提升5%+[5] - 动态图重构使PyTorch开发者获得原生体验,MSAdapter工具自动转换95%以上接口[5] 训练迁移解决方案 - MindSpeed/Megatron桥接层支持PyTorch模型零代码迁移,训练脚本直接运行[5] - 精度自动对比工具实现跨框架/版本/策略调优,主流模型迁移损耗逼近于零[5] - 框架差异化技术提升训练效率,分布式并行策略保持不变的性能优化[5][6] 推理部署创新 - vLLM-MindSpore插件实现HuggingFace模型半小时部署上线[7] - 三层部署范式:HF权重直接加载/20+主流模型开箱即用/百亿模型权重加载耗时降低80%[7] - 启动时延优化至百亿模型<30秒,图编译时延压缩至毫秒级[7] 开源生态建设 - 已支持50+主流大模型,累计获得1200万次下载,覆盖130个国家及2400座城市[8] - 46000+开发者参与,代码合入请求超11万行,产出1700+学术成果[8] - 提供免费算力平台和20+技术SIG组,企业/高校共治技术路线[9][15] 性能突破 - 动态图编译优化使单卡训练效率提升40%[10] - 自动负载均衡工具解决万卡训练木桶效应,线性度突破96%[10] - 昇腾硬件上实现主流模型逐层0误差精度对齐[10]
DeepSeek新版R1直追OpenAI o3!实测来了:“小版本升级”着实不小
量子位· 2025-05-29 09:08
DeepSeek-R1-0528模型升级 - 新版本DeepSeek-R1-0528在LiveCodeBench上的表现几乎与OpenAI o3-high相当,被网友称为"R2级别更新"[1] - 模型在HuggingFace平台以MIT协议开源,包含163个safetensors文件,单个文件最大5.23GB[6][7] - 官方未更新模型卡,但社区已总结出四大亮点:深度推理能力、写作改进、独特推理风格、支持30-60分钟长时思考[10] 性能实测表现 - 成功解决"9.9-9.11=?"等难倒o3、Gemini 2.5 pro、Claude 4的数学难题[4] - 在"7米甘蔗过2米高1米宽门"测试中思考151秒,提供可执行方案并考虑答案趣味性[11][13][14] - 编程能力显著提升,仅用24秒完成Three.js太阳系模拟的代码设计[17][19][20] - 前端设计能力突出,可根据论文快速生成介绍网页[22] 技术演进背景 - 此次更新可能基于3月发布的V3-0324版本进行优化[28][30] - 延续公司"小版本大升级"的传统,类似V3升级时网友反馈"远超预期"[29] - 推动开源模型性能首次与o3、Claude 4等闭源顶级模型比肩[31] 社区反响 - 模型发布前曾因Unsloth文章模板泄露引发"DeepSeek-V3-0526"乌龙事件[25][27] - 实测结果引发广泛讨论,被视作"开源社区的重大胜利"[31] - 官方渠道(网站/App/小程序)已同步更新新模型[9]
字节开源Deep Research项目DeerFlow:可生成图文报告、语音播客
快讯· 2025-05-10 20:48
公司动态 - 字节跳动技术团队宣布推出全新开源项目DeerFlow [1] - DeerFlow基于LangStack技术开发 [1] - 项目已在ByteDance的GitHub官方组织上开源 [1]
AI开源社区来了国家队!华为百度第一时间加入
量子位· 2025-05-09 10:04
央企牵头AI开源社区 - 中国电信天翼云牵头发起魔乐社区(Modelers.cn),提供AI工具、模型、数据托管及学习交流平台 [2][6] - 社区线下成立理事会,由14家单位组成,覆盖AI芯片、模型、数据、科研机构等全产业链环节 [3][7][8] - 理事会设立治理、建设、运营委员会及秘书处,并引入特别兴趣小组(SIG)机制和淘汰机制 [11][13][15] 社区资源与生态协同 - 提供9024个开源模型(含文本、图像、音频等多模态)和1120个数据集,均完成国产硬件适配 [18][19][21] - 联合算力成员提供免费国产算力资源,支持在线体验空间快速创建AI应用 [21][22] - 产学研联动案例:上海AI实验室贡献模型/数据,硅基智能通过社区弥补大模型短板并反馈数字人技术 [24][26][27] 差异化定位与行业痛点解决 - 现有平台(如GitHub、Hugging Face)存在开放性不足、工具适配局限及产业链协同缺失问题 [30][34][35] - 魔乐社区以中立公益原则整合异构算力/工具,通过社区协调解决版权争议和敏感数据开源困境 [43][40][41] - 目标构建开放协同的AI生态,加速国产技术落地,未来计划联合高校培养人才 [45][46][29]
AI不靠“闭门造神”,海内外一线专家共探智能新纪元,GOSIM AI Paris 2025圆满收官!
AI科技大本营· 2025-05-08 08:23
开源与AI融合趋势 - 开源和开放标准正逐步成为推动人工智能发展的核心力量,企业和用户越来越需要透明、安全且可信的系统[5] - Linux基金会正在推动一项专为AI模型设计的新型许可证OpenMDW,涵盖模型架构、数据集、参数、文档与工具[7] - 开源AI的成功不仅源于代码本身,更来自于一个中立、开放且富有活力的社区[5] 大模型技术发展趋势 - 多模态统一架构成为重要方向,Meta的BLT架构展示了这一方向的可行性,2025年有望诞生具突破性的统一模型[3] - 高效注意力机制快速发展,包括线性注意力、动态稀疏注意力和混合注意力等[3] - 二阶优化正逐步应用于大规模训练场景,未来将在提升训练效率和模型泛化能力方面扮演关键角色[3] - 后训练阶段成为关键环节,在特定任务优化中发挥越来越重要的作用[6] AI基础设施演进 - Docker Model Runner可实现本地化GPU推理,加速AI应用落地[12] - Kubetorch在ML模型执行与部署流程中展现高效性与可调试性[12] - RAGFlow通过开源手段解决数据质量差、语义匹配低等难题,提升企业级RAG系统表现[13] - WGML基于Rust与WebGPU构建轻量化、高性能的GPU推理框架[13] AI应用与智能体发展 - OAKS架构以知识图谱和AI记忆系统为核心,强调开放式生态对智能体成长的意义[16] - OpenManus通过增强推理规划和跨环境运行能力,为LLM智能体应用拓展新可能性[16] - CAMEL框架深入研究智能体社群行为与协作机制[17] - Agentic Search为智能体的信息获取与决策提供新思路[17] 具身智能前沿进展 - Unitree开源G1类人机器人的运行数据集,支持多种开源解决方案[19] - 将语言模型接入机器人,通过手势、声音与表情实现人工共情[20] - 新型数据采集框架支持跨任务、跨环境的机器人泛化学习[20] - "大脑-小脑协同"框架融合高层认知推理与快速低延迟运动响应[20] 开源模型实践案例 - Qwen系列模型在多语言理解与生成任务中实现能力突破[9] - LUCIE-7B模型实现从训练代码到数据集全开放[10] - MiniCPM展示小模型在效率和性能上的平衡优势[10] - Llama 4在具身智能场景中展现自主决策与人机协作潜力[28] PyTorch生态创新 - TorchCodec优化解码流程,使视频和音频数据高效转换为PyTorch张量[27] - vLLM扩展大语言模型推理,借助多加速器部署与量化技术提升性能[27] - DeepSpeed在极大规模模型训练的计算、通信和I/O优化方面发挥作用[30] - Lightning Thunder将PyTorch代码编译为优化的分布式代码[30]
这真是逆天,早有这个工具,我的发量能保持的更好~
菜鸟教程· 2025-04-28 19:22
DeepWiki产品介绍 - DeepWiki是由Cognition AI开发的免费开源AI工具,可将GitHub代码库转化为结构化、互动式维基百科式知识库[4] - 该工具利用大型语言模型(LLM)深入理解代码语义,帮助开发者快速掌握代码库结构、逻辑与设计[4] - 支持将GitHub仓库URL中的"github"替换为"deepwiki"即可免费访问AI生成文档,无需注册[6] 核心功能 - 生成可点击图表(类层次结构、依赖图、工作流程图),支持交互式探索代码模块依赖关系[7] - 为代码库生成全面文档,包括架构概述、组件说明和使用指南,且会根据代码更新实时调整[10][13] - 内置AI聊天助手(由Devin驱动),支持用自然语言提问获取代码解析,例如询问"computed函数作用"会返回详细实现原理[11][12][14] 技术优势 - 可视化效果超越传统结构图,实现"像玩游戏一样探索代码"的交互体验[2][7] - 对Vue等流行框架(如computed.ts)能精准解析核心API实现逻辑,包括懒计算、缓存等机制[14] - 文档生成质量被认为可能"秒杀官方文档",且具备互动问答能力[14] 发展规划 - 当前版本仅支持公共仓库,未来计划扩展GitHub Issues搜索功能[14] - 将为私有项目提供更灵活的定制化服务[14] - 产品定位为"代码仓库维基百科",代表Cognition AI在开发者工具领域的创新突破[2][4]
智谱今年获北京、杭州等地国资累计20亿元投资,开源生态建设提速
21世纪经济报道· 2025-04-18 19:16
公司近期融资与资本动态 - 北京市人工智能产业投资基金在去年投资基础上,追加投资公司2亿元人民币,用于支持开源模型研发与开源社区生态建设 [1] - 公司宣布其Z基金将出资3亿元人民币,支持全球范围内的AI开源社区发展,任何基于开源模型(不限于公司开源模型)的创业项目均可申请 [1] - 2025年3月,公司先后获得来自杭州、珠海、成都等地国资的战略投资,累计金额达18亿元人民币 [2] - 加上北京市的追加投资,公司2025年已获得地方国资累计投资达20亿元人民币 [2] - 公司已正式提交IPO辅导备案,由中金公司担任辅导机构,最快可能于2026年登陆A股市场 [4] - 公司被北京市人工智能产业投资基金描述为其成立以来投资的第一家AI大模型企业,也是目前成长最快的企业 [3] 公司开源战略与生态建设 - 公司宣布2025年为“开源年”,并于4月14日开源了32B/9B系列GLM模型,包括基座、推理和沉思模型,所有模型采用宽松的MIT许可协议,可免费用于商业用途和自由分发 [1] - 公司早在2023年就开源了国内第一个Chat大模型ChatGLM-6B,短时间内吸引超过千万次下载 [6] - 成立近六年来,公司已开源超过55款模型,在国际开源社区的累计下载量接近4000万次 [6] - 2025年,公司还开源了首个支持生成汉字的开源文生图模型CogView4 [6] - GLM-4开源仓库在GitHub上已获得超过6000颗星,最新模型上线公司开放平台后,当天就有超过6000家企业和开发者申请接入,模型调用Tokens的增幅每天超过100% [6] - 包括华为昇腾、硅基流动、UCloud、值得买、瓜子二手车等众多云服务伙伴和企业已第一时间部署或接入了公司的模型 [6] 公司技术能力与市场地位 - 公司在包括文本、推理、语音、图像、视频、代码等在内的模型能力上有全面积累 [3] - 公司商业化布局完善,拥有超过百万规模的开发者社区和企业用户 [3] - 公司被早期投资人描述为“六小虎”中起步最早、家底最厚的一家,也是其中真正在持续做基座大模型技术研发的企业 [3] - 在DeepSeek引发行业竞争格局变化的背景下,公司是少数仍获得投资人加码投资的大模型创业企业 [2] 行业开源发展趋势与政策环境 - 随着DeepSeek以开源模式引发行业变革,百度、字节跳动等大厂也纷纷加速了大模型的开源步伐 [5] - 开源已成为全球技术和产业创新的主导模式之一,全球97%的软件开发者和99%的企业都在使用开源软件 [7] - 在人工智能等新兴领域,开源已成为主要开发模式,TensorFlow、PyTorch等开源框架是推动技术发展与创新应用的核心力量 [7] - 北京市积极打造“全球开源之都”,优化开源基础设施布局,建设开源项目孵化平台,营造开源开放创新生态 [7] - 在模型开发方面,除公司外,智源研究院开源了BGE向量模型,面壁智能开源了MiniCPM端侧模型 [7] - 在芯片方面,开源芯片研究院开源了高性能RISC-V处理器核“香山”,成为国际RISC-V社区最活跃项目 [7] - 开源已深入汽车、机器人等行业,例如理想汽车将自研车载操作系统理想星环OS开源 [8] - 开放原子开源基金会、开源中国等平台正打造北京国际开源社区,旨在营造开放、多元、繁荣的开源生态 [8] - 北京市后续将持续深化开源战略,组织开源RISC-V处理器核、数据集及系列大模型,并积极打造中国版“Hugging Face” [8]
AI机器人 广东打算怎么做?
新华网· 2025-04-11 09:41
行业现状与政策支持 - 广东省人工智能核心产业规模超过2200亿元,核心企业超过1500家,人工智能领域国家专精特新"小巨人"企业数量全国第一 [1] - 工业机器人产量超24万台(套),占全国比重超40%,初步形成涵盖"大脑-五官-肢体"的人形机器人全产业链 [1] - 广东省出台《广东省推动人工智能与机器人产业创新发展若干政策措施》,提出12条政策措施,包括核心技术攻关、企业培育、应用场景打造等 [1] 企业案例与技术应用 - 乐聚机器人发布开源鸿蒙人形机器人KUAVO,目标推动人形机器人在工业垂域场景产业化,解决招工难、非标工序自动化等问题 [2][4] - 广东省发布8个行业大模型,其中知业精益人工智能平台提升半导体封装行业产品质量约3%、产能约4%,博依特制浆造纸工艺大模型提升生产效率10%、降低制造成本4% [5][6] - 广东省遴选30个应用场景和29个人工智能应用解决方案,推动大模型与场景深度结合 [6] 开源生态与创新协作 - 广东省通过开源社区吸引开发者参与,已聚集上百万开源开发者,部分企业位列全球开源企业榜单前十 [7] - 每年遴选不超过5个优质开源社区及生态中心,按上年度运营费用的30%给予资助,单个项目最高支持800万元 [9] - 鼓励企业、科研机构共建开源社区,推动开源技术产业化应用与商业化探索 [9] 资金支持与资本集聚 - 广东省对获评国家级单项冠军企业、专精特新"小巨人"企业给予省级和地市双重奖励,省财政按地市奖励资金1:1激励 [10][11] - 计划每年遴选10个人工智能赋能新型工业化标杆案例,每个案例最高奖励800万元 [11] - 2025年广东省财政预算安排"制造业当家"相关资金262亿元,政府投资基金已支持人工智能与机器人领域项目超230亿元 [11] - 出台措施推动海外主权基金投资广东人工智能和机器人产业,形成资本与产业双向赋能 [11]