大模型

搜索文档
从“六小龙”到“四小强”,零一和百川做错了什么?
36氪· 2025-06-17 20:27
行业洗牌与公司分化 - 2023年被称为"大模型元年",国内"AI六小龙"累计融资超60亿元人民币,占国产大模型早期融资总额一半以上 [2] - 2024年底行业进入"冷静期",六小龙中仅智谱AI和阶跃星辰保持融资活跃,零一万物和百川智能明显掉队 [2][3] - 行业竞争法则从烧钱和技术参数转向商业化落地,幸存者智谱、MiniMax、月之暗面和阶跃星辰选择深耕细分赛道 [3] 零一万物的困境 - 技术参数领先但产品落地滞后,工程化能力不足,ToB业务场景有限,ToC海外项目组在2024年底被裁撤 [4] - 2024年底创始团队人事震荡,核心高管离职,预训练团队被阿里收编,放弃自研大模型底座转向应用层 [5] - 高管离职潮持续至2025年,包括COO张帆、首席战略官张阔等多名核心成员 [6] 百川智能的战略失误 - 一年内经历三次战略转向:从C端超级应用到多模态通用大模型,最终聚焦医疗AI但未达行业标准 [7] - C端产品"百小应"App DAU未突破5000,远落后竞品;医疗领域合作松散,错失先发优势 [7][8] - 2025年初联合创始人陈炜鹏等核心成员离职,团队核心瓦解 [8][10] 幸存者面临的挑战 - MiniMax开源混合注意力推理模型MiniMax-M1,性能比肩DeepSeek-R1,但商业化进度克制 [11][13] - 月之暗面主打产品Kimi用户增长乏力,尝试内容社区但面临冷启动难题,内部治理问题频发 [14][16] - 阶跃星辰转向ToB与终端合作,视频生成负责人段楠离职释放人才红利减退信号 [17][19] - 智谱具备ToB基础但面临算力成本高、定制交付难等挑战,生态依赖头部客户 [20] 行业格局变化 - DeepSeek以GPT-4水准性能及1/10成本改变竞争格局,新晋"基模五强"包括字节、阿里、阶跃星辰、智谱和DeepSeek [11] - 行业从技术赛马转向创业公司战略调整能力考验,长期价值取决于场景聚焦与产品闭环 [21]
马斯克悄悄给新车增加硬件传感器,重新将FSD定义成“自动”
虎嗅· 2025-06-17 16:47
特斯拉自动驾驶技术升级 - 特斯拉新版Model S/X新增车外前视摄像头,硬件配置从8个摄像头升级至9个 [7][9][30] - 官方将FSD功能描述从"自动辅助驾驶"改为"自动驾驶",删除"辅助"二字 [12][13][17] - 采用"切香肠"战术逐步推进自动驾驶概念,区别于国内厂商强调"辅助"的宣传策略 [16][19] 硬件方案迭代 - HW 3.0硬件采用自研芯片,单芯片算力72TOPS,板卡算力144TOPS,配备前向毫米波雷达+环视摄像头+超声波雷达 [24][26] - HW 4.0取消所有毫米波雷达和超声波雷达,纯视觉方案8摄像头,算力700TOPS+,中国市场版本加回毫米波雷达 [27][29] - HW 5.0预计明年推出,算力达数千TOPS,可能成为特斯拉宣称"自动驾驶"的技术基础 [47] 软件与算法体系 - FSD最新版本V13.2.5增强非规范场景理解、降低碰撞风险、提升摄像头清洁效率,覆盖HW3.0和HW4.0所有车型 [34][36] - 采用超大规模基座模型,参数规模远超竞争对手,算力集群约30 EFLPOS [38][39] - 算法架构基于VLA模型,通过认知理解能力处理Corner case,采用预训练+强化学习+模型蒸馏技术 [40][43] Robotaxi与市场策略 - 特斯拉Robotaxi采用Model Y车型,硬件与量产车相同,软件可能搭载FSD V14 [50][51] - 北美政策或允许特斯拉生产不符合现行机动车规定的自动驾驶车型 [53] - 中国区6月起扩大FSD推送范围,可能推出月付订阅模式降低体验门槛 [56][57] 行业技术路线对比 - 国内厂商如小鹏、蔚来、华为采用类似技术路线,但命名为"L3"而非"自动驾驶" [48] - 特斯拉Robotaxi采用大算力+模型驱动,区别于Waymo等传统L4玩家的多传感器冗余方案 [50] - 纯视觉方案与多传感器方案在技术路径上形成明显分野 [27][29]
MiniMax发布推理模型对标DeepSeek,算力成本仅约53万美元
第一财经· 2025-06-17 15:26
公司动态 - MiniMax宣布连续五天发布重要更新,首日开源推理模型MiniMax-M1 [1] - MiniMax-M1在多项基准测试中表现优异,比肩DeepSeek-R1、Qwen3等开源模型,接近海外领先模型 [3] - 模型训练效率超出预期,仅用3周时间、512块H800 GPU完成强化学习训练阶段,算力租赁成本53.47万美元 [3] - MiniMax-M1在编程能力测试中表现突出,一次通过"拆烟囱"编程案例,优于DeepSeek-R1-0528和Gemini-2.5-Pro [3] - 模型中文写作严谨优先,幻觉较低,注重指令遵循 [5] - MiniMax-M1拥有100万上下文窗口长度,与Gemini 2.5 Pro相当,是DeepSeek R1的8倍 [5] - 在长上下文理解任务(MRCR)中表现优异,超越所有开源权重模型和部分海外顶尖模型,全球排名第二 [5] - 在TAU-bench测试中表现出色,超越DeepSeeK-R1-0528和Gemini-2.5 Pro,仅次于OpenAI o3和Claude 4 Opus [7] - 在代码能力(SWE-bench)上显著超越大部分开源模型,仅微弱差距次于DeepSeek最新发布的R1 [7] - MiniMax提出创新强化学习算法CISPO,在数学AIME实验中比字节DAPO算法收敛性能快一倍 [8] - 模型定价采用阶梯式,对标DeepSeek-R1性价比更高 [8] - MiniMax预告后续四天将有更多更新,业界预期海螺新版本即将亮相 [9] 行业动态 - 月之暗面同日开源编程模型Kimi-Dev-72B,基于阿里云Qwen2.5-72B微调 [8] - Kimi-Dev-72B在SWE-bench编程基准测试中取得全球最高开源模型水平,成绩超过新版DeepSeek-R1 [8] - 但实际测试显示Kimi-Dev-72B生成的代码需要修改多个bug才能运行,引发过拟合质疑 [9] - AI六小龙经过半年沉寂后重新加入大模型竞争 [9] - 云启资本合伙人陈昱表示长文本能力对社交应用、情感陪伴应用和Agent是关键技术 [7] 技术亮点 - MiniMax-M1训练材料足够新,思考时多次反刍成功避坑 [3] - 闪电注意力机制为主的混合架构使长文本处理具有算力效率优势,8万Token推理只需DeepSeek R1约30%算力 [7] - CISPO强化学习算法显著优于DeepSeek早期使用的GRPO [8] - 模型在样式和光影效果方面仍有不足,创意内容生成能力有限 [5]
技术更新 or 组织重塑,企业如何用好“数据智能”?
AI前线· 2025-06-17 14:56
作者 | AICon 全球人工智能开发与应用大会 策划 | 燕珊 编辑 | 宇琪 大模型浪潮正引领数据管理与分析迈入全新阶段,Chat BI、Agent+Workflow 等应用,使业务人 员能够通过自然语言交互即时获取数据洞察,显著释放生产力。那么,如何构建高质量数据集、 优化检索效率?如何让数据在大模型的应用中发挥最大效能? 近日 InfoQ《极客有约》X AICon 直播栏目特别邀请了 DaoCloud 道客联合创始人兼首席技术官 郭峰 担任主持人,和 中电金信研究院副院长单海军 、 数据项素产品副总裁覃睿 、 货拉拉大数 据专家凌霄 一起,在 AICon 全球人工智能开发与应用大会 2025 北京站 即将召开之际,共同探 讨智能化数据管理体系的搭建。 在 6 月 27-28 日将于北京举办的 AICon 全球人工智能开发与应用大会 上,我们特别设置了 【 大模型时代的数据处理与分析 】 专题。该专题将围绕数据科学家、工程师、技术管理者等不同角 色的从业者,通过实际案例分析和专家分享,探讨如何提升数据质量、优化检索效率,构建智能 化数据管理体系,让数据在大模型的应用中发挥最大效能。查看大会日程解锁更多精 ...
杉数科技申请基于大模型的信息处理方法以及电子设备专利,减少条件信息梳理过程中对专家的依赖
搜狐财经· 2025-06-17 13:21
专利技术 - 杉数科技及第五范式联合申请"基于大模型的信息处理方法以及电子设备"专利,公开号CN120163241A,申请日期为2025年02月 [1] - 专利方法通过大模型生成运筹优化模型的提问信息,分析用户回答以获取需求条件,减少对专家依赖并提升效率 [1] - 技术优势包括提升条件梳理的一致性和稳定性,相比人工梳理更具可靠性 [1] 公司背景 - 杉数科技(北京)成立于2016年,注册资本1300.374773万人民币,对外投资10家企业,参与招投标74次,拥有商标124条、专利279条、行政许可3个 [2] - 上海杉数网络科技成立于2016年,注册资本1000万人民币,参与招投标8次,拥有专利268条、行政许可1个 [2] - 广州杉数科技成立于2023年,注册资本100万人民币,拥有专利111条、行政许可3个 [2] - 杉数科技(南京)成立于2023年,注册资本300万人民币,拥有专利111条、行政许可1个 [2] - 第五范式(深圳)成立于2018年,注册资本100万人民币,拥有专利263条、行政许可4个 [3] - 杉数科技(苏州)成立于2016年,注册资本100万人民币,拥有专利258条、行政许可1个 [3] 行业动态 - 杉数科技通过多地子公司布局科技推广、软件与信息技术服务、专业技术服务等领域,专利储备总量达279+268+111+111+258=1027条 [2][3] - 第五范式(深圳)专利储备263条,与杉数科技联合开发大模型相关技术,显示行业技术协同趋势 [1][3]
同一天开源新模型,一推理一编程,MiniMax和月之暗面开卷了
机器之心· 2025-06-17 11:22
大模型技术进展 - MiniMax发布全球首款开源权重的大规模混合注意力推理模型MiniMax-M1,支持100万token输入和8万token输出,是DeepSeek R1上下文规模的8倍 [18][19] - MiniMax-M1采用混合专家(MoE)架构与闪电注意力机制,总参数量456B,每个token激活45.9B参数,在生成长度10万token时FLOPs仅为DeepSeek R1的25% [18][20] - 月之暗面发布开源编程大模型Kimi-Dev-72B,在SWE-bench Verified基准上取得60.4%成绩,创开源模型新SOTA [10][37] 模型性能对比 - MiniMax-M1在17个主流评测集中表现突出,在软件工程、长上下文处理和工具使用等生产力场景具有显著优势 [25] - MiniMax-M1-80k在大多数基准测试中优于MiniMax-M1-40k,验证扩展计算资源的有效性 [27] - 实测显示MiniMax-M1-80K生成代码一次通过,而Kimi-Dev-72B需要Claude-4-Sonnet修复3个bug才能运行 [13] 技术创新 - MiniMax开发CISPO新颖算法,强化学习收敛速度比DAPO等算法快一倍 [20] - MiniMax混合注意力设计提升强化学习效率,仅用512块H800三周时间,租赁成本53.47万美元 [23] - Kimi-Dev-72B采用BugFixer与TestWriter协作机制,通过中期训练和强化学习优化代码修复能力 [40][43] 应用场景 - MiniMax-M1支持UI组件聚焦、交互式应用程序和游戏开发,可快速生成HTML页面和Web应用 [5][6][8] - Kimi-Dev-72B能够自主在Docker中修补真实代码仓库,符合现实开发标准 [37] - MiniMax-M1已集成到MiniMax Chat中,提供不限量免费使用和业内最低价API [4][28] 行业影响 - MiniMax采取开放策略,新模型保持免费使用并以低价提供API,性价比高于DeepSeek-R1 [28][31] - 月之暗面计划扩展Kimi-Dev-72B功能,探索与IDE、版本控制系统和CI/CD流水线的深度集成 [48] - 大模型厂商同日发布新模型,显示行业竞争加剧,技术迭代速度加快 [1]
性能比肩DeepSeek-R1,MiniMax仅花380万训出推理大模型性价比新王|开源
量子位· 2025-06-17 09:03
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 国产推理大模型又有重磅选手。 MiniMax开源 MiniMax-M1 ,迅速引起热议。 这个模型有多猛?直接上数据: MiniMax团队透露,只用了3周时间、512块H800 GPU就完成强化学习训练阶段,算力租用成本仅 53.47万美元 (约383.9万元)。 不仅如此,在多个基准测试上MiniMax-M1的表现可比或超越DeepSeek-R1、Qwen3等多个开源模型,在工具使用和部分软件工程等复杂任 务上甚至超越了OpenAI o3和Claude 4 Opus。 MiniMax-M1实战表现如何?官方给出了一句话生成迷宫小游戏的Demo。 创建一个迷宫生成器和寻路可视化工具。随机生成一个迷宫,并逐步可视化 A* 算法的求解过程。使用画布和动画,使其具有视觉吸引 力。 目前模型权重已可在HuggingFace下载,技术报告同步公开。 原生支持100万token的输入长度,是DeepSeek R1的约8倍。 同时支持8万输出token,超过Gemini 2.5 Pro的6.4万,成为 世界最长输出 。 生成10万token时,推理算力只需要DeepSe ...
高效防范财务造假 银行函证数字化形成规模效应
上海证券报· 2025-06-17 02:28
银行函证区块链平台发展现状 - 截至2025年2月25日,平台累计处理银行函证成功回函超107.5万份,银行平均处理时长缩短至1天零15小时,效率较传统方式提升超80% [1][4] - 平台已接入864家机构,包括124家银行业金融机构和740家会计师事务所,覆盖头部银行及全国性会计师事务所,形成规模化应用场景 [1][3][4] - 邮储银行电子函证流程最快5分钟完成,浙商银行数字函证业务占比已达20%且逐年提升 [4] 技术应用与政策推动 - 区块链技术确保函证全流程可追溯,有效防范纸质函证伪造风险 [3] - 大模型和AI技术为拓展数字函证业务提供新可能性,行业对扩大应用范围形成共识 [1][8] - 2024年5月财政部与金融监管总局联合发文,明确提高数字化比例和规模化应用的发展方向 [6] 业务痛点与解决方案 - 历史系统架构复杂导致数据集中处理困难,中小企业授权效率低是主要推广障碍 [6] - 浙商银行通过建立统一函证业务数据库和问题排查机制,实现数据治理精细化 [7] - 恒生启金与10余家银行合作,探索多格式信息查询和定制化数字服务 [6][8] 生态扩展与未来展望 - 除商业银行和会计师事务所外,证券公司、评估机构等正积极申请接入平台 [8] - 行业正在探索将银行间函证、证券业务函证等新型函证纳入数字化服务范围 [8] - 函证平台向金融基础设施核心组件演进,未来需突破系统整合和安全认证等瓶颈 [9]
速递|字节AI再失大将,李航卸任AI Lab负责人,Seed团队进入调整期
Z Finance· 2025-06-16 14:46
字节跳动AI团队重组 - 字节跳动AI Lab负责人李航正式卸任 身份变更为"劳务/顾问" [1] - 2025年2月前谷歌DeepMind副总裁吴永辉加入 出任大模型Seed团队基础研究负责人 李航转为向其汇报 [1] - 2025年4月AI Lab整体并入Seed部门 标志着整合完成 [1] - 此次重组反映公司AI定位从"技术支撑"升级为"战略级业务" 加速大模型布局应对DeepSeek等竞争 [1] AI Lab历史与定位演变 - AI Lab成立于2016年 创始团队由前微软亚洲研究院常务副院长马维英领衔 直接向张一鸣汇报 [1] - 巅峰时期拥有超过150名研究人员 覆盖机器人 AI for Science等前沿方向 [1] - 为抖音和今日头条爆发式增长提供驱动力 帮助公司在AI应用层建立早期优势 [1] - 2020年起职能从基础研究转向业务支持 汇报关系下放至抖音事业部 [2] 重组背景与动因 - 2025年初DeepSeek大模型上线21天突破2000万日活用户 超越字节"豆包"成为全球增速最快AI产品 [2] - 这一冲击促使字节高层启动战略评估 决定对AI体系实施深度改革 [2] - 改革措施包括整合分散的AI Lab Seed等部门 引进吴永辉博士 调整技术骨干汇报线 [2] - Seed结构更扁平高效 强调"研产一体化"和产品导向 与AI Lab传统研究院风格形成对比 [2] 人事变动与创业潮 - 近期字节AI团队频现人事波动:Seed团队大语言模型负责人乔木因个人丑闻被移除 [3] - 视觉多模态负责人杨建朝即将离职 Flow团队原负责人梁琛奇已离职 [3] - 多位高管和核心人才进入创投圈 涌现一批明星创业者 [4] - 例如前剪映商业化负责人陈冕创业项目Lovart一年完成四轮融资 成为现象级项目 [4] 字节系AI创业项目 - 奥创光年(徐哲创立)获1500万元融资 投资方包括美图 凯辉基金等 [5] - 爱诗科技(王长虎创立)获超4亿人民币融资 投资方包括靖亚资本等 [5] - 加速进化(程昊创立)获数亿元融资 投资方包括彼岸时代 iCANX基金等 [5] - 回响科技(沈振宇创立)获近亿美元融资 投资方包括红杉 BAI等 [6] - 沐言智语(张月光创立)获3亿元融资 投资方包括明势创投等 [6]
高考数学斩获139分!小米7B模型比肩Qwen3-235B、OpenAI o3
机器之心· 2025-06-16 13:16
大模型数学能力评测 - 七个大模型参与2025年数学新课标I卷测试,Gemini 2.5 Pro以145分位列第一,Doubao和DeepSeek R1以144分并列第二 [2] - 小米7B参数小模型MiMo-VL表现突出,总分139分与Qwen3-235B持平,仅比OpenAI o3低1分 [4] - MiMo-VL在7B参数多模态模型中优势显著,较同类Qwen2.5-VL-7B高出56分 [5] 细分题型表现 - 客观题部分(73分):MiMo-VL单选题得35分(总分40),多选题和填空题均获满分 [8][10][11] - 解答题部分(77分):MiMo-VL得71分位列第五,超越hunyuan-t1-latest和文心X1 Turbo [12] - 测试方法差异:MiMo-VL和Qwen2.5-VL-7B采用截图输入,其他模型使用文本Latex输入 [6] 小米MiMo-VL技术突破 - 模型基于MiMo-7B升级,在数学推理和代码竞赛中超越OpenAI o1-mini和阿里QwQ-32B-Preview [15] - 通过RL训练后,MiMo-7B-RL-0530版本达到与DeepSeek R1和OpenAI o3-mini相近水平 [16] - 多模态能力显著:在OlympiadBench等数学竞赛中领先10倍参数的Qwen-2.5-VL-72B和GPT-4o [20] 技术实现路径 - 采用混合在线强化学习算法(MORL),整合文本推理与多模态感知反馈信号 [27][29] - 预训练数据达2.4T tokens,涵盖图片-文本对、视频-文本对等多元数据类型 [28] - 模型已全面开源,包括技术报告、权重和评估框架 [32][33] 行业竞争格局 - 开源模型MiMo-VL-7B在内部评测中超越GPT-4o成为开源模型第一 [24] - 参数效率突破:7B模型性能比肩235B参数的Qwen3和闭源o3模型 [13][16] - 多模态赛道创新:GUI Grounding任务表现媲美专用模型 [18]