Workflow
大语言模型
icon
搜索文档
博实结(301608) - 301608投资者关系活动记录表2025年6月11日
2025-06-11 18:36
公司概况 - 公司是从事物联网智能化产品研产销的高新技术与专精特新“小巨人”企业,以通信、定位、AI等技术为核心,基于自研无线通信模组提供智能终端产品及配套解决方案 [1] - 2024年度,公司营收14.02亿元,同比增加24.85%,净利润1.76亿元,同比增加0.81% [1] - 2025年一季度,公司营收3.48亿元,同比增加40.28%,净利润0.40亿元,同比增加14.42% [2] AI技术应用 - AI算法技术应用于商用车监控终端和云管理平台,智能车载视频行驶记录仪应用AI视觉算法技术,实现ADAS、DSM、BSD等功能 [2] - 公司完成Deepseek大语言模型和通义千问视频分析模型本地化部署,从云管理平台功能、产品研发效率、物联网场景拓展三个维度强化核心优势 [3] 政策与销售模式 - 《汽车行驶记录仪》(GB/T19056 - 2021)国家标准2021年发布,广东、河南部分市县高效完成智能视频监控设备安装,湖南、重庆等地要求更换智能车载设备 [3] - 公司智能车载终端产品面向汽车后装市场,行业形成设备厂商与车载运营服务商分工合作模式,公司负责研产销,服务商提供解决方案与运营服务 [4][5] 管理策略 - 公司采用事业部制管理产品研发,软件研发中心提供技术支持,各事业部研发中心负责具体实施 [5] - 公司对各事业部独立核算,考核利润指标,要求事业部强化利润意识,配合公司整体战略目标 [5]
Mistral的首个强推理模型:拥抱开源,推理速度快10倍
机器之心· 2025-06-11 11:54
模型发布 - 欧洲人工智能公司Mistral AI发布全新大语言模型系列Magistral,具备强大推理能力,可解决复杂任务[3][4] - 发布两个版本:专有模型Magistral Medium(企业客户)和开源模型Magistral Small(24B参数,Apache 2.0许可)[5] - 开源版本可自由商用,专有版本通过Le Chat界面和La Plateforme API访问[5] 性能表现 - Magistral Medium在AIME2024基准测试中得分73.6%(多数投票64%,最高90%),Small版本得分70.7%和83.3%[6] - 在GPQA Diamond(研究生级问答)和LiveCodeBench(编程挑战)等高要求测试中表现优异[7] - 编程能力突出,单次生成代码即可模拟重力、摩擦力等物理现象[10] - 支持多语言高保真推理(英语、法语、西班牙语、德语、意大利语、阿拉伯语、俄语、中文等)[11] 技术突破 - 采用自研可扩展强化学习流水线,完全依赖自有模型和基础设施[15] - 文本强化学习保持多模态理解能力,核心设计原则为"用户语言推理"[16] - 通过fastText分类器实现语言一致性奖励机制,减少混合语言输出[16][17] - 系统提示优化(如"尽可能随意/长")显著提升模型探索能力[18] - Flash Answers技术实现10倍于竞品的token吞吐量,支持实时推理[14] 商业化进展 - 专有模型定价为输入2美元/百万token、输出5美元/百万token,较前代Mistral Medium 3(输入0.4美元、输出2美元)大幅上涨[21] - 横向对比显示价格竞争力:输入成本低于OpenAI最新型号,与Gemini 2.5 Pro持平,输出成本显著低于竞品[22] - 即将登陆Amazon SageMaker、Azure AI、IBM WatsonX和Google Cloud Marketplace等主流云平台[20] 迭代计划 - 公司计划以Magistral为起点加速模型迭代[25]
专访|让AI智能体真正“看懂”世界——访德国弗劳恩霍夫研究所数据专家
新华社· 2025-06-11 10:53
新华社柏林6月10日电 专访|让AI智能体真正"看懂"世界——访德国弗劳恩霍夫研究所数据专家 措恩指出,要实现更高程度的自主能力,AI智能体所依赖的基础模型必须具备接收并理解其所处环境 的能力,尤其是在涉及现实任务的场景中。"系统要在真实世界中运行,首先得真正'看懂'这个世 界。"他说,将高精度的三维场景数据与多路传感器数据输入模型,以便其在空间中进行推理和判断, 是当前人工智能研究的前沿方向之一,但这项工作仍面临诸多挑战。 "目前的大语言模型本质上是为处理文字而设计的,擅长语言理解与生成。"措恩说,"而来自现实世界 的感知数据,比如三维点云,只是一些无序的坐标集合,并不自带语义结构。"他表示,要让模型真 正"理解"这些数据,必须开发新的数据表示方式和训练机制,将"非语言"信息转化为模型能够真正识别 和处理的形式。 措恩还谈到了AI智能体应用过程中最本质的问题——信任。他认为,AI智能体之所以能够获得用户信 任,关键在于其决策路径具有高透明性和可审查性。与单一语言模型不同,AI智能体会将复杂问题拆 解为多个明确的小任务,每一步都有清晰的逻辑和执行过程,更容易被理解和验证。 "用户可以清楚看到智能体是如何逐步推 ...
AI大模型心智已经接近人类!科创板人工智能ETF现涨0.62%,实时成交额突破4000万元
每日经济新闻· 2025-06-11 10:48
人工智能认知科学研究 - 中科院研究证实多模态大语言模型能自发形成与人类高度相似的物体概念表征系统 [1] - 该研究为构建类人认知结构的人工智能系统提供理论框架 [1] - 大语言模型内部存在类似人类对现实世界概念的理解 [1] A股人工智能板块表现 - 6月11日A股人工智能题材股显著反弹 科创板人工智能指数成分股中芯原股份涨超4% 天准科技 虹软科技 威胜信息 海天瑞声 安恒信息 晶晨股份涨超1% [1] - 科创板人工智能ETF(588930)现涨0.62% 实时成交额突破4000万元 连续7个交易日成交额超5000万元 [1] - 科创板人工智能ETF跟踪的指数布局30只科创板人工智能龙头 覆盖AI全产业链 前五大成分股合计权重47% [1] AI行业投资价值 - 国泰海通证券认为当前全球科技竞争背景下AI板块展现显著投资价值 [2] - 我国科技自立自强趋势推动国产EDA工具发展 为计算机行业注入新活力 [2] - 我国在大模型领域研发能力达世界先进水平 DeepSeek R1表现接近国际顶尖模型 [2] - 豆包App升级拓展AI应用场景 支持视频聊天问答 [2] 相关产品 - 科创板人工智能ETF(588930)覆盖AI全产业链 聚焦五大行业 [3]
苹果高管捍卫其AI战略:开发 AI 聊天机器人并非我们的目标
环球网· 2025-06-11 10:35
苹果AI战略 - 公司强调AI战略重点在于系统集成而非开发传统聊天机器人 [1] - AI设计为后台运行框架而非独立应用 旨在提升日常操作体验 [3] - 战略与市场常见聊天机器人模式形成鲜明对比 [3] 技术实现路径 - 将AI深度嵌入操作系统以实现跨设备个性化交互 [3] - 与ChatGPT合作使用户能访问工具 同时确保隐私安全 [3] - 未来可能为Siri引入大语言模型支持但坚持不推独立AI应用 [3] 差异化竞争策略 - 不开发独立AI应用或聊天机器人 选择系统级整合 [3] - 类比不打造类似亚马逊购物平台或YouTube竞品的逻辑 [3] - 专注于优化用户体验而非技术领域全覆盖 [3]
时空压缩!剑桥大学提出注意力机制MTLA:推理加速5倍,显存减至1/8
机器之心· 2025-06-11 08:24
Transformer架构的核心地位 - Transformer的自注意力机制在推理时能灵活建模长距离上下文,使其成为大语言模型不可替代的核心组件,尽管存在计算复杂度为二次方的问题 [1] - 线性复杂度的替代方案(如RNN、Linear Attention、SSM等)难以真正取代Transformer的地位,尤其在decoder-only架构广泛采用后,自注意力机制的重要性进一步凸显 [1] - 自注意力机制带来的KV缓存问题成为推理效率的关键瓶颈,其显存和带宽开销随模型参数维度扩大而显著上升,限制了推理长度与batch size [1] KV缓存的优化挑战与现有方案 - 当前主流大模型采用Grouped-Query Attention(GQA)机制,通过减少Key/Value头数量来减小KV缓存规模,在效率与效果间取得平衡 [5] - Multi-Query Attention(MQA)是GQA的极端形式,显存占用大幅减少但性能显著下降,而GQA成为大语言模型中最常见的注意力变体 [5] - DeepSeek团队提出的Multi-head Latent Attention(MLA)通过在隐空间压缩KV特征维度提升推理效率,但隐空间压缩幅度受限,KV缓存存储开销仍是瓶颈 [7] MTLA的创新与核心技术 - MTLA首次将时序压缩与隐空间压缩结合,在KV缓存的两个维度同时施加时空压缩策略,显著降低显存与计算成本 [2] - MTLA通过超网络动态融合相邻时间步信息,并设计步幅感知因果掩码确保训练与推理一致性,保持甚至略优于传统注意力机制的性能 [2][14] - 时间压缩率s=2时,MTLA对KV缓存的压缩程度与MQA相当但性能更优,且具备进一步压缩空间 [12][21] MTLA的训练与灵活性 - MTLA引入步幅感知因果掩码解决训练与推理行为不一致问题,保留所有中间状态KV表达,通过矩阵乘法实现高效并行计算 [14][16] - 解耦的旋转位置编码(decoupled RoPE)进一步提升了效率,MTLA在注意力机制与线性模型之间架起桥梁,提供效率与性能的灵活权衡 [17][18] - 当时间压缩率s足够大时,MTLA几乎只保留一个KV缓存,退化为线性序列建模方法 [17] MTLA的性能表现与应用潜力 - MTLA在语音翻译、文本摘要生成等任务中保持与标准MHA相当的质量,同时实现超过5倍推理速度提升和8倍显存占用降低 [20] - MTLA具备大规模部署潜力,尤其适合参数规模扩大和生成序列增长的大语言模型场景,有望成为自注意力模块的重要替代方案 [23] - MTLA实现代码已开源,但工程落地需社区持续推动,改动复杂度高于GQA和MQA [24][25]
财经观察:AI时代,苹果落后了吗?
环球时报· 2025-06-11 06:41
WWDC25核心观点 - 苹果在WWDC25上未展示AI领域的突破性进展 引发市场对其在AI时代落后于竞争对手的质疑 [1][3][4] - 公司重心放在设计美学改进而非AI技术突破 推出"液态玻璃"界面和游戏聚合应用等视觉导向功能 [3] - 股价在大会结束后下跌1.5% 2025年初以来累计下跌约18% 在美股"七巨头"中表现最差 [4][8] AI战略与挑战 - AI进展缓慢的三大原因:内部管理分裂导致路线分歧 技术瓶颈限制生成能力 隐私政策制约数据收集 [5] - Siri升级遭遇工程难题 多模态模型开发滞后 部分功能推迟至2026年 [5][6] - 与OpenAI等合作伙伴的整合进度落后 云端1500亿参数模型性能接近ChatGPT但未商业化 [7][9] - 竞争对手谷歌三星等快速推进AI终端整合 分析师预计苹果需3年才能推出现代化AI助手 [7] 产品与市场表现 - 车载系统Carplay和AirPods获功能拓展 但被评"缺乏兴奋点" [3][4] - Vision Pro头显技术未全面落后Meta和谷歌产品 [9] - 硬件业务受美国关税政策威胁 服务业务面临法律诉讼和监管压力 [8] 未来关键突破方向 - 需解决大语言模型战略的三道坎:跟上云端发展节奏 推动终端模型小型化 研发图像视频模型 [10] - 当前首要任务是修复与用户和开发者的关系 而非追求激进创新 [9] - Mac硬件销售持续强劲 公司整体仍保持盈利优势 [9]
腾讯研究院AI速递 20250611
腾讯研究院· 2025-06-10 22:58
苹果系统与开发者工具更新 - 苹果发布六大系统统一设计,采用全新"Liquid Glass"流体玻璃元素,视觉效果大幅提升 [1] - 开放端侧大语言模型访问权限给所有App,系统级AI功能包括视觉搜索、实时翻译 [1] - iPadOS窗口系统迎来重大更新,macOS联动iPhone功能增强,但新Siri再次推迟发布 [1] - Xcode 26将集成ChatGPT,支持AI辅助代码编写、文档生成和错误修复 [1] - 开发者可通过API密钥引入其他供应商AI模型,构建多元智能编程生态 [1] - 发布Foundation Models框架,开发者仅需三行代码即可调用本地AI模型 [1] 美团NoCode无代码开发平台 - 美团发布AI Coding Agent工具NoCode,用户无需编程即可创建网页与应用 [2] - 工具集产品、设计、工程功能于一体,支持网站设计、游戏开发、商品管理等场景 [2] - 具备理解隐含需求能力,支持多人协作,已全量上线并提供免费使用 [2] 腾讯元宝电脑版功能升级 - 腾讯元宝电脑版划词功能升级,新增连续划词和自动翻译功能 [3] - 新增窗口置顶功能,划词结果窗口可固定悬浮,提升阅读效率 [3] - 升级功能特别适用于浏览外文网站、阅读英文文档和专业论文场景 [3] 秘塔AI知识转化工具 - 秘塔AI推出"今天学点啥"产品,可将PDF文献自动转化为易懂课程讲解 [5] - 支持多种讲课风格,提供语音讲解和原文对照模式,一键导出可编辑PPT和逐字稿 [5] - 适用于自学、职场阅读、学术文献解读和教学课件制作等场景 [5] Meta能源合作与AI发展 - Meta与Constellation Energy签署20年核能购买协议,规模达1121兆瓦 [6] - 协议超过微软与Constellation的835兆瓦合作,支持数据中心能源需求和AI发展计划 [6] - 合作将保留1100多个工作岗位,提升发电量30兆瓦,预计2027年启动供电 [6] 中科院芯片自动化设计技术 - 中国科学院推出"启蒙"系统,实现处理器芯片软硬件全自动设计 [7] - 系统自动设计的RISC-V CPU"启蒙2号"性能达到ARM Cortex A53水平 [7] - 采用三层架构和"三步走"技术路线,有望改变芯片设计范式,提升效率 [7] AI语音与交互趋势 - ElevenLabs认为AI语音中适度加入"不完美"特征如停顿、呼吸音更能促进用户互动 [9] - 未来语音Agent将具备上下文感知能力,实现从被动客服到主动体验引导的转变 [9] - 未来信任机制将验证内容是否人类发声,未经验证内容默认视为AI生成 [9] 强化学习与AI发展观点 - 强化学习之父Richard Sutton认为AI正从"人类数据时代"转向"经验时代" [10] - 主张去中心化合作模式,反对基于恐惧的中心化控制 [10] - 将宇宙演化划分为四个时代,认为人类正处于从复制者向设计者过渡期 [10] 大语言模型局限性讨论 - 大语言模型可能只是"柏拉图洞穴"中的观察者,通过文本间接"扫描"人类思维 [11] - 质疑为何语言模型能从预测token中学到知识,而视频模型从预测帧中学到较少 [11] - 当前AI系统可能只是模仿人类思维的"投影"而非真正理解世界 [11]
一文了解DeepSeek和OpenAI:企业家为什么需要认知型创新?
搜狐财经· 2025-06-10 20:49
AI技术创新路径 - OpenAI创立初心为反巨头霸权 通过开源普惠AI技术对抗科技巨头垄断 2015年由马斯克和奥特曼创立并挖角谷歌核心科学家伊利亚[4][7] - 大语言模型革命依赖Transformer架构和Scaling Law 前者实现并行数据处理 后者揭示模型性能与规模呈线性关系[8][11] - GPT系列模型通过"涌现"现象突破 当参数量达临界点时自发产生新能力 实现从工具到智能助手的转变[12] - ChatGPT引发人机交互范式变革 自然语言交互降低使用门槛 2022年末推出后成为全球现象级产品[13][14] - 推理模型o1实现认知跃迁 从直觉思维(系统1)升级至逻辑推理(系统2) 具备多步推理和自我纠正能力[16][17] DeepSeek差异化战略 - 采用"有限Scaling Law"战略 在资源受限下通过数据筛选和算法优化实现低成本高性能 训练成本仅5557万美元[18][22] - 创新MLA+MoE架构 MLA优化内存效率 MoE实现专家网络动态激活 结合华为昇腾平台实现软硬协同优化[20][21] - R1模型实现纯强化学习突破 复现OpenAI o1能力并开源 展示完整推理过程 2025年1月发布后登顶美国应用榜[23][24][25] - 组织模式激发"涌现"创新 采用动态团队和自组织管理 研究员可自由调用GPU资源 产生MLA架构等突破性成果[27][28][29] 行业格局影响 - DeepSeek打破中国创新者"思想钢印" 证明中国企业可引领基础研究 而非仅做技术应用[35][36][37] - R1模型引发行业震动 微软CEO公开提及导致英伟达市值单日下跌17% 标志中美成为AI技术两极[25][26] - AI Lab范式重构研发体系 开放协作和资源共享取代传统金字塔管理 适应不确定性创新需求[30][32][33] - 认知型创新推动产业升级 从商业驱动转向基础研究 需要长期投入和突破思维定式[38][39][40]
一文了解DeepSeek和OpenAI:企业家为什么需要认知型创新?
混沌学园· 2025-06-10 19:07
核心观点 - AI技术正在重新定义商业创新模式,企业需转变思路以保持竞争力 [1][2] - OpenAI和DeepSeek分别通过不同路径实现AI技术突破,为行业提供创新范式 [3][4] - AI能力的"涌现"现象成为技术跃迁的关键特征 [19][20][21] - 人机交互范式因ChatGPT发生根本性变革 [22][23][24] - 中国公司DeepSeek打破"美国原创、中国应用"的思维定式,展现基础研究实力 [75][77][78] OpenAI的创新路径 创立背景 - 2015年由马斯克和奥特曼创立,初衷是防止AI技术被巨头垄断 [9] - 从谷歌挖来核心科学家伊利亚·苏茨克维尔,坚持开源、安全、普惠理念 [10][12] 技术突破 - 基于Transformer架构的"自注意力机制"大幅提升语言理解能力 [13] - Scaling Law揭示模型规模与性能的线性关系,指导大规模投入 [15][16] - GPT系列模型通过"涌现"现象实现能力跃升,参数量临界点触发智能爆发 [19][20] 产品里程碑 - ChatGPT通过自然语言交互降低使用门槛,引发全球现象级应用 [22][23] - 推理模型o1实现从直觉思维(系统1)到理性推理(系统2)的认知跃迁 [26][30] DeepSeek的逆袭战略 技术路线 - 提出"有限Scaling Law",在资源受限下追求高性能 [32][33] - MLA技术优化内存效率,MoE架构实现计算资源动态分配 [38][39][42] - V3模型6710亿参数仅激活37亿,训练成本5557万美元(行业1/10) [44] 核心突破 - R1模型采用纯强化学习(类似AlphaGo Zero),展示完整推理过程 [45][47][49] - 在奥数竞赛中与OpenAI o1准确率相当,登顶美国应用榜单 [50][51] 组织创新 - 动态团队构成和自组织管理激发"涌现"式创新 [55][56][57] - 研究员自主提出MLA架构和训练公式,体现扁平化协作 [59][60] - 150人论文署名包含数据标注员,打破传统KPI束缚 [61][62] 行业启示 技术趋势 - AI从专用工具向通用智能演进,"涌现"成为能力突破关键指标 [20][21] - 对话式交互(ChatGPT)和推理能力(o1/R1)定义下一代AI标准 [23][26][45] 创新生态 - 中国公司首次在基础研究领域实现全球领先,打破技术跟随惯性 [75][77] - 资源效率(DeepSeek)与规模投入(OpenAI)并存,拓宽行业可能性 [32][44] 组织变革 - 传统金字塔管理让位于开放协作和资源自由调配的新型研发模式 [55][63][68] - "非标准人才"和纯粹技术热情成为创新核心驱动力 [66][67]