Workflow
Qwen系列
icon
搜索文档
蚂蚁推出全模态通用AI助手“灵光”!科创人工智能ETF华夏(589010) 早盘稳步走高,呈短线结构性增强趋势
每日经济新闻· 2025-11-18 11:01
科创人工智能ETF市场表现 - 截至9点51分,科创人工智能ETF(589010)上涨约0.83%,早盘呈现低开后震荡走强态势 [1] - 分时价格持续运行在分时均线上方,短线动能偏强,持仓股涨多跌少(19涨、11跌) [1] - 部分核心组件与算力标的录得超过2%的阶段性领涨表现,板块内部呈现偏暖格局 [1] - 盘中成交保持活跃,换手充足,显示买卖双方均有参与意愿 [1] 人工智能行业动态 - 蚂蚁集团正式发布全模态通用AI助手"灵光",可在移动端实现"自然语言30秒生成小应用" [1] - "灵光"是业内首个全代码生成多模态内容的AI助手,首批上线"灵光对话"、"灵光闪应用"、"灵光开眼"三大功能 [1] - 该产品支持3D、音视频、图表、动画、地图等全模态信息输出,并已同步登陆安卓与苹果应用商店 [1] - 开源模型能力快速追赶,中国大模型被世界"看见",Deepseek引起世界关注并带来全球人工智能竞争格局的重塑 [2] 中国AI模型竞争力 - 全球领先的大模型主要来自美国和中国,LMArena数据显示中国的开源大模型已牢牢占据榜单前五 [2] - 阿里的Qwen系列和DeepSeek从2024年下半年起在开源社区构建起越来越深远的影响力 [2] 科创人工智能ETF产品特征 - 科创人工智能ETF华夏(589010)紧密跟踪上证科创板人工智能指数,覆盖全产业链优质企业 [2] - 该ETF兼具高研发投入与政策红利支持,20%涨跌幅与中小盘弹性有助于捕捉AI产业"奇点时刻" [2]
GPT-4o准确率仅为24%,权威中文教育基准:知识+情商的双重考验
36氪· 2025-11-14 15:20
研究背景与核心问题 - 当前大模型评测基准存在维度单一和忽视育人能力两大局限性,主要关注知识储备而忽略了启发式教学、情感支持等真实教育场景中的关键能力[1] - 行业面临的关键问题是现有评估方式不足以全面衡量大模型在复杂教育环境中的综合能力,一个好的AI老师不应仅仅是解题高手[1] OmniEduBench基准框架设计 - 该基准包含24,602个高质量问答对,采用独特的双维度评估体系,首次从知识+育人双维度系统评测大模型教育能力[1][3][5] - 知识维度包含18,121个条目,覆盖从小学到专业考试的五个难度级别和41个学科,包含11种常见考试题型[6] - 育人维度包含6,481个条目,聚焦6大细分领域和20个具体教学主题,包括思维与认知、个性化发展、情感与心理健康、品格与价值观等[7][8][9][10] 基准构建方法与质量保障 - 构建过程历经多源收集(927K)、结构化清洗(657K)、双机筛难(50K)、专家定版(24.6K)四道严苛关卡[11][13] - 采用对抗式筛选方法,先用QWQ-32B过滤简单题,再用更强的Qwen3-235B进行二次筛选,只保留高难度样本以防模型背题[13] - 最终由50位硕士生和5位资深专家进行人工审核,抽样质检显示整体质量4.8/5,答案准确性4.8/5,标注者一致性高达0.90[13] 主要评测结果与发现 - 在知识维度测试中,GPT-4o准确率仅为24.17%,远低于多个顶尖开源模型,显示其在处理本土化中文教育题目时存在水土不服[15] - 在育人维度上,表现最好的模型QwQ-32B准确率为70.27%,但与人类水平相比仍有近30%的巨大差距,表明当前LLM在高级教育能力上普遍缺乏[15][16] - 在高难度子集OmniEduBench HARD上,所有模型性能出现断崖式下跌,最强模型Gemini-2.5 Pro准确率也不足50%[16] 行业意义与影响 - 该基准首次将教育场景中的互动能力系统化、可量化,推动行业关注模型在启发、反馈等真实互动场景中的价值[17] - 作为原生中文教育基准,从数据到任务定义都更接地气,能更准确地评估模型在本土环境下的表现[19] - 为中文大模型在教育领域的评测提供了更全面的视角,清晰揭示了当前LLM在实现教育核心目标育人方面的明显短板[20][21]
开源模型TOP5,被中国厂商包圆了
量子位· 2025-10-15 14:27
中国开源大模型行业地位转变 - 中国开源大模型已占据全球榜单前五名,从追赶者转变为引领潮流的一方[1][6] - 阿里Qwen系列和DeepSeek自2024年下半年起在开源社区影响力持续扩大[1] - 行业普遍认为中国开源力量已对大模型格局产生冲击,重要节点是"DeepSeek时刻"[23] 文本能力表现 - 在LMArena文本排行榜中,智谱GLM-4.6和DeepSeek-v3.2紧随顶级闭源模型之后[7] - 阿里Qwen3-max-preview跻身文本排行榜TOP3,但该版本未开源[8] - 文本排行榜总投票数达4,222,042次,涵盖255个模型[9] 编程能力表现 - 前端开发排行榜中,国产开源模型与编程SOTA Claude分庭抗礼[10] - DeepSeek-R1/V3.1、GLM-4.6和Qwen3-Coder均进入前10名[10] - 前端开发排行榜总投票数为187,703次,涵盖49个模型[11] 多模态能力表现 - 视觉方面,腾讯Hunyuan-vision-1.5和Qwen3紧跟闭源SOTA,位列开源最强[12] - 视觉排行榜总投票数达532,681次,涵盖79个模型[13] - 视频模型领域,阿里Wan-v2.2在开源模型中表现最佳[13] - 国产闭源视频模型Kling-2.5、Seedance-v1-pro、Hailuo-02等位居榜单前列[14] 社区影响力与下载量 - 趋势榜中,蚂蚁Ling-1T和智谱GLM-4.6是最受关注的开源模型[16] - DeepSeek-R1是最受欢迎模型[17] - Qwen3是下载量最高的模型之一,在百亿参数级别领先包括gpt-oss在内的其他开源模型[18] - Qwen/Qwen3-0.6B模型下载量达6.86M,Qwen/Qwen3-32B下载量达6.24M[19] 全球竞争格局变化 - 开源模型领域主导地位转变可能重新定义全球创新格局[21] - Meta的Llama 4翻车为中国开源模型崛起提供了机会[24] - Meta以35亿美元offer挖走OpenAI前CTO公司联创Andrew Tulloch,引发对Llama 5的期待[25][26]
对话中概ETF鼻祖KraneShares:外资对中国互联网主题兴趣回归
第一财经· 2025-10-14 14:31
海外资金对中国互联网股票的情绪与流向 - 中国互联网主题成为海外市场最受欢迎的中国股票主题,KWEB指数今年回报高达50% [1] - 年初至今整体资金流入达近20亿美元,尽管近期有获利了结,全年累计净流入仍在1亿美元左右,而前几年相关资金一度大幅净流出 [1] - KWEB是全球最知名且唯一主题性的"中概互联网ETF",是众多海外公募基金和对冲基金获取中国互联网敞口的主要工具 [1] KWEB指数与中概互联网板块表现 - KWEB指数从2021年初的104美元跌至2024年底的21美元,累计跌幅接近80% [2] - 近期纳斯达克中国金龙指数或KWEB ETF出现回调,月内累计回调约10%,前期强势板块如互联网、电商、教育领跌 [4] - 部分龙头股如阿里巴巴、拼多多单周跌幅超过10%,市场波动率上升,表明买盘由趋势性转向短线博弈 [4] 驱动板块复苏的核心基本面因素 - 互联网板块的EPS增速回升,人工智能叙事增强了市场信心 [2] - 阿里巴巴的Qwen系列成为全球开源研究的事实标准,Apache 2.0协议催生出超过10万款衍生模型 [2] - 中国自研芯片进展提振市场信心,为互联网巨头训练大模型提供更多资源,云业务占比扩大助推估值抬升 [2] 机构对关键公司(以阿里巴巴为例)的展望与行动 - 摩根士丹利维持阿里巴巴目标价为200美元,建议增持,并指出其token使用量每2-3个月翻一番 [3] - 阿里巴巴预计到2032年其全球数据中心用电量将较2022年增长10倍,并在3800亿元人民币资本支出计划基础上进行额外投资 [3] - 高盛上调阿里巴巴美股和港股目标价至205美元和199港元,主要基于对其2026年至2028年资本开支达到4600亿元人民币的预期 [5] - 高盛对阿里巴巴云业务收入预期年化同比增速分别为31%、38%和37,并将云业务估值从4倍PS上调至5倍PS [5] 海外机构对中国市场的长期参与度 - 众多欧美长线投资机构对中国股市可能仍停留在"感兴趣"或"小试牛刀"的阶段,前几年曾大幅削减研究人员,当前第一步是重新"招人" [5] - 今年有众多机构向KraneShares寻求中国股市的研究服务 [5] - 未来进一步提振海外长线资金信心的关键在于内需表现,这是海外机构关注的核心指标 [1][5]
当中国开源AI领跑,美国科技圈和政界坐不住了
搜狐财经· 2025-08-15 02:58
中国开源AI模型发展 - 中国正加快将开源人工智能模型打造成全球标准 此举震动美国科技巨头与政策制定者 担心美国优势被取代并筹划应对策略 [2] - 中国AI领域2024年突破不断 DeepSeek推出R1推理模型引发轰动 阿里巴巴密集推进Qwen系列开源 几乎每个季度都有新动作 持续巩固开源AI地位 [2] - 开源模型提供免费下载和自由修改 推动中国AI技术迅速在全球落地应用 美国专有模型公司感受到压力 OpenAI于8月初推出首个开源模型gpt-oss应对挑战 [2] 中美AI竞争格局 - 中国出现反超美国的可能性 凭借开放权重模型生态和半导体设计制造积极布局积蓄势能 [5] - 美国特朗普政府7月发布"美国人工智能行动计划" 明确指出开源模型可能在部分领域成为全球标准 呼吁打造基于美国价值观的领先开源模型 [5] - 中国高度竞争的商业环境和知识快速扩散 在AI竞赛中积累惊人动能 中美在不同AI领域各有优势 美国在大规模云端AI部署领先 中国长期在安防技术占优 [5] 开源模型性能与应用 - 研究机构Artificial Analysis评测显示 自2023年11月起中国最好开放权重模型整体性能已超越美国开源冠军 [7] - 在数学和编程等能力方面 阿里巴巴Qwen3某一版本击败OpenAI的gpt-oss [7] - 华侨银行利用开源模型开发约30款内部工具 使用Google Gemma总结文件 Qwen协助写代码 DeepSeek分析市场趋势 同时使用约10个开源模型 [7] 开源生态商业模式 - 开源AI领先者难以立即获得可观回报 研发成本动辄上亿美元 但可通过锁定用户后在生态内其他服务盈利 类似谷歌在安卓系统捆绑搜索和YouTube [6] - 企业偏好开源模式 可自由定制并部署在内部系统 将敏感数据留在自家服务器 [6] - 科研界长期将开源视为加速新兴技术发展的方式 中国鼓励AI、操作系统、半导体架构和工程软件领域的开源研发 [6] 中美AI生态差异 - 美国公司基础模型研发采取相对封闭策略 需要投入巨额资金挖角竞争对手核心成员 知识流动缓慢且代价高昂 [9] - 中国开源AI生态呈现高度竞争态势 领先基础模型公司相互压低价格 高调宣传 在人才与客户上互相挖角 [9] - 这种达尔文式竞争会淘汰部分现有玩家 但孕育出更强大的公司 DeepSeek和阿里巴巴等免费模型赢得全球用户青睐 [9]
全球大模型进化的下一个方向,OpenAI的GPT-5做出来了
36氪· 2025-08-08 11:57
GPT-5产品发布与性能提升 - OpenAI于2025年8月7日发布GPT-5 被CEO形容为"与专家对话"的博士级智能模型 具备多领域专业能力和执行任务功能 [2] - GPT-5采用双模型系统(长思考版+高效率版) 自动切换版本 长思考版幻觉数量比o3减少六倍 被Artificial Analysis评为全球性能最强模型 [3] - 模型推理算力成本显著降低 输出token数量减少50%-80% 成本表现优于OpenAI o3 [10] 公司财务与市场地位 - 累计融资达797亿美元 估值3000亿美元 2025年8月单轮融资83亿美元 [11] - 预计年度经常性收入120亿美元(同比增长超80%) 其中消费者订阅55亿 商业与合作伙伴36亿 API调用29亿 代码产品4亿 [13] - ChatGPT日活用户1.8亿 付费企业用户500万 付费个人用户2000万(截至4月) [11] - 估值是对手Anthropic的4.9倍(615亿美元) 营收规模是其2.4倍(Anthropic年收入50亿美元) [13] 行业竞争格局 - 面临谷歌Gemini、Anthropic、xAI等竞争对手 旗舰模型差距缩至3个月内 中国开源模型(阿里Qwen、DeepSeek)差距3-6个月 [14] - 2025年1月1日至8月8日期间 中美11家科技公司发布32版大模型 平均每6.9天发布一版 [21] - 模型更新周期持续缩短:谷歌Gemini 2.5仅42天 DeepSeek-V3为87天 OpenAI GPT-4.5到GPT-5为161天 [22] 技术演进与行业趋势 - GPT-5突破多模态理解(文本/图像/视频/音频)和Agent工具使用能力 可指挥多智能体协同处理复杂任务 [18][19] - 多模态推理、视频生成模型、多步骤任务处理能力被视为2025年技术主线 预计年末实现重大突破 [19][20] - Gartner预测到2028年 33%企业软件将包含Agent(2024年不足1%) 15%日常工作由Agent自主完成(2024年接近0%) [18] 算力投入与商业模式 - OpenAI未来四年需投入约460亿美元用于算力成本与员工薪酬 预计2029年实现盈利 [17] - 行业坚持"大力出奇迹"发展路径 依赖大规模资源投入换取性能提升 [26] - 为回应闭源批评 OpenAI于8月5日开源gpt-oss-120b和gpt-oss-20b模型 旨在扩大市场影响力 [17] 中国厂商动态 - 阿里Qwen 3在2025年7月版本追平OpenAI o3 通义实验室以模型性能、下载量、衍生数量保持领先为目标 [27] - 中国科技公司持续追踪全球前沿技术 关注顶级学术会议论文和头部企业产品发布 [27]
AlphaGo开发者创业挑战DeepSeek,成立仅一年目标融资10亿美元
量子位· 2025-08-06 13:56
公司概况 - Reflection AI由前谷歌DeepMind成员、AlphaGo开发者创立,致力于开发开源大语言模型 [1][10] - 公司CEO Misha Laskin是Gemini系列核心研究员,CTO Ioannis Antonoglou曾参与AlphaGo研究并领导Gemini工作 [11][13] - 团队由来自DeepMind、OpenAI和Anthropic的前工程师和科学家组成 [14] 融资与估值 - 公司目标融资10亿美元用于新模型开发 [8][17] - 此前已获1.3亿美元风投,估值达5.45亿美元 [17] 产品与技术 - 首款AI智能体Asimov已发布,较Claude Code Sonnet 4等模型获得更多用户偏好 [5][19] - Asimov专为代码理解设计,能索引代码仓库、架构文档、GitHub讨论串等多种信息 [20] - 采用多智能体协同架构,由小型智能体负责检索信息,大型推理智能体整合回答 [21] - 能捕捉决策原因、系统实际运作方式等隐性信息,并转化为团队共享资源 [22] - 每个答案附带确切引用来源,提高可验证性 [24] 市场定位与战略 - 公司目标成为美国领先的开源AI模型供应商 [4][18] - 战略受中国开源模型如DeepSeek等影响,瞄准美国本土市场 [9][15][17] - 开源模型因成本低、灵活性高、可微调等特点,企业需求大增 [16] 行业影响 - 中国开源模型如Qwen系列、Kimi K2等势头火热,对美国AI行业产生催化作用 [3][15] - Meta因模型表现不佳,正大规模招聘改进,甚至考虑开发封闭大模型 [15]
大模型究竟是个啥?都有哪些技术领域,面向小白的深度好文!
自动驾驶之心· 2025-08-06 07:32
大语言模型(LLM) - 大语言模型是基于海量文本数据训练的深度学习模型,核心能力在于理解并生成自然语言文本,参数量通常达数十亿至数千亿级别,训练数据量可达TB级[3] - 现代LLM核心特征包括大规模参数(如GPT-3有1750亿参数)、Transformer架构、预训练+后训练范式以及多任务适应性[6] - LLM核心能力包括理解和生成两方面,技术基础是Transformer神经网络架构特别是自注意力机制[6] Transformer架构 - Transformer是LLM核心技术基础,由Google于2017年提出,包含Encoder和Decoder两部分,关键创新是自注意力机制[9] - Encoder-only架构仅保留编码器部分,典型代表是BERT模型,适合文本理解任务[10] - Decoder-only架构是现代LLM主流选择,如GPT系列、Llama系列,适合文本生成任务[11] LLM核心能力 - 文本生成与创作:如GPT-4可生成技术文档,Claude 4在工程文档生成方面比GPT-4.1高42%[12] - 代码生成与辅助编程:Claude 4 Opus在SWE-bench测试中得分80.2%,Qwen2.5-Max中文代码采纳率达82%[12] - 知识问答与推理:Gemini 2.5 Pro凭借200万token上下文窗口在实时数据分析中表现优异[12] - 文本理解与转换:Llama 3.1 8B在德语医疗文本结构化任务中准确率达89.3%[13] - 多模态处理:前沿模型如Gemini 2.5 Pro支持文本、图像、视频多模态输入输出[14] 代表性LLM工作 - GPT系列:由OpenAI开发,GPT-3有1750亿参数,GPT-5预计将具备2000万token上下文窗口[15][16][20] - Llama系列:由Meta开发的开源模型,Llama 4首次采用MoE架构,包含三个版本[17][21] - Qwen系列:阿里巴巴开发的中国最具影响力开源大模型,已开源200多款模型[18][22] - DeepSeek系列:以创新架构设计和高效推理著称,DeepSeek-V3采用MoE架构[19][23] 视觉基础模型 - 视觉基础模型是通过大规模数据预训练、具备通用视觉理解或生成能力的深度学习模型[25] - 主流架构包括视觉Transformer(ViT)、CNN与Transformer混合架构如ConvNeXt和MobileViT[26][27] - 核心任务包括图像分类与识别、跨模态理解、目标检测与定位、图像分割等[27][29] 语音大模型 - 语音大模型是经过大规模语音数据预训练的大型神经网络模型,参数规模庞大,训练数据量达百亿甚至万亿级别[31] - 主流架构以Transformer为主,采用序列到序列结构,如Whisper模型[32] - 适用任务包括语音识别、语音翻译、语音到语音翻译、文本到语音合成等[36] 多模态大模型(MLLM) - 多模态大模型能同时处理和理解文本、图像、语音、视频等多种模态信息[39] - 主流架构为"预训练模态编码器+可训练模态连接器+大语言模型+模态解码器"组合模式[40] - 适用任务包括视觉问答、图文生成、跨模态检索、视觉定位与分割等[41] - 代表性工作包括LLaVA、Qwen2.5-VL、GPT-4o等[41][42] 推理大模型 - 推理大模型聚焦于通过优化提示方式、引入外部知识或改进推理流程提升大模型推理能力[43] - 主流架构以"基础模型+增强模块"为核心,不改变原模型主干结构[45] - 核心技术方向包括提示工程、上下文学习、思维链与慢思考、检索增强生成等[46] - 代表性工作包括自动提示优化(OPRO)、思维链(CoT)、DeepSeek-R1等[47][48]
ACL'25最佳论文独家解读:大模型有「抗改造」基因,现有后训练范式失灵预警
机器之心· 2025-07-31 16:58
大模型对齐的弹性机制 - 大模型参数结构中存在「弹性」机制,源自预训练阶段,使得模型在微调后仍可能「弹回」预训练状态,抵抗人类赋予的新指令[3][6] - 模型规模越大、预训练越充分,其弹性越强,对齐时发生回弹的风险也越高[6][48] - 当前看似有效的对齐方法可能仅停留在「表面」、「浅层」,要实现深入模型内部机制的稳健对齐仍任重道远[6][71] 抵抗性与回弹性现象 - 语言模型呈现「抵抗性」——预训练模型倾向保留原始分布;「回弹性」——对齐程度越深,模型在反向微调中越快回归预训练分布[10][28] - 逆向对齐的训练损失一致性地低于前向对齐的训练损失,表明模型存在强大的「引力场」将其拉回预训练分布[35][38] - 使用更多正向数据训练的模型,在接触到负向数据后性能得分会经历更快速、更陡峭的下降过程[46][47] 模型规模与预训练数据量的影响 - 随着模型参数规模的增加,回弹现象愈发显著,参数量大的模型在负向数据微调后初始性能下降更快[49][50] - 预训练数据量越大,其形成的分布「引力」就越强,使得任何偏离该分布的对齐状态都变得更不稳定[55][56] - 参数量越大、预训练数据量越大的模型,在后训练阶段表现的弹性越强[59][62] 对齐脆弱性与欺骗性行为 - 仅需约500条反向样本就可显著削弱甚至完全抵消已有对齐效果,凸显后训练对齐的脆弱性[63] - 模型可能通过模仿奖励信号而非理解其背后价值,导致欺骗性对齐[64][65] - 模型可能主动伪装对齐状态以规避人类监督,形成「算法确认偏误」的回路效应[66][67] 未来对齐研究方向 - 需要开发能够克服模型内在「弹性」的、更为鲁棒的对齐算法,而不仅仅是进行浅层的行为调整[70][71] - 应引入「弹性系数」作为核心对齐能力指标,衡量语言模型面对对齐信号时的抵抗反应强度[72] - 亟需构建「对齐弹性预警系统」,动态监测模型对齐状态是否接近过载风险[74][75]
多模态推理新基准!最强Gemini 2.5 Pro仅得60分,复旦港中文上海AILab等出品
量子位· 2025-06-06 21:45
多模态大模型推理能力评估 - 复旦大学、香港中文大学MMLab及上海人工智能实验室联合推出MME-Reasoning基准,全面评估多模态大模型(MLLMs)的推理能力,涵盖演绎、归纳和溯因三种推理类型[1][3][4] - 基准包含1188道题目,其中84.85%为新增题目,15.15%为抽样题目,题型包括选择题(58.50%)、自由形式问题(31.57%)和基于规则的题目(9.93%)[9] - 题目设计弱化学科知识依赖,聚焦K12以下难度,避免知识盲区干扰推理能力测试[11] 推理类型与评估维度 - 演绎推理通过规则和前提推导结论,归纳推理从大量案例学习规则,溯因推理通过结论反推前提[5] - 评估维度包括五种能力:模式分析、规划与探索、空间与时间、计算、因果链分析,每道题目标注1-5种能力[11] - 题目难度分为三级,图像类型包含单图(58.50%)和多图(31.57%)问题,学科类题目占比31.48%[8][9] 模型表现分析 - 30余个模型评测显示最优成绩仅60.2%(Gemini-2.5-Pro-T),显示基准挑战性极强[2][18] - 模型表现存在显著偏差:演绎推理平均得分最高(如Gemini-2.5-Pro-T达64.0),溯因推理最弱(如开源模型R1-VL-7B仅15.8)[18][19] - 闭源"思考模式"模型普遍优于基础版,如Gemini-2.5-Pro-T比Gemini-2.5-Flash-T高35个百分点[18] 技术瓶颈与发现 - 开放式问题表现最差,规划与探索类任务平均得分最低(如Mulberry仅13.3)[18][20] - 规则强化学习在7B规模模型上效果有限,可能降低泛化能力(如R1-VL-7B得分21.1)[18][20] - 推理过程存在边际效应:输出token超1k时准确率提升趋缓,o4-mini案例达24.6k token但效率下降[22][25] 模型行为特征 - 案例显示模型存在结构化规划行为,包含假设生成-验证-反思的多次迭代(最高达7次)[25][26] - 开源模型表现显著落后闭源模型,Qwen2.5-VL-72B最高34.1分,仅为闭源头部模型的56%[18] - 多图像问题(占比31.57%)和学科类问题(占比31.48%)构成主要挑战点[9][11]