Workflow
量子位
icon
搜索文档
14%论文都有AI代写?Nature:每7篇就有1篇藏有ChatGPT特征词
量子位· 2025-07-04 15:02
LLM在学术写作中的使用现状 - 2024年PubMed上发表的150万篇生物医学研究摘要中,超过20万篇频繁出现LLM特征词,占比约14% [1] - 部分国家和学科中AI辅助写作比例已超过五分之一,且趋势持续上升 [3] - 自ChatGPT实现学术文本生成后,LLM被广泛融入论文写作流程,甚至出现合作撰写现象 [5] LLM的文本特征识别方法 - 研究团队分析2010-2024年1400万篇PubMed摘要,构建词汇二元矩阵计算超额使用指标 [10] - 2024年后"intricate"、"notably"等风格词超额使用,其中66%为动词(如"delving")、16%为形容词(如"crucial") [11] - 通过222个低频风格词+10个高频词组合计算,2024年论文中10%-11%摘要使用LLM,部分子库高达30% [13] 跨领域使用差异 - 计算领域和生物信息学等学科LLM使用率达20%,因技术迭代快需快速掌握新技术 [16] - 非英语国家(如中国、韩国)LLM辅助英语写作使用率15%,显著高于英语国家 [16] - 开放获取期刊《Sensors》LLM使用率24%,而《Nature》《Science》等顶刊仅6%-8% [16] 人为干预对特征词的影响 - 2024年4月起"delve"、"intricate"等ChatGPT特征词使用频率显著下降 [23] - 实验显示提示词干预可降低LLM特征词频率,但无法完全消除 [25] - Binoculars检测器对提示词修改后的文本敏感度降低,但无法准确区分真实与LLM生成文本 [27] 未来研究方向 - 需通过统计大量文本词汇频率(而非单篇检测)量化AI对学术文献的影响 [28] - 当前MGT检测器准确度受模型类型、文本类别和人为修改策略多重影响 [28] - 亟需建立AI参与学术写作的边界标准和使用规范 [28]
硅谷的企业级AI正在这样赚钱|2025人工智能现状报告
量子位· 2025-07-04 12:40
企业级AI开发现状与战略变化 - OpenAI的GPT系列模型仍是最受欢迎的首选模型 Claude位居第二 但多模型并行策略正成为趋势 多数企业采用OpenAI搭配1-2个其他供应商模型的组合[7][10][42] - 90%高增长初创公司正在积极部署或使用智能体 显示智能体技术已成为重要发展方向[20] - 营收规模约5亿美元的公司在AI上的年支出约为1亿美元 显示AI投入与企业规模正相关[16] AI产品战略与价值转化 - AI原生公司将产品推向市场的速度远超AI赋能公司 仅1%AI原生公司处于预发布阶段 而AI赋能公司达11% 47%AI原生公司已验证市场契合度 AI赋能公司仅13%[33][34] - 80%AI原生公司正在构建自主工作流程 代表用户执行多步操作的自主系统成为建设重点[37] - 代码辅助工具效益显著 高增长初创企业AI生成代码量占比达33% 其他公司为27% 生产力提升15%-30%[30][76][77] AI定价模式演变 - 混合定价模式成为主流 40%企业维持现有策略 37%正探索基于用量 ROI和使用层级的新收费模式[25][49] - AI赋能SaaS厂商目前多将AI作为差异化卖点 但预计未来将转向基于用量的收费模式以避免利润率压缩[47] - 推理成本在产品进入通用可用阶段后大幅飙升 高增长企业支出可达同行两倍[19] AI人才与组织架构 - AI/ML工程师平均招聘周期超70天 54%企业表示招聘进度滞后 合格人才储备不足是主因[56][58] - 多数企业预计20%-30%工程团队将专注AI领域 高增长企业比例达37%[55] - 营收突破1亿美元的企业普遍设立专门AI高管职位 以应对运营复杂度提升和统一战略布局[23] AI工具生态系统与内部应用 - 70%员工被提供内部AI工具 但仅50%定期使用 大型企业员工接受度尤其低[72][73] - 高采用率组织平均在7个以上场景部署AI 代码助手使用率达77% 内容生成65% 文档搜索57%[73] - 高增长企业更积极试验新AI工具 显示头部公司已将AI视为战略杠杆[82] AI研发投入与成本结构 - 企业将10-20%研发预算用于AI 多数计划2025年追加投入[61] - 早期阶段人才是最大开支 产品成熟后云成本和模型推理成为主要支出[64] - API使用费被视为最难控制的支出 显示外部API调用带来显著不确定性[67] - 每月模型训练成本在16万至150万美元间浮动 与产品成熟度相关[69]
物理学家靠生物揭开AI创造力来源:起因竟是“技术缺陷”
量子位· 2025-07-04 12:40
核心观点 - AI的"创造力"本质上是扩散模型架构的确定性产物,而非高级智能表现[1][19] - 扩散模型的局部性和等变性限制(技术缺陷)反而成为其创造力的来源[13][16][19] - 该机制与生物形态发生学中的图灵模式高度相似,解释了AI生成图像常见缺陷(如多余手指)的成因[9][12][19] 研究背景 - 扩散模型(DALL·E/Stable Diffusion核心)设计初衷是精确复制训练数据,但实际表现出"即兴创作"能力[3][5] - 去噪过程中像素块的局部重组导致信息丢失,类似拼图丢失说明书后的创造性重组[6][8] - 物理学家团队(跨学科背景)从生物自组装过程获得启发,建立ELS数学模型验证假设[9][16] 关键发现 - ELS模型仅基于局部性+等变性规则,即能以90%准确率复现扩散模型输出[18][19] - 创造力源于系统动态:模型过度关注局部像素块而缺乏全局协调(类似生物发育中的多指畸形)[12][15][19] - 该机制可数学形式化,证明创造力是去噪过程的必然副产品[16][19] 未解问题 - 非扩散模型(如LLM)的创造力机制尚未被该理论覆盖[21] - 人类与AI创造力可能共享"不完整认知→填补空白"的底层逻辑[21][22] 行业意义 - 首次将AI创造力归因于底层技术架构而非抽象能力[1][19] - 为理解人类创造性思维提供新视角(神经科学类比)[19][21] - 可能推动新一代生成模型的设计范式转变[16][19]
周伯文等将亮相上海交大,论道AI如何重塑产业格局,交大高金MBA课程全新升级
量子位· 2025-07-04 12:40
论坛概述 - 论坛主题为"AI创智时代的最好投资",聚焦AI技术革命与投资机遇的交汇点,探讨如何在这场变革中成为赢家 [1] - 由上海交大上海高级金融学院主办,将发布交大高金MBA课程升级方案,旨在重构知识体系,实现金融思维与科技基因的深度融合 [1] - 论坛汇集人工智能实验室顶尖科学家、金融与科技领域校友、产研领袖等多方专家,共同探讨AI时代的核心命题 [1] 议程安排 投资自己 - 探讨AI创智时代有效的学习方式,圆桌讨论个人发展归因(自身、大势或MBA) [3] - 嘉宾包括交大高金MBA项目执行主任倪海英等 [3] 投资交大 - 展示上海交大在人工智能领域的优势,圆桌讨论"为什么上海交大是科创时代首选院校" [3][4] - 嘉宾包括中国工商银行临港新片区分行行长王扉、上海交通大学重庆人工智能研究院副院长程芳等 [3] 投资AI - 上海人工智能实验室主任周伯文教授分享AI科技最新前沿进展 [5] - 圆桌讨论"AI产业发展带来超级个体突破" [6] 投资中国 - 上海交通大学中国金融研究院副院长朱启贵教授探讨加快发展新质生产 [7] - 圆桌讨论"投资中国科技的未来",嘉宾包括创新奇智CTO张发恩、同花顺iFind AI运营总监祝睿锐等 [10][9] 参与嘉宾 - 来自金融、科技、学术等多领域的专家,如紫竹小苗基金副总经理杨海忠、张江产业工程院院长张爱平、华为上海超级计算中心副部长郭培卿等 [8][12] - 多家上市公司代表参与,包括恺英网络大模型负责人谭凯、荃信生物执行董事林伟栋等 [9][12]
英伟达加冕历史第一股!老黄最新身家1388亿美元,刚入职的研究员都赶上了
量子位· 2025-07-04 12:40
英伟达市值突破历史纪录 - 英伟达市值达3.92万亿美元,刷新全球历史纪录,超过加拿大和墨西哥股市总市值之和,也超过英国所有上市公司总市值 [1] - 此前历史最高纪录保持者为苹果,去年12月26日创下3.915万亿美元收盘纪录 [2] - 微软市值3.7万亿美元位居第二,苹果3.19万亿美元位居第三 [3] AI赛道推动市值暴涨 - 2023年英伟达市值首次破1万亿美元,两年内闪电般翻番 [4] - 华尔街对AI乐观情绪空前高涨,核心动力来自新一代AI芯片技术突破 [10] - 微软、苹果、亚马逊等巨头展开AI数据中心军备竞赛,对英伟达高端处理器需求井喷 [11] 新一代AI芯片技术突破 - 英伟达GB300 NVL72系统完成全球首次商用部署,由戴尔交付给CoreWeave [11] - 单台GB300 NVL72机架含72颗Blackwell Ultra GPU和36颗Grace CPU,搭配20TB HBM3E显存和40TB系统内存 [12] - 性能达1.1 ExaFLOPS FP4推理算力和0.36 ExaFLOPS FP8训练性能,较前代提升50% [12][13] 供应链与出货情况 - GB200出货高峰期原预计2024年底或2025年初,因供应链挑战推迟至今年第二或第三季度 [16] - 当前正值出货高峰期,推动股价飙升 [16] 创始人财富增长 - 黄仁勋净资产达1388亿美元,较之前增长18亿美元,涨幅1.31%,全球富豪榜排名第10 [5] 股价波动情况 - 英伟达股价早盘暴涨2.4%至160.98美元,市值达3.92万亿美元 [7] - 随后涨幅收窄至1.5%,每股159.60美元,市值3.89万亿美元,仍紧逼苹果历史峰值 [7] 人才战略 - 英伟达持续挖角清华系AI人才,包括贾扬清、韩松、吴迪、毛慧子等 [20][25][26][28][29] - 近期收购清华系AI公司Nexusflow,其联创焦剑涛、朱邦华等加入英伟达担任重要职位 [26] - 多位清华校友在英伟达担任研究总监、杰出科学家等关键职位 [25][26][28]
百万年薪遍地走,Meta薪资接连曝光!AI人才身价水涨船高ing
量子位· 2025-07-04 12:40
Meta薪资曝光 - Meta通过H-1B签证文件曝光各岗位薪资水平,软件工程师年薪最高达48万美元(344万人民币),最低12万美元(86万人民币)[10] - 机器学习工程师年薪最高44万美元(315万人民币),AI相关岗位(如AI研究科学家、ML研究科学家)起薪普遍超17万美元(122万人民币)[11][13] - 数据分析岗中,数据科学家/工程师年薪达27万美元(194万人民币),产品经理等非技术岗年薪也常超20万美元[15][16] - 曝光的薪资仅为基本工资,不含股票期权和福利,实际总包可达基本工资的2-3倍[9] 行业薪资对比 - Meta在北美科技公司中薪资水平领先,全岗位薪资具有"碾压级优势"[17] - OpenAI技术岗位基本工资最高65万美元,加上股票期权后年薪可达150万美元[35] - 初创公司如Thinking Machine提供50万美元薪资,高于Anthropic(40万)和OpenAI(30万)[31] - 谷歌曾斥资27亿美元重新聘用顶级人才Noam Shazeer[27] AI人才争夺战 - 全球具备大模型研发能力的人才仅约1000人,科技公司通过高薪激烈竞争[19][20] - 2022-2025年顶尖技术人员薪资涨幅显著提升,Meta是当前最激进的企业之一[21][26] - 国内企业如DeepSeek、腾讯、华为等推出"薪资不设上限"的人才计划,百万年薪成为常态[38][39] - 大厂间人才流动频繁,如字节挖角谷歌DeepMind副总裁,阿里引进顶尖AI科学家[41] 国内科技企业人才计划 - 京东TGT计划、百度文心计划、腾讯青云计划等针对校招生/博士生,提供专属晋升通道和行业TOP薪酬[40] - 招聘方向集中于AI大模型、多模态、算法工程等领域,要求候选人在顶级会议发表论文或获得重量级奖项[40] - 国内技术人才薪资较硅谷更务实,但竞争激烈程度不逊于国外[41]
无损加速视觉语言模型推理!轻松剪掉视觉冗余Token|腾讯AI Lab
量子位· 2025-07-04 09:42
核心观点 - 多模态智能面临视觉Token激增导致的算力瓶颈,腾讯AI Lab与CMU提出的VScan通过两阶段剪枝机制实现2.91倍推理加速,几乎不损性能[1][2] - VScan兼容主流视觉语言模型(如LLaVA/Qwen2.5-VL),覆盖图像问答/视频理解等16项任务,最高压缩88.9%视觉Token时性能仅降3.3%[4][31][32] - 该方法突破现有文本无关/文本相关剪枝方法的局限,首次实现跨视觉编码与语言解码阶段的协同优化[8][9][24] 技术背景 - 现有LVLM处理高分辨率图像时视觉Token达2,880-16,384个,自注意力计算复杂度呈平方增长导致显存与计算负担指数级上升[2][3] - 传统剪枝方法分两类:文本无关方法依赖视觉自注意力权重(如VisionZip),文本相关方法基于Token-查询相关性(如SparseVLM),但均缺乏跨阶段分析[8] - 早期剪枝存在位置偏置问题,中间层(第16-20层)才是多模态交互的黄金剪枝时机[18][21][22] 解决方案 - **第一阶段**:视觉编码阶段结合全局扫描(提取语义核心Token)与局部扫描(保留细节Token),通过相似性引导融合被剪Token信息[26][30] - **第二阶段**:语言解码阶段在中间层按注意力强度筛选文本相关Token,避免过早剪枝导致信息损失[27] - 支持FlashAttention与KV Cache压缩,LLaVA-NeXT-7B预填阶段加速达2.91倍,显存占用显著降低[36] 性能验证 - 在LLaVA-1.5-7B上,保留192/128/64个Token(原576个)时平均准确率仅降1.0%/1.2%/3.3%,显著优于VisionZip等基线[31][32] - Qwen2.5-VL-7B处理视觉定位任务时,75%剪枝率下VScan性能保持80.7%,而FastV/PyramidDrop性能腰斩[33][34] - 覆盖3B-32B不同规模模型,在GQA/MMBench等16个数据集上实现零损剪枝至88.9%压缩率[28][29][38] 行业影响 - 为多模态落地提供轻量级解决方案,尤其适合实时工业应用与边缘设备部署[5][38] - 开源方案降低工程门槛,推动社区优化视觉Token效率范式[6][39]
科学家Ilya不想当CEO,都是扎克伯格逼的
量子位· 2025-07-04 09:42
公司动态 - Ilya Sutskever被迫出任SSI公司CEO,接替离职的联创Daniel Gross [1][2][11] - 另一名联创Daniel Levy担任总裁,技术团队继续向Ilya汇报 [11] - Daniel Gross于6月29日离开SSI,此前已减少在公司的出现时间 [5][12] 人事变动与分歧 - Meta通过高薪挖角(传闻年薪1亿美元)和收购策略(如143亿美元收购Scale AI 49%股份)吸引人才 [17][19] - Ilya拒绝Meta的收购提议,而Daniel Gross对收购持开放态度,导致两人分歧 [21][22] - Meta同时计划收购Daniel Gross与Nat Friedman创立的AI风投基金NFDG部分股份 [24][26] 公司估值与融资 - SSI成立于2024年6月,专注"安全的超智能AI",未推出任何产品 [38][41] - 成立3个月后完成1亿美元首轮融资,估值达50亿美元 [39] - 2025年3月估值飙升至300亿美元,6月进一步涨至320亿美元(约2294亿人民币) [40] 创始人背景与行业影响 - Ilya Sutskever因AlexNet、AlphaGo和GPT两次改变AI行业,其个人影响力支撑SSI高估值 [43] - Daniel Gross为哈佛计算机系毕业,曾任苹果机器学习总监、YC AI负责人,2023年被《时代》列为AI领域最具影响力人物之一 [31][32][34] - 苹果曾试图招揽Daniel Gross并收购其投资的Perplexity [35] 战略定位 - SSI明确拒绝收购,强调"不卖,不缺钱",坚持超级智能研发目标 [28][29] - 公司核心研发力量仍由Ilya掌控,团队精简且保密性高 [14][41]
LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节
量子位· 2025-07-04 09:42
语义压缩研究 - 人类具备将不同事物归类到高级概念(如"水果")的语义压缩能力,即使面对新词汇也能通过语义线索快速分类 [1][2][3] - 图灵奖得主LeCun团队提出信息论框架,对比人类与LLM在语义压缩中的策略差异:LLM偏向统计压缩,人类更注重细节与语境 [4][5][17] 研究框架设计 - 构建包含1049个项目、34个语义类别的人类概念分类基准,整合认知科学经典研究数据,包含典型性评分以反映人类概念结构 [5][6][7] - 选取30+种LLM(参数规模3亿至720亿),包括BERT、LlamA、Gemma等,从嵌入层提取静态词元表示以确保与人类分类实验基准一致 [8] - 引入信息论框架,结合速率失真理论和信息瓶颈原理分析压缩效率与语义保真度的权衡 [9][12] 核心研究发现 - LLM概念分类与人类语义分类的对齐度显著高于随机水平,验证其基本语义组织能力 [10][11] - LLM难以处理细粒度语义差异,其内部概念结构与人类直觉不符,典型性判断与余弦相似度的相关系数较弱且大多不显著 [14][16] - 关键差异:LLM追求最小化冗余信息的统计压缩,人类则保持适应性与上下文完整性 [17] 研究团队背景 - 由斯坦福大学与纽约大学联合开展,第一作者为斯坦福博士后Chen Shani,Yann LeCun作为合著者参与 [19][20][22] - LeCun是Meta首席AI科学家、CNN架构先驱,与Hinton、Bengio共获2018图灵奖,推动深度学习工业应用与自监督学习发展 [24][25][26][27][28] 补充信息 - 论文发布于arXiv(编号2505.17117),研究引发AI社区广泛讨论 [29]
vivo突破手机AI部署难题,绕开MoE架构限制,骁龙8 Elite流畅运行|ICCV 2025
量子位· 2025-07-03 17:00
多模态大模型在移动端的部署挑战与解决方案 - 当前端侧多模态大模型(MLLM)面临纯语言任务性能下降超10%的问题,尤其在MATH、AlignBench和MT-Bench测试中表现明显 [4] - 手机NPU平台尚不支持MoE架构部署,包括联发科天玑9400和高通骁龙8 Elite在内的旗舰SoC均存在此限制 [7] - vivo AI研究院联合学术团队提出GenieBlue方案,通过冻结原始LLM参数并引入复制Transformer层+LoRA模块解决上述问题 [2] GenieBlue核心技术突破 - 采用不共享基座的推理策略,在骁龙8 Elite芯片上实现流畅运行,完全保留原始纯语言性能 [3] - 通过1/4层复制Transformer+LoRA模块设计,多模态性能达到全量微调的96%以上 [18] - 相比CogVLM-Skip方法,GenieBlue-Skip在多模态任务平均表现提升1-2个百分点 [23] 训练数据与模型结构优化 - 实验显示增加200万纯文本数据对多模态能力无显著影响,但能部分恢复客观NLP任务性能 [11][12] - 全量微调导致纯文本任务性能下降22-36%,而LoRA和CogVLM方法可保持90%以上原始能力 [17] - 在BlueLM-3B模型上,GenieBlue-Skip结构实现98.99%多模态性能保留率 [23] 部署效果验证 - 在MMBench等9项多模态测试中,GenieBlue(3.2B)表现优于InternVL2-8B(8B) [32] - 采用不共基座部署策略实现100%原始语言能力保留,显著优于Qwen2.5VL-3B的92.98% [34] - 在骁龙8 Elite平台实现30token/s推理速度,模型加载时间仅增加15% [35]