Workflow
语言模型(LLM)
icon
搜索文档
戴尔与英伟达合作,发布全新企业AI解决方案,推出新一代PowerEdge服务器
华尔街见闻· 2025-05-20 04:31
企业AI解决方案发布 - 戴尔与英伟达合作发布新一代企业AI解决方案,升级了AI工厂的基础设施、解决方案和服务,以简化企业AI全面实施的路径[1] - 新产品线包括高级计算、数据存储、数据管理和网络解决方案[1] - 戴尔推出了新一代的AI基础设施,包括风冷和液冷的PowerEdge服务器,支持多达192个英伟达Blackwell Ultra GPU[1][4] - 新产品能够实现高达四倍的大型语言模型(LLM)训练速度[1][4] 技术性能与创新 - 新型PowerEdge服务器采用直接芯片液体冷却技术,每个戴尔IR7000机架可定制高达256个英伟达Blackwell Ultra GPU[4] - 戴尔计划支持英伟达Vera CPU和Vera Rubin平台,进一步提升AI性能和效率[1][5] - 戴尔PowerEdge XE7745服务器将于2025年7月支持英伟达RTX Pro™ 6000 Blackwell Server Edition GPU,为机器人技术、数字孪生和多模式AI应用等提供统一平台[5] 市场数据与表现 - 目前已有75%的组织将AI视为核心战略,65%的企业成功将AI项目推进到生产阶段[1] - 戴尔AI工厂方案在本地部署大型语言模型(LLM)推理方面的成本效益比公共云高出62%[1] - 截至发稿,戴尔股价已从4月低点上涨60%,回升至114美元,市值接近800万亿美元[1] - 全球已有超过3,000家客户正在使用戴尔AI工厂加速其AI计划[5] 产品扩展与生态系统 - 戴尔正在扩展其AI产品线范围,以满足从边缘到数据中心的所有部署需求[3] - 戴尔的企业级AI解决方案覆盖了从企业级AI PC到数据中心的各个环节,构成了一个完整的生态系统[5] - 空气冷却型戴尔PowerEdge XE9780和XE9785服务器简化了与现有企业数据中心的集成[4] - 液体冷却型戴尔PowerEdge XE9780L和XE9785L服务器加速机架级部署[4]
中金 | 大模型系列(3):主动投研LLM应用手册
中金点睛· 2025-05-16 07:32
核心观点 - 大语言模型(LLM)在主动投资领域具有变革性潜力,能够解决信息过载问题,提升投研效率和深度 [1][8] - LLM在信息获取与处理、深度分析与挖掘、策略生成与验证三个核心环节展现出强大应用价值 [3][4][5] - 人机协作是LLM在主动投资领域最现实且最具价值的应用模式,需要投研人员掌握Prompt Engineering等新技能 [9][10] 信息获取与处理 - LLM能够自动化市场信息跟踪,实时抓取多源数据并生成结构化摘要,提升信息处理效率 [3][13] - 在分析师报告聚合与对比方面,LLM可自动解析不同格式研报,提取关键信息并识别市场共识与分歧点 [3][29][30] - 对于上市公司业绩电话会纪要,LLM能快速处理会议内容,提取财务更新、战略重点等关键信息 [3][31][32] 深度分析与挖掘 - LLM能够量化文本情绪,识别细微情感变化,并绘制情绪变化曲线,为投资决策提供独特视角 [4][38] - 在组合分析与风险识别方面,LLM可提供基于实时事件和非结构化信息的风险分析,增强风险管理前瞻性 [4][39] - LLM能够分析组合持仓相关的重大新闻、行业动态等文本信息,为传统量化归因模型提供补充解释 [4] 策略生成与验证 - LLM在基本面因子挖掘方面具有思路广度、逻辑自洽和高度可定制化三大优势 [5][45] - LLM能显著降低策略回测门槛,将自然语言描述的投资策略自动转化为可执行代码 [5][46] - 通过自然语言到代码的转换,LLM加速了投资方法的验证与优化过程 [5] 应用前景 - LLM适合执行大规模数据处理和初步分析,而人类在目标设定、逻辑构建等方面具有优势 [6] - 构建高效的人机协作模式是LLM大规模成功应用的前提 [6] - 投研人员需要发展Prompt Engineering等新能力来充分利用LLM的潜力 [9][10]
一个极具争议的开源项目,「微信克隆人」火了!
菜鸟教程· 2025-05-15 16:33
以下文章来源于JackCui ,作者JackCui JackCui . 一名热爱技术的算法工程师。分享技术,乐享生活:技术、快乐、财富。 你的微信里有没有一个对话窗?它很久都没有弹出新消息,但你却常常在深夜里点开反反复复地翻着。 如果现在,你可以用这些聊天记录克隆出对方的"数字分身",保存下 TA 说话的语气、风格、独特的口 头禅,甚至还能给你发来语音,你会怎么选? 最近,GitHub 上新开源了一个项目 WeClone——让你记忆里的那个 TA 在数字世界里永生,已不再是不 可能。 WeClone 通过个人微信聊天记录对大语言模型( LLM )进行微调,打造个性化的数字分身。 除了留住记忆里的 TA,你也可以创造自己的数字分身。 你有没有想过,和自己聊天会是什么样的体 验?你会喜欢和自己聊天吗? | O | 17 | 0 | ılıl 1.9K | W | T | | --- | --- | --- | --- | --- | --- | | | Vic Huang @bugauwIQtoa5ftS · Apr 11 | | | C | ... | | 数字永生 | | | | | | | 0 | 5 | ...
高盛:中国数据中心 - 2025 年第一季度展望 - 增长前景不变;估值调整后仍建议买入万国数据(GDS)和网宿科技(VNET)
高盛· 2025-05-13 13:39
报告行业投资评级 - 维持对 GDS ADR/H 股的买入评级,12 个月目标价为 42 美元/41 港元,有 65%/61%的上涨空间;维持对 VNET 的买入评级,12 个月目标价为 13 美元,有 118%的上涨空间;对 Sinnet 维持卖出评级,12 个月目标价为 10.5 元人民币,有 28%的下跌空间 [1][8] 报告的核心观点 - 预计中国数据中心行业整体利用率将从 2024 年的约 60%提高到 2026 年的 70%以上,但供应紧张和供应过剩并存 [20] - 国内芯片和大语言模型/云的最新发展将在中期带来更可持续的批发数据中心需求,并在短期内扭转零售数据中心需求 [37] - GDS 和 VNET 的最新融资进展使其有足够现金满足 2025 年资本支出需求 [7] - 预计 GDS 和 VNET 一季度营收和 EBITDA 与市场共识数据基本一致,并维持全年营收、EBITDA 和资本支出指引不变 [1][59] 根据相关目录分别进行总结 1. 中国数据中心最新供需动态 - 预计行业整体利用率从 2024 年的约 60%提高到 2026 年的 70%以上,2024 - 2027 年需求复合年增长率为 21%,供应复合年增长率为 14% [20][22][23] - 供应紧张和供应过剩并存,包括低质量零售数据中心利用率低、AI 适用的批发数据中心供应有限、分散计算能力过剩以及国产芯片暂时未充分利用等问题 [36] 2. 人工智能最新发展对中国数据中心的影响 - 美国人工智能法规动态,对中国大陆数据中心无增量影响,对海外数据中心需关注新监管动态 [37] - 客户可能增加国产芯片采购以满足 AI 需求,国内芯片和基础设施的增加将满足云超大规模企业的 AI 投资需求并推动数据中心需求 [37][38] - 中国大语言模型发展迅速,AI 推理需求贡献大幅增加,将带来更可持续的批发数据中心需求和零售数据中心需求的潜在扭转 [41] 3. 最新融资进展及海外融资预期 - GDS 完成 ABS 发行并上市,公共 REIT 待进一步反馈,融资使其有 43 亿元人民币现金满足 2025 年资本支出需求 [51][50] - VNET 完成预 REIT 项目,私人 REIT(ABS)项目获批,发行 4.3 亿美元可转换优先票据,预计未来 1 - 2 年以国内银行贷款为主要融资方式,有 100 - 120 亿元人民币现金满足 2025 年资本支出需求 [55][50] 4. GDS/VNET 即将公布的 2025 年第一季度业绩关注点 - 预计 GDS 和 VNET 一季度营收和 EBITDA 与市场共识数据基本一致,并维持全年营收、EBITDA 和资本支出指引不变 [1][59] - 关注过去几个月的新订单获取情况、数据中心入驻率、管理层对需求、下游芯片供应/国产芯片能力和扩张计划的展望,以及 DayOne 的扩张进展 [2][59] 5. 各公司具体情况 GDS Holdings - 预计 2025 年第一季度营收同比增长 16%至 28 亿元人民币,调整后 EBITDA 同比增长 18%至 13 亿元人民币;全年营收 115 亿元人民币,调整后 EBITDA 57 亿元人民币 [60] - 上调 2025 - 2027 年营收和 EBITDA 预测,预计 2025 年利用率达到 76%,净债务/调整后 EBITDA 比率到 2028 年降至 5.2 倍 [65][70] - 12 个月目标价上调至 42 美元/41 港元,基于 SOTP 估值,维持买入评级 [66] VNET Group - 预计 2025 年第一季度营收同比增长 18%至 22 亿元人民币,调整后 EBITDA 同比增长 13%至 6.1 亿元人民币;全年营收 93 亿元人民币,调整后 EBITDA 28 亿元人民币 [61] - 维持营收/调整后 EBITDA 预测基本不变,12 个月目标价调整为 13 美元,基于 12 倍 2026 年 EBITDA 的目标 EV/EBITDA 倍数,维持买入评级 [83] Sinnet Technology - 2025 年第一季度营收同比下降 7%至 18.3 亿元人民币,净利润同比下降 58%至 5900 万元人民币 [62] - 下调 2025 - 2027 年营收和净利润预测,12 个月目标价下调至 10.5 元人民币,维持卖出评级 [89][90]
AI也需要"记笔记":Karpathy从Claude 1.6万字提示词中看到的未来
歸藏的AI工具箱· 2025-05-12 16:28
系统提示词对比分析 - Claude的系统提示词长达16,739个单词,远高于OpenAI的ChatGPT中o4-mini系统提示的2,218个单词(仅为Claude的13%)[2][3] - Claude的提示词包含大量非结构化修改痕迹,疑似针对热点事件或问题修复的临时补丁,维护复杂度高[5] - 提示词中工具定义占比最高,详细规定了14个MCP工具的使用规范(如谷歌Drive搜索说明超1700字),其次是用户偏好和风格指引[8] 大语言模型学习范式革新 - 当前LLM主要依赖预训练(获取广泛知识)和微调(优化行为习惯),均需调整模型参数[9] - Karpathy提出"系统提示学习"新范式:类比人类通过显式笔记总结经验,而非直接改写大脑参数[10] - 理想状态下模型应自动生成/优化提示词,但当前Claude提示词仍完全由人工编写,效率低下[10][18] 系统提示学习的潜在价值 - 优势包括:更高维的数据利用(通过显式复盘吸收反馈)、更强的任务泛化能力[19] - 可能解决LLM现存痛点:如《记忆碎片》式依赖参数记忆,缺乏外部备忘录机制[12] - 需攻克技术难点:自动编辑提示词算法、提示编辑系统的自学习机制、显式知识向参数习惯的转化[20] 提示工程实践启示 - 结构化指令效果更优:Claude提示词使用列表/格式/示例,明确工具调用规则和用户交互边界[8][15] - 精准指令胜于模糊表达,需具体说明需求与限制条件(如知识截止日期、诗歌创作规范)[8][14] - 提示工程本质是沟通技巧延伸,非高深技术,普通用户可通过学习Claude提示词提升效果[16][17] 行业资源链接 - Karpathy推文探讨系统提示学习[21] - 第三方网页解析Claude提示词内容与结构[21]
马来西亚,下一个全球数据中心霸主?
财富FORTUNE· 2025-05-09 21:03
马来西亚柔佛州即将建成的"探索新城"办公楼的内部设计效果图。图片来源:Courtesy of ZA 19世纪40年代,新加坡的华人先民横渡柔佛海峡(Johor Strait),在马来西亚柔佛州的原始丛林中披荆 斩棘,建立起绵延不绝的黑胡椒种植园。20世纪的英国殖民时期,这些胡椒农场逐渐被广袤的橡胶林与 油棕榈园所取代。如今,在同一片土地上,柔佛州正在悉心培育数字时代的新型经济作物——为缓解全 球算力饥渴而建设的人工智能数据中心群。 柔佛的数据中心建设狂潮,与当年改种胡椒的产业转型如出一辙,根源都在新加坡的资源瓶颈。这个城 邦国家虽然贵为东南亚的数字中枢,却连水电供给都依赖进口。2019年,因为庞然巨物般的数据中心不 仅消耗大量水资源,更消耗了新加坡7%的电力,政府不得不叫停新建项目。投资方与运营商旋即跨海 而来,在土地成本优势显著、能源供给充沛,以及矢志助推数字经济发展的马来西亚落子布局。 而柔佛跻身数据中心重镇的另一关键推力,在于全球算力争夺战的白热化。尽管新加坡在2022年1月已 经放开数据中心禁令,但岁末ChatGPT的震撼问世引爆全球人工智能基础设施需求,也在马来西亚掀起 新一轮的投资狂潮。房地产咨询 ...
仅需1个数据,就能让大模型的数学推理性能大大增强?
机器之心· 2025-05-09 17:02
论文发现,只在 RLVR 训练中使用一个训练数据(称作 1-shot RLVR),就可以在 MATH500 上,将 Qwen2.5-Math-1.5B 的表现从 36.0% 提升到 73.6%,以及把 Qwen2.5-Math-7B 的表现从 51.0% 提升到 79.2% 。 这个表现和使用 1.2k 数据集(包括这一个数据)的 RLVR 效果差不多。 使用两个训练样本的 RLVR 甚至略微超过了使用 1.2k 数据集(称作 DSR-sub)的表现, 和使用 7.5k MATH 训练集的 RLVR 表现相当。这种表现可以在 6 个常用的数学推理任务上都可以观察到。 本文第一作者王宜平是华盛顿大学的博士生,其导师、通讯作者杜少雷为华盛顿大学Assistant Professor;另外两位通讯作者 Yelong Shen 和 Shuohang Wang 是 Microsoft GenAI 的Principal Researcher。 最近, 大型语言模型(LLM)在推理能力方面取得了显著进展,特别是在复杂数学任务上。推动上述进步的关键方法之一就是带可验证奖励的强化学习 (Reinforcement Learni ...
苹果谷歌“闹分手”?iPhone搜索或转投AI,高管揭秘
36氪· 2025-05-09 07:59
此案核心争议是两家公司价值约200亿美元(约合人民币1447亿元)/年的协议,该协议让谷歌搜索成为苹果浏览器默认搜索引擎。此案可能迫 使科技巨头解除合作,颠覆iPhone等设备长期以来的运作方式。 01.Safari搜索量首次下滑,AI抢夺传统搜索引擎"蛋糕" 自2007年初代iPhone发布以来,苹果用户始终通过谷歌进行网页搜索,而如今消费者将进入由多家公司AI主导的新时代。 苹果和谷歌要"分手"? 智东西5月8日消息,据知名苹果爆料人、彭博社记者马克·古尔曼(Mark Gurman)最新报道,苹果公司正在"积极考虑"彻底改造其设备上的 Safari网络浏览器,将重点转向AI驱动的搜索引擎。 苹果与谷歌持续二十年战略合作关系似乎出现"裂痕",重大行业变革被按下"加速键"。 本周三,苹果互联网软件和服务部门高级副总裁埃迪·库(Eddy Cue)在美国司法部起诉谷歌母公司Alphabet的案件中作证时披露了这一信息。 埃迪·库提到,Safari搜索量上月首次下滑。他认为这是因为AI工具吸引了部分用户的视线,包括OpenAI、Perplexity AI和Anthropic在内的AI搜 索提供商终将取代Alphab ...
中金 | 大模型系列(2):LLM在个股投研的应用初探
中金点睛· 2025-05-09 07:33
LLM在个股投研的应用 - 核心观点:大语言模型(LLM)技术可构建智能化个股复盘框架和基本面因子生成框架,提升投研效率[1][7] - 应用场景:主观逻辑因子化和个股复盘是LLM在个股投研中较好的应用方向[1] - 优势:LLM处理非结构化数据能力较强,可提炼关键信息并给出定量化结论[7] 基于LLM的基本面因子挖掘框架 - 关键点:Prompt设计是引导因子创造方向的核心,明确选股逻辑方向可提高生成高IC因子概率[2][16] - 成果:LLM挖掘的因子IC_IR可达0.78,如链税研协同效能因子(TRI_RDEFF)[3][20] - 优势:生成因子可理解性强,可运用创新算子优化原有因子,如盈利现金双因子(EPCF)[20][22] LLM因子挖掘效果分析 - 质量类prompt生成因子IC均值较高,如盈利能力稳定且财务风险低的上市公司因子[17] - 创新性prompt生成因子与已有因子相关性低,如HR_ASSET_RESO因子相关性低于30%[20] - 问题:部分因子逻辑与计算过程匹配度较低,如EIM_1因子[19] 基于LLM的个股复盘体系 - 方法:运用RAG方法构建每日复盘体系,处理公告、研报等非结构化数据[4][27] - 优势:与现有数据库无缝衔接,提炼信息真实性好,逻辑自洽性较好[4][47] - 效果:贵州茅台案例显示模型复盘观点对长期股价表现有一定预测能力[30][35] 个股复盘实证结果 - 长期综合评分变化与未来20-60日股价表现弱相关,相关系数达0.274[37] - 多头择时策略可改善最大回撤,把握主升浪机会,年化收益率提升[38][47] - 问题:信息提炼深度有限,需在prompt中明确核心影响因素[32][34] 技术限制与优化方向 - 限制:响应速度不足、上下文长度限制、结果随机性[8] - 优化:筛选高质量研报作为输入,针对特定个股定制prompt[34] - 应用范围:建议在核心股票池范围内构建LLM因子[10]
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍
机器之心· 2025-05-07 08:33
Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低 了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。 思考 现有的主流解决方案是专家卸载(Expert Offloading),即将专家模块存储在下层存储设备(如 CPU 内存甚至磁盘)中,在推理时按需加载激活的专家到显存进行 计算。但这一方法存在两大主要缺陷: 本文的核心思考是,在专家卸载方案中,需要将专家模块加载到显存,主要是为了在 GPU 上执行高效的矩阵运算。换句话说,如果专家的计算过程能够绕过矩阵 运算的需求,就可以避免将专家权重加载到显存,从而根本上规避频繁加载带来的开销。直观来看,专家模块本质上是一个神经网络,用于建模输入到输出的映 射。如果能够在推理前预先计算出所有可能的输入 - 输出对应关系,并将其存储为查找表,那么在推理时即可用简单的查找操作代替矩阵运算。 为了解决上述问题,来自北大和华为诺亚的研究人员提出了 Mixture-of-Lo ...