Workflow
大语言模型
icon
搜索文档
DeepSeek模型更新
财联社· 2026-02-11 19:01
DeepSeek模型技术能力更新 - 公司近期对DeepSeek模型进行了版本更新,在网页端和APP端支持最高1M(百万)Token的上下文长度 [1] - 此次更新标志着模型处理长文本能力实现重大飞跃,相比去年8月发布的DeepSeek-V3.1版本支持的128K上下文长度,实现了近8倍的提升 [1] - 经实测,模型在问答中确认自身支持1M上下文,并能成功识别并处理超过24万个token的超长文本(如《简爱》小说文档)[1] 长文本处理能力验证 - 模型宣称的能力在实际测试中得到验证,能够一次性处理超长文本内容 [1] - 测试案例显示,模型具备处理复杂、大容量文档(如整部小说)的潜力,这拓展了其在文档分析、信息整合等场景的应用边界 [1]
登上医学顶刊:谷歌DeepMind推出医疗专科大模型,高效精准诊断复杂心脏病
生物世界· 2026-02-11 17:18
文章核心观点 - 谷歌DeepMind等团队开发的大语言模型医疗AI系统AMIE,在复杂心脏病诊断中展现出卓越能力,能提升诊断质量、减少错误和遗漏,提高医生工作效率与信心,为解决全球专科医生短缺问题带来新希望 [2][3][16] 行业背景与挑战 - 亚专科医疗专业知识匮乏在心脏病学领域挑战尤为突出,因其具有时间依赖性、诊断复杂性和技术门槛高的显著特征 [2] - 全球专科医疗资源严重不足,WHO预测到2030年全球将面临1800万医疗工作者缺口 [5] - 以美国为例,超过一半的州没有肥厚型心肌病专科中心,导致60%的肥厚型心肌病患者未能得到确诊 [5] - 肥厚型心肌病是年轻人心源性猝死的主要原因之一,专科医生匮乏让许多患者错过最佳治疗时机 [5] AMIE系统介绍 - AMIE是一个基于Gemini 2.0 Flash大语言模型构建的实验性医疗人工智能系统,专门用于处理复杂心脏病病例 [7] - 与传统的AI系统不同,AMIE能够综合分析多种检查结果,包括心电图、心脏超声、心脏磁共振成像和心肺运动试验等,为医生提供全面的诊断建议 [8] 临床试验设计与方法 - 研究采用随机对照试验这一医学研究的“金标准” [9] - 研究团队从斯坦福大学遗传性心血管疾病中心选取了107名真实患者的临床数据,涉及多种复杂心脏病病例 [10] - 9名普通心脏病医生被随机分为两组:一组使用AMIE进行辅助诊断,另一组仅依靠个人经验诊断,所有医生都能访问相同的患者数据和检查报告 [11] - 三位不知情的心脏病专家使用十维度评估标准,对两组医生的诊断质量进行盲法评估 [13] 临床试验结果 - 心脏病专家更青睐使用了AMIE辅助诊断的医生的诊断结果,偏好比例达到46.7%,而依赖个人经验的诊断结果获得了32.7%的偏好,其余20.6%被认为相当 [15] - AMIE辅助显著减少了临床错误,使用AMIE辅助的心脏病医生的临床显著错误减少(13.1% vs 24.3%),重要内容遗漏同样显著减少(17.8% vs 37.4%) [15] - AMIE有助于提升工作效率和医生信心,使用AMIE辅助的心脏病医生报告称,在57%的情况下AMIE改善了他们的临床评估,在50.5%的病例中节省了时间,超过一半案例中AMIE增强了他们的决策信心 [15] - AMIE在管理计划制定和诊断测试建议方面表现尤为出色,心脏病专家在这两个领域明显更偏好AMIE辅助的结果 [16] - 在6.5%的案例中,AMIE出现了临床显著幻觉——生成了不存在的医疗信息,但当医生对其结论提出质疑时,AMIE能够自我纠正 [16] 研究意义与未来展望 - 这项研究为AI在专科医疗中的应用开辟了新的可能性,研究团队已公开所有数据集供科学界进一步研究和验证 [16] - 随着技术的不断完善,AI辅助诊断有望在更多专科领域发挥作用,特别是在医疗资源匮乏的地区,帮助解决专科医生短缺这一全球性挑战 [16] - 这项技术最具前景的方向是增强人类医生的专业知识,当AI与临床医生的判断相结合时,可以显著改善患者护理的质量和可及性 [16] - 这项研究标志着AI在专科医疗领域迈出了重要一步,为未来医学发展指明了方向——人机协作,共创精准医疗新时代 [16]
春节见?DeepSeek下一代模型:“高性价比”创新架构,助力中国突破“算力芯片和内存”瓶颈
硬AI· 2026-02-11 16:40
文章核心观点 - 野村证券认为DeepSeek即将发布的新一代大模型V4,预计不会像V3那样颠覆全球AI价值链或引发算力需求恐慌,但其通过mHC和Engram两项底层架构创新,有望进一步降低训练和推理成本,加速中国AI价值链创新周期,并帮助全球大语言模型和AI应用企业加速商业化进程,缓解资本开支压力[2][3][4][5] 创新技术架构带来性能与成本优化 - 算力芯片和内存是中国大模型的瓶颈,V4引入的mHC和Engram技术从算法和工程层面针对这些硬约束进行优化[7] - mHC全称为“流形约束超连接”,旨在解决Transformer模型层数极深时的信息流动瓶颈和训练不稳定问题,通过让神经网络层间“对话”更丰富灵活并设置数学“护栏”,实验证明采用mHC的模型在数学推理等任务上表现更优[8] - Engram是一个“条件记忆”模块,其设计理念是将“记忆”与“计算”解耦,将静态知识存储在可置于廉价DRAM的稀疏内存表中,推理时快速查找,从而释放昂贵的GPU内存专注于动态计算[11] - 两项技术结合对中国AI发展意义重大:用更稳定的训练流程弥补国产芯片不足,用更聪明的内存调度绕过HBM容量和带宽限制[13] - V4最直接的商业影响是进一步降低大模型的训练与推理成本,成本效益的提升将刺激需求,使中国AI硬件公司受益于加速的投资周期[13] 硬件受益于“加速周期” - 全球主要云服务商正全力追逐通用人工智能,资本开支竞赛远未停歇,因此V4预计不会对全球AI基础设施市场造成去年V3发布时级别的冲击[15] - 全球大模型及应用开发商正背负日益沉重的资本开支负担,V4若能在维持高性能的同时显著降低训练与推理成本,将帮助这些玩家更快地将技术转化为收入,缓解盈利压力[15][16] - DeepSeek-V3/R1发布一年后,市场格局从“一家独大”走向“群雄割据”,其“算力管理效率”叠加“性能提升”曾加速中国LLM与应用发展并改变全球与中国竞争格局,推动开源模型更受关注[16][18] - 2024年底,DeepSeek的两个模型曾占据OpenRouter上开源模型Token使用量的一半以上,但到2025年下半年,随着更多玩家加入,其市场份额已显著下降[18] 软件或迎来“增值而非被替代” - 在应用侧,更强大、更高效的V4将催生更强大的AI智能体[20] - 像阿里通义千问App等,已经能够以更自动化的方式执行多步骤任务,意味着AI智能体正从“对话工具”转型为能处理复杂任务的“AI助手”[21] - 这些能执行多任务的智能体需要更频繁地与底层大模型交互,将消耗更多的Token,进而推高算力需求[21] - 模型效能的提升不仅不会“杀死软件”,反而为领先的软件公司创造了价值,需要关注那些能率先利用新一代大模型能力打造出颠覆性AI原生应用或智能体的软件公司,其增长天花板可能因模型能力的飞跃而被再次推高[22]
瑞银重磅报告:博通(AVGO.US)TPU接棒GPU成AI新宠 目标价隐含近40%上涨空间
智通财经网· 2026-02-11 16:39
核心观点 - 瑞银维持博通“买入”评级及475美元目标价,认为大语言模型开发者加速推进定制ASIC路线,推动张量处理单元需求激增,成为公司业绩增长的核心驱动力 [1] TPU需求与出货预测 - 预测博通2027年将出货超500万颗TPU,2026年出货量约为370万颗 [2] - 在2028年v8ax型号成为主力前,2027年出货的产品中略超半数为v7型号 [2] - 上述产品均基于台积电3纳米工艺打造,凭借台积电充足的晶圆供应配额,公司能把握需求增长机遇 [2] 人工智能业务营收预测 - 预测博通2026财年人工智能业务营收约为600亿美元,同比增长约200% [2] - 2027财年AI营收将增至约1060亿美元,同比增长约80% [2] - 2028财年AI营收进一步升至约1500亿美元 [2] - 定制化计算业务营收方面,谷歌今年将为博通贡献约300亿美元营收,2027年这一规模将达560亿美元 [2] - 剩余TPU相关营收中,绝大部分来自Anthropic,Meta公司仅占小部分 [2] - 预计公司将于2024年下半年开始向OpenAI交付定制ASIC,2027年下半年向Anthropic交付 [2] TPU的技术与市场优势 - TPU内置的硬件矩阵乘法器结合硬件定义的稀疏计算引擎,大幅减少了数据在内存中的读写交互 [3] - 这一特性让TPU相较于GPU,在每瓦令牌处理量和单位令牌处理成本两方面均具备优势 [3] - 在多轮行业专家访谈中,受访人士认为TPU在稠密型大语言模型和稀疏型混合专家模型的推理场景中,具备极具吸引力的成本效率 [3] - Anthropic、META等TPU核心客户可完全掌控自身的软件栈,对英伟达CUDA的依赖度远低于传统企业级云服务客户 [3] - 在大语言模型开发者细分领域,CUDA的相对优势远不如在整个加速器市场中显著 [4] 对潜在竞争与风险的评估 - 针对谷歌与联发科COT合作事宜,研报认为其对博通的负面影响有限 [4] - 博通凭借SerDes技术壁垒,即使在COT模式下仍将为谷歌供应IO芯粒,占芯片总成本的40-50%以上,且该部分毛利率高达75%+,高于XPU的60% [4] - 基准情景下,COT仅导致博通EPS稀释8%,远低于市场预期 [4] - 联发科TPU项目进度相对滞后,短期内难以冲击博通的市场份额 [4] 财务预测与估值 - 研报上调了博通多项财务指标预期 [5] - 2026-2028财年营收预计分别达1058亿美元、1555亿美元、2002亿美元,同比增速分别为65.6%、47.0%、28.7% [5] - 摊薄EPS分别为11.05美元、16.68美元、21.53美元,较此前预期分别上调1.3%、17.9%、12.6% [5][6] - 2026财年AI营收预计602亿美元,同比激增205%,2027财年将进一步增至1064亿美元,同比增长76.9% [6] - 估值采用SOTP分部门估值法,给予2027财年基础设施软件业务25xEV/FCF、半导体业务30xEV/FCF的估值倍数 [4] - 上行情景下目标价可达560美元,下行情景为290美元,当前343.94美元的股价存在38%的上涨空间,预测总潜在回报39%,超额回报30.5% [4]
21有料|字节跳动自研AI芯片?官方暂无回应
21世纪经济报道· 2026-02-11 16:09
公司战略与产品规划 - 字节跳动正研发AI芯片,计划在3月底前收到芯片样品 [1] - 公司计划今年至少生产10万颗AI推理芯片,后续还拟将产量提升至35万颗 [1] - 针对自研芯片的消息,公司表示目前暂无回应 [1] 行业背景与竞争格局 - 当前全球科技竞争加剧,AI芯片已成科技巨头布局重点 [1] - 谷歌TPU、亚马逊Inferentia、特斯拉Dojo等均是科技巨头自研AI芯片的成果 [1] - 科技巨头自研AI芯片的核心目的是降低对外部供应商的依赖 [1] 公司技术布局与基础设施 - 字节跳动在AI领域布局全面,其核心业务均深度依赖AI技术 [1] - 公司近年来发力大语言模型等前沿领域,并推出了豆包等AI产品 [1] - 在AI基础设施上,公司已构建庞大计算集群 [1] - 据悉自2022年起,公司便启动了云端训练和推理芯片的自研,旨在搭建完整AI技术栈 [1] 发展驱动力与核心目标 - 随着行业对算力需求的不断增长,公司无论是选择自研AI芯片还是继续外部采购,都旨在解决一个核心问题:掌握发展的主动权 [1]
首个测试时共进化合成框架TTCS:在「左右互搏」中突破推理瓶颈
机器之心· 2026-02-10 16:52
行业技术范式演进 - 当前大模型行业共识正从单纯扩大预训练参数,转向挖掘“测试时扩展”的潜力,利用测试时的算力进行有效训练成为焦点[1][5] - DeepSeek-R1等模型的成功证明了强化学习在推理任务上的威力,但现有强化学习范式通常依赖大量高质量标注,限制了扩展性[7] - 为摆脱对标签的依赖,“测试时训练”应运而生,其核心是在测试阶段利用模型生成的伪标签进行即时更新[7] 现有技术瓶颈与创新动机 - 面对高难度推理任务时,现有测试时训练方法因伪标签噪声过大而陷入“瞎猜”困境,存在“能力错配”悖论[2][8] - 两大核心挑战:1) 伪标签不可靠,基于错误共识训练会导致模型“越学越偏”;2) 缺乏中间难度阶梯,模型无法跨越巨大的难度鸿沟[13] - 创新动机源于思考:模型能否像人类自学者一样,通过自己给自己出题,将难题拆解为一组可解决的练习题,实现螺旋上升[8] TTCS框架核心方法论 - TTCS是一个基于共进化的测试时课程合成框架,不依赖任何外部人工标注[2][10] - 框架构建了一个包含两个共享初始权重Agent的闭环生态系统:Synthesizer(合成器/出题老师)和Solver(求解器/学生)[11][12][14] - 核心机制是通过精密的能力自适应奖励机制寻找模型的“能力边界”,奖励函数设计为迫使Synthesizer生成模型“似懂非懂”的题目[16][19] - 形成闭环效应:Solver能力提升后,其能力边界移动,Synthesizer随之生成更难题目,二者相互追赶,实现动态课程学习[16] 实验性能表现 - 在Qwen2.5-Math-1.5B模型上,TTCS将数学推理平均分从17.30提升至41.49,暴涨24.19分[3][20] - 在Qwen2.5-Math-7B模型上,TTCS平均分达到52.54,相比广泛使用的Self-Consistency方法的32.15分提升20.39分[20] - 在极具挑战的AIME竞赛题上表现突出:在1.5B模型上,AIME 2024得分从TTRL的13.23分跃升至19.79分,提升6.56分;在7B模型上,AIME 2025得分达到19.90分,显著优于TTRL的14.06分[21][23] 框架有效性深度分析 - 具备泛化性:在AIME上进行测试时训练的TTCS模型,在MMLU-Pro和SuperGPQA等通用领域推理任务上也实现了性能跃升,表明学到的是通用推理逻辑而非简单过拟合[22] - “动态老师”优于“静态名师”:共进化的1.5B Synthesizer带来的提升是静态14B Synthesizer的两倍,揭示了适应学生当前水平的老师比单纯水平高的老师更重要[25] - 数据效率惊人:即使只使用10%的测试数据,TTCS在AIME24上的准确率就能达到13.33,远超同等数据量下TTRL的表现[27] 行业意义与展望 - TTCS框架是对“测试时计算”范式的一次重构,证明了模型在测试时应是主动的课程设计者而非被动的解题者[30] - 该框架完美解决了测试时训练中“数据稀缺”和“难度断层”两大痛点[31] - 为提升大模型在复杂数学、代码推理任务上的表现提供了新思路,为未来自进化智能体奠定了坚实基础[31]
总台春晚,豆包送宇树机器人、电车使用权
新华网财经· 2026-02-10 15:54
豆包大模型春晚营销活动 - 字节跳动旗下豆包大模型将于2月16日除夕当晚,通过总台春晚为全国观众送出超过10万份科技好礼及最高8888元新春现金红包 [1] - 活动奖品涵盖17种热门科技产品,包括宇树机器人、松延动力机器人、魔法原子机器狗、拓竹3D打印机、大疆无人机、小米智能手表、苏泊尔电饭煲等,以及上汽奥迪E5 Sportback和奔驰CLA两款电车的使用权 [4] - 所有送出的科技好礼均已接入豆包大模型,例如宇树机器人使用了豆包大模型家族的大语言模型、语音合成模型和视觉理解能力,以实现更拟人的音色、语气和流畅的语音互动 [4] - “豆包过年”活动目前已上线豆包App [5] 小米汽车客户服务政策 - 小米汽车宣布,春节期间若车辆因自身故障抛锚,公司将报销1500元高铁或机票费用以及500元住宿费 [8]
首次!AI智能体破解「纳什均衡」,大模型学会博弈论|Cell子刊
搜狐财经· 2026-02-10 15:51
核心观点 - 多所顶尖高校的研究团队开发出名为PrimeNash的AI框架,首次实现了对纳什均衡闭式解析解的自动推导与机器可验证证明,能够解决传统算法难以处理的高维、非凸及动态博弈难题 [2][3][4] 技术框架与原理 - PrimeNash框架模拟人类数学家科研路径,构建了由大语言模型驱动的三阶段闭环流程:策略生成模块、策略评估模块和均衡证明模块 [5][7] - 策略生成模块采用多智能体并行与提示增强推理技术,通过调用外部工具和反思机制来探索策略空间并确保初步合理性 [8] - 策略评估模块基于博弈论指标对候选策略进行打分与筛选,均衡证明模块则执行严格的符号推导进行最终数学验证,失败时会触发反馈机制驱动迭代修正 [10][11] 性能验证与实验结果 - 在涵盖静态与动态博弈的7个经典模型测试中,PrimeNash成功求解了所有静态博弈,在设定极高标准下对动态博弈的求解成功率达到了70% [11] - 成功求解的经典博弈包括古诺博弈、第一价格密封拍卖、鹰鸽博弈、新产品发布博弈、斯塔克尔伯格博弈、斯宾塞信号博弈和性别之战博弈 [12] 实际应用案例 - 研究以碳排放权交易市场为例,构建了包含四个季度交易期的动态博弈模型,利用PrimeNash逆向求解,产出了该领域首个被严格证明的闭式解析解 [16] - 模型成功复现了碳市场关键现象:价格在第1-3期维持低位约18.65 CNY/吨,在第4期履约截止前急剧飙升至74.71 CNY/吨,揭示了“翘尾效应” [17] - 分析揭示了大型国有企业利用市场地位调节供需的能力,并量化探讨了政策参数R-value对市场流动性和价格稳定的影响 [17] 研究意义与影响 - PrimeNash将闭式纳什均衡推导从依赖专家的手工工作转化为可复现、可审计的计算流程,为博弈论和经济学提供了透明、可检验的量化工具 [20] - 该框架标志着AI驱动的科学发现在博弈论与经济学领域迈出了重要一步,特别是在复杂市场设计与气候政策分析方面具有应用潜力 [20]
腾讯混元开源0.3B端侧模型 内存占用仅600MB
智通财经网· 2026-02-10 15:25
模型发布与技术规格 - 腾讯混元于2月10日正式推出一款面向消费级硬件场景的“极小”模型HY-1.8B-2Bit [1] - 该模型等效参数量仅有0.3B,内存占用仅600MB,比一些常用手机应用还小 [1] - 模型通过2比特量化感知训练产出,对比原始精度模型等效参数量降低了6倍,实际模型大小直降6倍,仅有300MB [1][2] 性能与效率提升 - 在真实端侧设备上,HY-1.8B-2Bit对比原始精度模型生成速度提升2—3倍,首字时延在1024输入内能够保持3~8倍的加速 [1][2] - 在MacBook M4芯片上测试,生成速度在常用窗口下对比原始模型精度,能够实现至少2倍稳定加速 [2] - 在天玑9500上测试,对比HY-1.8B-Q4格式,首字时延能够加速1.5~2倍,生成速度加速约1.5倍 [4] 技术特点与部署 - 这是首个实现2bit产业级量化的端侧模型实践,可在边缘设备上无压力部署 [1] - 模型提供了gguf-int2格式的模型权重与bf16伪量化权重,已在Arm等计算平台上完成适配,可部署于启用Arm SME2技术的移动设备上 [2] - 模型采用了极低比特量化技术,在保持与INT4-PTQ方法相当模型性能的同时,实现了在端侧设备上的高效稳定推理 [7] 模型能力与未来方向 - HY-1.8B-2Bit模型沿用了Hunyuan-1.8B-Instruct的全思考能力,可为简单查询提供简洁思维链,为复杂任务提供详细长思维链 [1] - 公司通过数据优化、弹性拉伸量化以及训练策略创新三个方法来最大限度提升模型的全科能力 [1] - 当前模型能力受限于监督微调的训练流程以及基础模型本身的性能与抗压能力 [7] - 未来团队将重点转向强化学习与模型蒸馏等技术路径,以缩小低比特量化模型与全精度模型之间的能力差距 [7]
马斯克 vs 哈萨比斯 vs 杨立昆:谁定义的才是AI的真实未来?
36氪· 2026-02-09 20:51
关于AGI实现时间与路径的核心观点分歧 - 科技圈对AGI的实现时间、路径和影响存在显著分歧,主要分为激进派、渐进派和降温派三大阵营 [2] 激进派观点:AGI近在眼前,主张快速发展 - 代表人物埃隆·马斯克预测2026年底实现AGI,2030-2031年集体智能超越人类,其依据是AI能力每7个月翻倍,当前模型效率仍有100倍提升空间 [1][3] - 代表人物Anthropic CEO达里奥·阿莫迪也认为AGI将在短期内落地,虽在2026年达沃斯论坛上略微推迟时间预期,但整体态度乐观 [3] - 激进派认为安全措施不应过度阻碍创新,主张在发展中解决安全问题,并认为延迟落地可能导致人类失去对AI的控制权 [4] - 在效率影响上,达里奥·阿莫迪预测AI将在1年内替代所有软件开发者,5年内替代50%的白领工作;埃隆·马斯克则认为2026年AGI落地后,3-7年内一半的岗位将消失 [6] - Anthropic的产品Claude Opus在编程任务上表现突出,在SWE-bench基准测试中准确率达72.5%,在TerminalBench测试中准确率为43.2%,已具备替代部分软件工程师的潜力 [6] 渐进派观点:理性审慎,平衡创新与安全 - 代表人物包括DeepMind CEO戴密斯·哈萨比斯、OpenAI联合创始人伊尔亚·苏茨克维和“AI教父”杰弗里·辛顿,他们是当前AI领域的主流派别 [10][11] - 对AGI定义更严格,强调需具备人类所有认知能力,包括自主提出科学猜想和跨领域创新的能力,并认为与物理世界的交互和理解是关键 [12] - 对AGI落地时间更谨慎,戴密斯·哈萨比斯认为2030年前AGI落地概率仅50%,并指出多模态模型是形成完整世界认知、通往AGI的必经之路 [12][13] - 伊尔亚·苏茨克维的预测有所变化,从2025年预测“5-10年实现AGI”调整为2026年认为需要构建“通用学习直觉”的新范式 [13] - 在监管上主张“主动安全约束”,推动将安全机制嵌入模型训练全流程,例如杰弗里·辛顿提出“电路断路器”与全球暂停协议,戴密斯·哈萨比斯强调需完成至少3轮全场景安全测试 [14] - 在效率价值上持“AI辅助论”,认为AI核心价值是增强人类智能、释放人类创造力,而非替代人类,并认可AI落地存在“效率幻觉” [15][16] 降温派观点:警惕过度炒作,认为AGI遥不可及 - 代表人物是前Meta首席AI科学家杨立昆,核心观点是当前AI技术存在本质短板,AGI短期内无法实现,行业过度炒作 [16] - 彻底否定当前大语言模型技术路径实现AGI的可能性,认为“大语言模型永无AGI”,主张用“高级机器智能”替代AGI概念,新范式落地需数十年 [18] - 认为当前AI安全担忧被过度炒作,监管过于严苛,过度约束会阻碍正常技术研发,但其核心逻辑是“风险尚未显现”而非“收益大于风险” [19] - 认为AI的效率价值被过度高估,指出“效率幻觉”是技术能力不足的体现,例如一项研究显示AI错误导致人类修正成本约占预期价值的40%,某案例中采用AI代码工具后净效率反而下降10% [20] - 即使技术发展,也认为AI不可能完全替代人类劳动,对替代观点持彻底否定态度 [20] 行业共识与技术发展趋势 - 三大派别均认为纯文本大语言模型无法实现AGI,构建理解物理世界因果关系的“世界模型”是必经之路 [21] - 2026年被视为AI从“规模驱动”向“范式重构”的转折节点,多模态模型或成为核心技术 [21] - 尽管对AGI落地时间(1年至20年以上)和路径分歧巨大,但AI发展动态多变,未来可能以超预期方式变革 [21] 相关公司与市场动态 - 埃隆·马斯克正在推动将自己麾下的一系列企业整合上市 [8] - Anthropic正寻求以3500亿美元估值融资,计划筹集总额250亿美元或更多资金,红杉资本计划对其重大投资,微软与英伟达已承诺向其投资总计至多150亿美元 [8]