Workflow
Seek .(SKLTY)
icon
搜索文档
知情人士:DeepSeek将于2月发布其最新旗舰AI模型
新浪财经· 2026-01-09 21:33
公司新产品发布计划 - 深度求索公司预计在未来几周内,具体可能在2月中旬农历新年前后,推出新一代旗舰AI模型V4 [2] - V4模型是2024年12月发布的V3模型的迭代版本,主打强劲的代码生成能力 [2] - 公司内部基准初步测试显示,V4在代码生成领域的表现优于Anthropic Claude、OpenAI GPT等现有主流模型 [2] 公司技术进展与模型性能 - V4模型在超长代码提示词的处理与解析方面实现了技术突破,对复杂软件项目开发工程师具备显著应用优势 [4] - 该模型在训练全流程中对数据模式的理解能力得到优化,且未出现性能衰减问题 [4] - V4模型输出的答案逻辑更为严谨清晰,体现出更强的推理能力,在执行复杂任务时的可靠性将大幅提升 [4] - 公司此前发布的V3.2版本在部分基准测试中表现优于OpenAI的GPT-5以及谷歌的Gemini 3.0 Pro [3] 公司过往成就与市场影响 - V3模型的推出帮助深度求索在全球人工智能领域崭露头角 [2] - R1开源“推理型”模型的发布震动了硅谷与华尔街,一举将公司推向全球舞台 [2] - R1模型的设计逻辑是在给出答案前先进行深度“思考”以解决复杂问题,其引发广泛关注的原因在于,相较于美国研发的头部模型,公司投入的训练成本相对较低但模型性能十分亮眼 [2] - 在国内市场,公司推出的融合R1与V3双模型能力的聊天机器人产品迅速走红 [3] 公司研发与技术创新 - 深度求索首席执行官梁文锋联合署名发表研究论文,提出了一种全新的训练架构 [4] - 该架构能够支持研发人员在不按比例增加芯片投入的前提下,构建参数规模更大的AI模型 [4] - 这一系列技术进展表明,深度求索的技术创新步伐仍在持续迈进 [4]
知情人士:DeepSeek将于2月发布其最新旗舰AI模型。
新浪财经· 2026-01-09 21:23
公司产品发布计划 - 深度求索公司预计将在未来几周内推出新一代旗舰级人工智能模型V4,主打强劲的代码生成能力 [2][6] - V4模型是公司于2024年12月发布的V3模型的迭代版本,计划于2月中旬农历新年前后推出,但具体时间可能调整 [2][6] - 公司员工基于内部基准的初步测试显示,V4模型在代码生成领域的表现优于Anthropic、Claude、OpenAI GPT等现有主流模型 [2][6] 公司技术实力与过往表现 - 公司此前发布的V3模型帮助其在全球人工智能领域崭露头角,而R1模型的发布则震动了硅谷与华尔街,将公司推向全球舞台 [2][6] - R1是一款开源的“推理型”模型,其设计逻辑是在给出答案前先进行深度“思考”以解决复杂问题,其引发关注的原因在于相较于美国头部模型,训练成本相对较低但性能亮眼 [2][6] - 2024年12月,公司发布的V3.2版本在部分基准测试中表现优于OpenAI的GPT-5以及谷歌的Gemini 3.0 Pro [3][7] - 自V3.2发布后,公司一直未推出重量级迭代模型,这使得即将到来的V4模型备受业界瞩目 [3][7] 新产品V4的技术特点 - V4模型在超长代码提示词的处理与解析方面实现了技术突破,对从事复杂软件项目开发的工程师具备显著应用优势 [4][7] - 该模型在训练全流程中对数据模式的理解能力得到优化,且未出现性能衰减的问题 [4][7] - 用户或许会发现V4模型输出的答案逻辑更为严谨清晰,体现出该版本模型具备更强的推理能力,在执行复杂任务时的可靠性将大幅提升 [4][7] 公司近期技术进展 - 上周,公司发表了一篇由首席执行官梁文锋联合署名的研究论文,提出了一种全新的训练架构 [4][8] - 该全新架构能够支持研发人员在不按比例增加芯片投入的前提下,构建参数规模更大的人工智能模型 [8][9] - 这一系列技术进展表明,深度求索公司的技术创新步伐仍在持续迈进 [4][9] 公司市场与产品策略 - 在国内市场,公司推出了一款融合R1与V3双模型能力的聊天机器人,该产品迅速走红 [3][6]
据报道,DeepSeek将于2月发布新一代旗舰AI模型,具备强大的编程能力
华尔街见闻· 2026-01-09 21:19
公司产品发布计划 - DeepSeek计划于2月发布新一代旗舰AI模型 [1] - 新一代模型将具备强大的编程能力 [1]
毫无征兆,DeepSeek R1爆更86页论文,这才是真正的Open
36氪· 2026-01-09 11:12
论文核心更新与行业意义 - DeepSeek将R1模型的论文从22页大幅更新至86页,将其升级为一份开源社区可完全复现的详细技术报告,证明了仅通过强化学习即可显著提升AI推理能力 [1][2] - 此次更新被行业观察者视为一个重要里程碑,表明开源模型不仅能在性能上追平主流闭源模型,甚至在某些方面能为行业提供技术指引 [1][16] 模型性能与基准测试结果 - 在多项基准测试中,DeepSeek R1的表现与OpenAI o1模型相媲美,甚至超越了o1-mini、GPT-4o及Claude 3.5 Sonnet等模型 [5] - 在数学推理任务上表现突出:在AIME 2024测试中达到79.8%的通过率,与OpenAI o1-1217的79.2%基本持平;在MATH-500测试中以97.3%的通过率领先于o1-1217的96.4% [7][10] - 在编程任务上实力强劲:在Codeforces竞赛中评级达到2029,百分位为96.3%,解题能力超过93.6%的人类参赛者 [7][13] - 在人类偏好评估(Chatbot Arena)中,DeepSeek-R1在启用风格控制后,与OpenAI o1及Gemini-Exp-1206并列第一 [15][16] 技术方法与训练细节 - 公司采用了纯强化学习方法提升模型推理能力,并详细公布了训练数据配方:RL阶段使用了数学(26,000题)、代码(17,000条)、STEM(22,000)、逻辑(15,000)和通用(66,000)数据;SFT阶段使用了约800,000条数据 [4][19] - 训练成本透明化:DeepSeek-R1-Zero阶段消耗101,000 H800 GPU小时,SFT数据创建消耗5,000小时,DeepSeek-R1训练消耗41,000小时,总计约147,000 GPU小时,以美元计总成本约为29.4万美元 [4][23][24] - 成功实现了推理能力的知识蒸馏:将R1的推理能力迁移至参数量为1.5B、7B、8B、14B、32B、70B等多种规模的“学生”模型上,显著提升了同尺寸模型的性能 [20][21][22] 模型能力深度分析 - DeepSeek-R1-Zero在训练中展现出“智能涌现”现象:对于MATH数据集中高难度问题(4-5级),其准确率从训练初期的约0.55-0.78显著提升至0.90-0.95 [26] - 模型在训练过程中学会了反思行为:在生成长链文本时,使用“wait”、“mistake”、“however”等反思性词汇的频率相比训练初期增加了5到7倍 [28][29] 模型架构与对比 - DeepSeek-R1采用混合专家模型架构,激活参数为370亿,总参数量为6710亿,与DeepSeek-V3一致 [7][12] - 在多项综合评测中表现优异:在AlpacaEval 2.0中LC-winrate达到87.6%,在ArenaHard(GPT-4-1106)中达到92.3%,在长上下文问答任务FRAMES上准确率达到82.5% [7][10] 安全性评估 - 公司构建了全面的安全评估体系,包括官方风险控制、六项公开安全基准测试、内部安全测试集(1,120道题)、多语言安全评估(覆盖50种语言,共9,330题)以及越狱攻击稳健性评估 [31][32][38][42] - 在整体安全性上,DeepSeek-R1与其他前沿模型表现相当,但在涉及“知识产权”的HarmBench测试中表现欠佳 [35] - 启用风险控制系统后,模型在多语言环境下的整体安全得分达到85.9%,接近Claude-3.7-Sonnet的88.3% [35][42] - 越狱攻击测试显示,开源基础模型的越狱风险相对更高,但DeepSeek的风险控制系统能有效降低不安全回答的比例 [44][45] 关键成功因素与经验总结 - 强大的基础模型是RL训练取得显著收益的前提,公司实验表明从小规模模型起步未能获得实质性提升 [46] - 可靠且准确的验证器(奖励模型)对于防止奖励作弊至关重要,基于规则的奖励模型或使用大语言模型进行答案一致性判断是两种有效方式 [47] - 迭代式训练流水线需要监督微调与强化学习相结合,二者缺一不可,单独依赖任一方均存在局限 [48][50]
清库存,DeepSeek突然补全R1技术报告,训练路径首次详细公开
36氪· 2026-01-09 11:12
论文更新与信息披露 - 公司对近一年前发表于《Nature》的DeepSeek-R1论文进行了大规模更新,新增了64页技术细节,使论文总页数从22页增至86页 [1] - 此次更新并非简单的附录补充,而是对正文进行了大幅度翻修,信息量巨大,几乎相当于重写了一篇论文 [4] - 论文更新在发布前未进行任何消息透露,是由网友自行发现,更新时机恰逢原论文发布将满一周年 [25] 模型训练路径细节 - 公司系统性披露了DeepSeek-R1的完整四步训练路径:1) 使用数千条思维链数据对模型进行监督微调的冷启动;2) 引入语言一致性奖励的推理导向强化学习;3) 结合推理与通用数据的拒绝采样与再微调;4) 打磨有用性与安全性的对齐导向强化学习 [6] - 训练细节披露极为详尽,包括冷启动数据来源、两轮强化学习的具体作用以及奖励模型设置,被评价为教科书级别 [6] - 公司补充了对R1-Zero模型中“反思”能力涌现的分析,通过追踪“wait”、“mistake”等反思性词汇的出现频率,发现这些词汇在训练后期的出现次数比训练初期增长了大约5到7倍 [7] 安全架构与性能评估 - 为提升开源模型的安全性,公司构建了一个包含10.6万条提示的数据集,用于训练安全奖励模型 [9] - 公司设计了一套风险控制系统,包含潜在风险对话过滤和基于DeepSeek-V3模型的风险审查两个流程 [9][10] - 引入风险控制系统后,模型安全性得到显著提升,在内部构建的包含4大类、28个子类、总计1120道题目的安全评测数据集上,采用GPT-4o作为评判者进行评估 [16][19] - 在多项安全基准测试中,DeepSeek-R1的表现与前沿模型水平相近,例如其平均安全分数达到95.0% [14][16] 团队稳定性与行业对比 - 在AI行业人才竞争激烈的背景下,DeepSeek团队展现出极高的稳定性,原论文的18位核心贡献者在近一年后仍全部在职 [21] - 总计100多位作者中,仅5位被标记为已离开团队,甚至有一位此前离队的作者Ruiqi Ge已回归团队,使得标记星号作者数量从去年的6位减少至5位 [21][22] - 这与硅谷同行如Meta所面临的内部文化挑战和人才争夺战形成鲜明对比 [24] 技术影响与未来展望 - 此次详尽的技术细节披露,极大地推进了DeepSeek-R1模型的可复现性 [25] - 公司在论文发布近一年后仍进行如此大规模的实质性更新,在学术出版界中并不常见 [25] - 此次更新的时间点引发市场对公司可能即将在春节前后发布新产品(如R2或V4)的猜测 [26]
DeepSeek与意大利谈妥了,但...
观察者网· 2026-01-08 14:57
公司与意大利监管机构达成和解 - 公司与意大利反垄断机构AGCM达成共识,同意为意大利用户推出首个国家专属版本聊天机器人,并着手解决AI模型“幻觉”问题,从而推动AGCM终止了自去年6月启动的调查[1] - 公司需在120天内向AGCM提交关于承诺履行情况的报告,若逾期未达标,可能面临最高1200万欧元(约合9793万元人民币)的罚款[1][5] 具体整改措施 - 当用户IP地址位于意大利或使用意大利语提问时,平台将以意大利语展示幻觉风险警告及服务条款,目前这类信息仅支持中英双语[2] - 意大利《邮报》核查发现,将网站语言设置为意大利语时,对话窗口下方的幻觉警告内容已比英文网站上的版本更为详细[2] - 公司计划为员工组织研讨会,以确保相关业务部门充分了解意大利消费者法,以强化对当地法规执行层面的认知[2] 监管机构评价与行业背景 - AGCM在公告中特别肯定公司计划通过技术修复降低幻觉率的举措,评价其“值得称道”[2] - AGCM在公告中提及,公司称AI模型的幻觉现象是一项无法完全消除的全球性挑战[5] - 意大利监管机构近几个月已针对反竞争行为和数据隐私违规问题,对Meta、谷歌等美国科技巨头开出罚单[1] 技术挑战与市场影响 - AI“幻觉”问题是全球生成式AI行业的共性难题,OpenAI研究人员指出现有训练方式会促使模型倾向于猜测而非承认不确定性[5] - 尽管用户界面和服务条款的修改相对容易,但技术层面的改进更难保证,目前RAG、语义熵检测等技术手段均存在局限性,无法彻底根治“幻觉”问题[5] - 公司积极推进整改的做法,为其未来拓展欧洲市场铺垫了良好基础[5] 公司市场地位与行业认可 - Quest Mobile 2025年12月数据显示,公司周活用户达8000万以上,位列国内AI应用第二[6] - 据OpenRouter与a16z联合发布的报告,在2024年11月至2025年11月期间,公司以14.37万亿Token的累计调用量,稳居全球开源大模型榜首[6] - 英伟达CEO黄仁勋在2025年1月5日的CES上表示,去年公司DeepSeek R1的推出向世人展示了高级推理可以开源,改变了整个行业的发展轨迹[6] 潜在的欧盟监管风险 - 目前一个悬而未决的问题是公司的服务是否受欧盟《数字服务法案》管辖,一旦被纳入将面临更严格的审查[6] - 意大利通信管理局认为公司应归类为受DSA约束的搜索引擎,但AGCM对此持怀疑态度,表示需进一步澄清[6]
光模块CPO龙头反弹,创业板人工智能再创新高!DeepSeek旗舰系统R2春节问世,AI应用大年启动?
新浪财经· 2026-01-07 19:42
市场行情表现 - 2026年1月7日,创业板人工智能指数再创新高,算力硬件与AI应用板块表现活跃 [1][5] - 个股方面,致尚科技领涨超7%,长芯博创、润泽科技涨超5%,蓝色光标、光环新网、光库科技、协创数据等多股涨超3% [1][5] - 光模块CPO龙头股迎来反弹,中际旭创涨超2%,新易盛、天孚通信均收涨 [1][5] - 创业板人工智能ETF(159363)场内价格收涨0.79%,创上市新高,单日成交额超6亿元,近两日资金累计加仓1.7亿元 [1][5] 指数与产品表现 - 2025年1月1日至2026年1月7日,创业板人工智能指数累计涨幅超114%,大幅跑赢其他AI主题指数 [3][7] - 同期,人工智能指数上涨88.14%,CS人工智指数上涨74.24%,科创AI指数上涨60.24% [3][7] - 创业板人工智能指数2021至2025年的年度涨跌幅分别为:17.57%、-34.52%、47.83%、38.44%、106.35% [4][7] - 创业板人工智能ETF(159363)是全市场首只跟踪该指数的ETF,其标的指数重点布局光模块龙头“易中天”,逾七成仓位布局算力,超两成仓位布局AI应用 [4][8] AI应用催化因素 - DeepSeek下一代旗舰系统R2预计将在2026年2月春节前后问世 [3][7] - Meta斥资数十亿收购Manus,此举被解读为强化AI能力并加速技术整合至消费级与企业级产品,将推动AI应用商业化落地提速 [3][7] - 银河证券认为,2026年将成为AI应用大年,建议持续关注AI应用投资机会 [3][7] 算力硬件前景 - 东吴证券展望2026年,海外算力链将保持景气度向上,光互联核心受益于海外与国内算力需求共振 [3][7] - 海外方面,北美云服务商资本开支保持高位,新一代算力芯片即将商用,支撑光互联需求 [3][7] - 国内方面,互联网企业持续投入算力建设,采用光互联方案的国产算力超节点渗透率提升,将进一步释放需求 [3][7]
新年首炸!DeepSeek提出mHC架构破解大模型训练难题
搜狐财经· 2026-01-07 17:13
文章核心观点 - DeepSeek在新年第一天发布了一篇关于mHC新架构的论文 该架构旨在解决大规模模型训练中的稳定性问题 同时保持性能提升的优势 论文在AI技术圈引发了讨论[1] - mHC架构通过引入智能调度系统等设计 平衡了性能、稳定性和成本三大核心要素 为大模型架构演进提供了新思路 其务实的技术创新对行业具有重要价值[29] 大模型训练的核心痛点与现有方案局限 - 大模型训练面临信息传输拥堵的挑战 早期单通道残差连接(传送带)在模型规模增大后效率不足[3] - 字节跳动团队此前提出的超连接方案将单通道改为多通道 提升了信息传输效率和模型性能 但缺乏统一调度规则 导致信息在传输中出现不受控的放大或压制[5] - 超连接方案的不稳定性直接导致训练过程中梯度爆炸 使模型训练中途崩溃[7] - 有头部AI企业尝试用类似方案训练千亿级模型时 训练在进行到一万多步时频繁中断 损失值突然飙升 造成大量算力和资金投入的浪费[9] mHC架构的核心设计思路 - mHC架构的核心思路不是废除多通道 而是为多通道增加一套智能调度系统[11] - 该系统通过Sinkhorn-Knopp算法实现 将连接矩阵约束在双拟随机矩阵的流形上 该矩阵行和列之和均为1且为非负数 能保证信息传播时能量守恒 避免突然放大或缩小[13] - 架构还对输入输出映射施加了非负约束 以避免正负系数相互抵消导致有用信号丢失[15] - mHC是在超连接拓宽通道思路基础上的优化 属于改良式创新 更容易落地[15] 基础设施与训练优化 - 为控制训练开销 DeepSeek进行了基础设施优化 将多个计算步骤融合成一个算子 减少了内存读写次数[16] - 同时采用重计算策略 在前向传播时丢弃中间数据 在反向传播时重新计算 从而大幅降低内存占用[18] - 优化效果显著 在扩展倍率为4的情况下 训练时间只略有增加 却换来了稳定性的大幅提升[18] 实验验证与性能表现 - DeepSeek使用不同规模模型进行测试 重点验证了270亿参数模型的表现[21] - mHC彻底解决了超连接的训练不稳定问题 其最终损失值低于传统基线模型[22] - 在下游任务测试中 mHC的表现全面超越基线模型 在推理相关任务上 比超连接方案还有几个百分点的提升[22] - 从30亿到270亿参数的规模扩展实验中 mHC的性能优势保持良好 即使训练数据量不断增加 优势也未明显衰减 证明其在大规模模型上同样具备实用价值[24] 对行业的影响与意义 - mHC的意义在于指明了一个行业方向 即大模型竞争不再仅仅是堆参数和算力 架构的精细化设计同样重要[26] - 此前 许多中小企业因训练不稳定和成本过高而不敢涉足大规模模型领域 mHC的出现有望降低这些企业的入局门槛[26] - 这种务实的技术创新比噱头式突破更有价值 未来随着更多企业跟进和优化 可能催生出更多高效稳定的大模型架构 推动AI技术更容易落地[29]
老黄开年演讲「含华量」爆表,直接拿DeepSeek、Kimi验货下一代芯片
36氪· 2026-01-07 09:35
行业趋势:中国AI模型在全球舞台崛起 - 在2026年CES英伟达主旨演讲中,中国大模型Kimi K2、DeepSeek V3.2及Qwen位列全球开源大模型前列,性能逼近闭源模型,标志着中国AI的高光时刻[1] - 在权威评测中,中国开源模型表现强势,例如在Nathan Lambert与Florian Brand发布的「2025年度开源模型回顾」中,DeepSeek、Qwen和Kimi包揽Top 3[26] - 中国AI模型的国际影响力与落地应用加速,例如OpenAI前CTO的新产品Thinker官宣接入Kimi K2 Thinking,其技术实力正被全球核心圈层接纳[24] 技术架构:MoE(混合专家)成为主流 - 自2025年以来,超过60%的开源AI采用了MoE架构,该架构自2023年初推动LLM智能水平提升近70倍[16] - 在权威机构Artificial Analysis排行榜上,最智能的TOP 10开源模型全部采用MoE结构[16] - DeepSeek-R1、Qwen3和Kimi K2代表MoE路线下顶级规模的尝试,仅需激活少量参数,大幅减少计算量和HBM显存带宽压力[2] 性能突破:推理性能与成本实现指数级优化 - 在英伟达下一代Rubin架构暴力加成下,Kimi K2 Thinking推理吞吐量直接飙升10倍,token成本暴降到原来的1/10[4] - 在SemiAnalysis InferenceMax测试中,DeepSeek-R1将每百万token的成本降低10倍以上,Mistral Large 3同样获得十倍加速[12] - 实测显示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍[9],这种降本增效宣告AI推理即将进入真正的「平价时代」[6] 模型能力:中国模型展现独特技术优势 - Kimi K2 Thinking在Anthropic的严苛行为基准测试中,凭借极低的被误导率,摘得「表现最佳的非美国模型」桂冠[21] - Kimi K2 Thinking支持「数百步稳定工具调用」,并通过开源模型实现「交错思考」,标志着模型逻辑链条的进一步成熟[34] - 中国模型正从追求基准测试高分转向提升实际体验,例如Qwen从「冲榜」闻名进化为优质模型,K2 Thinking原生采用4bit精度以更高效支持长序列RL扩展[32] 竞争格局:开源模型对闭源巨头形成压力 - 中国实验室正以惊人速度发布模型,大幅压缩了最强闭源模型与开源之间的代差,「更早发布」成为一种巨大的先发优势[31] - 开源模型的激增让美国闭源实验室倍感压力,仅靠基准测试分数已无法解释「为什么付费更好」[35] - 中国模型在全球市场的「心智份额」正切走越来越大的一块蛋糕,DeepSeek、Qwen和Kimi已成为东方技术实力的代表品牌[33][35] 算力需求:模型规模与计算需求持续暴涨 - 在计算需求暴涨的背景下,480B的Qwen3和1TB的Kimi K2成为代表性模型,验证了参数规模每年以十倍量级scaling[6] - 如此巨大规模的MoE模型单GPU无法部署,而英伟达GB200 NVL72能破解这一难题[16] - DeepSeek R1和Kimi K2 Thinking的实测结果,证明了英伟达Blackwell超算性能的强大[19]
雷军回应小字营销:行业陋习,但我们改/DeepSeek开年「王炸」,梁文锋署名论文发布/马斯克立新年Flag:大规模量产脑机接口
搜狐财经· 2026-01-06 21:46
小米公司动态 - 小米创始人雷军在2026年首场直播中回应“小字营销”争议,承认其为行业陋习,并宣布今后产品注释将统一使用更清晰的字体展示[3][4] - 雷军透露小米汽车在2025年交付量突破41万辆,其中小米YU7车型截至10月已连续四个月成为中大型SUV销量第一[5][7] - 针对“小米17 Ultra徕卡版变焦环造假”风波,小米公司官方发言人账号发布辟谣澄清,称相关说法与事实严重不符[7] 汽车行业 - 宝马中国自2026年1月1日起对旗下31款主力车型建议零售价进行系统性调整,旗舰纯电车型i7 M70L价格由189.9万元降至159.8万元,降幅约16%[11][12] - 宝马iX1 eDrive25L官方指导价从29.99万元下调至22.8万元,降幅达24%,燃油车型宝马X1 xDrive25Li从34.99万元降至28.88万元,降幅为18%[12] - 商务部数据显示,2025年汽车以旧换新超1150万辆,以旧换新相关商品销售额超2.6万亿元,惠及超3.6亿人次[38] 消费电子与半导体 - 消息称采用2nm制程的苹果A20芯片成本或高达280美元,相比A19芯片贵了80%[13][14] - iQOO Z11 Turbo将搭载第五代骁龙8处理器,配备2亿像素主摄和7600mAh±电池[34] - 真我Neo8预计本月发布,搭载骁龙8 Gen5处理器和8000mAh电池,采用金属中框与玻璃后盖[37] 人工智能与硬件 - OpenAI与前苹果首席设计官Jony Ive合作的AI硬件项目内部代号“Gumdrop”,供应链评估同步推进三个项目,包括笔形态和便携音频设备[9] - OpenAI正在改进其AI音频模型,新模型预计在2026年一季度推出,回应将更自然并能够与用户同步说话[10] - DeepSeek发布新论文提出名为mHC的新架构,旨在解决传统超连接在大规模模型训练中的不稳定性问题,创始人梁文锋为论文作者之一[21][22][23] 科技行业合作与趋势 - 英伟达CEO黄仁勋与联想董事长杨元庆对谈,披露双方正联合打造基于RTX Pro的联想企业级AI系统,英伟达将提供最先进的芯片[25][26] - 微软CEO萨提亚・纳德拉断言2026年是AI发展的关键分水岭,行业正从初步探索迈向“广泛扩散”的新阶段[27][29] - 纳德拉提出2026年AI发展的三大核心支柱:重塑人机关系、工程范式转移、以及社会许可与资源分配[29][30] 影视娱乐与流媒体 - 2026年元旦档期票房突破7亿元,《疯狂动物城2》、《阿凡达3》、《匿杀》暂列票房前三名[48] - 《疯狂动物城2》在1月1日以1.04亿元票房获得2026年元旦票房冠军,其中国内地放映已延长至2026年1月25日[48][49] - Netflix计划在完成对华纳兄弟的收购后,将华纳兄弟电影的院线独占放映期缩短至17天,引发传统影院担忧[43][45] 其他行业动态 - 索尼有望在2026年推出多款相机新品,包括FX3 II、A7R6和黑卡8,其中FX3 II可能采用新的传感器或全局快门传感器[23] - 可穿戴品牌Pebble发布Pebble Round 2圆形智能手表,采用1.3英寸彩色电子墨水全面屏,机身厚度8.1mm,支持约2周续航[32] - 2026年1月1日全社会跨区域人员流动量达20747.5万人次,同比增长20.3%,其中铁路客运量1856万人次,同比增长67.9%[37]