Workflow
大语言模型
icon
搜索文档
a16z将3000万开发者标价3万亿,等于法国GDP!网友:几个初创公司+大模型就想取代我们,疯了吧?
AI前线· 2025-11-01 13:33
当顶级风投 a16z 的合伙人面带微笑地算出这笔"人力资产化"的账——把全球开发者群体的价值量化为 3 万亿美元,并与法国 GDP 划上 等号时,他描绘的是一幅由 AI 编程颠覆生产关系、释放巨量价值的资本盛景。 他在访谈中兴奋阐述:" 全世界约有 3000 万名开发者,假设每位创造 10 万美元价值……合计约 3 万亿美元,相当于法国的 GDP ",还 进一步强调,这个量级"也大致相当于几家正在重塑 AI 软件开发生态的初创企业再加上他们使用的基座大模型的价值总和。" 他还有一整套关于"软件颠覆软件"的激进判断:任何重点大学的传统 CS 课程或将成为"过往时代的遗留";LLM 能写 COBOL、Fortran、 CUDA 内核,甚至"有了智能体,哪怕完全不懂 CUDA 的开发者也可以对这类代码进行审查和改进";还有一个可能让开发者背脊一凉的趋 势:软件开发能力从"人工薪酬"转为持续消耗 Token 的"基础设施成本"。 不过需要提醒的是:a16z 本质上是一家投资公司,其表述更多代表资本方视角。当人类创造力被直接折算为宏观 GDP 的财务口径时,难 免引发质疑与反讽。对此,有网友评论道:"开场就把行业从业者 ...
英诺李竹:一个酝酿已久的决定
投资界· 2025-10-31 16:15
一家早期机构的转型升级。 这是极具风向标的一幕。 作者 I 吴琼 报道 I 投资界PEdaily 投资界获悉,英诺天使基金进行一次关键升级——内部将正式分为英诺天使基金、英诺科创基金两个品牌,各自组成10到15人的团 队,覆盖不同项目需求,专注早期科技投资。 这是英诺内部一次主动进化。早在2 01 9年,英诺就设立了科创基金,聚焦科技。经过六年探索,未来英诺科创基金将作为独立品牌运 作。一个鲜明特点是,升级后英诺科创基金将在投资金额上出手更大。 "投早投小投科技"已经成为共识,英诺此时动作,恰是中国早期创投生态变迁的一缕缩影。 英诺之变 两个团队,独立运作 李竹向投资界透露,这场转型酝酿六年之久。 在他的记忆里,2 018年底英诺内部曾进行过一次复盘。彼时团队发现,梳理前五年投过的项目,当中科技项目带来的回报普遍更高。 加上团队成员多是清华等高校的理工科背景出身,因此内部将重点转移到科技投资上。 2019年,英诺成立英诺科创基金一期,规模3.6亿元。在此之前,英诺作为一家天使投资机构几乎什么都投,投资版图遍布科技、互联 网、文娱、消费……而英诺科创基金的目标明确——只投科技。 亲历这几年市场动荡,英诺决心以更 ...
OpenAI首个GPT-5找Bug智能体:全自动读代码找漏洞写修复
量子位· 2025-10-31 08:58
OpenAI Aardvark产品发布 - OpenAI发布由GPT-5驱动的AI安全研究员Agent Aardvark,旨在自动发现并修复代码安全漏洞 [2][3] - Aardvark在基准测试中识别出92%的已知与人工注入漏洞,并能定位复杂条件下出现的问题 [4][19] - 该产品通过威胁建模、漏洞发现、沙盒验证、Codex修复等流程工作,可集成GitHub和现有开发流程 [9][11][15] Aardvark技术能力与测试成果 - Aardvark运用大语言模型驱动的推理能力理解代码行为,不依赖传统程序分析技术 [10] - 内部测试显示其能识别安全漏洞、逻辑缺陷、不完整修复及隐私风险 [16] - 产品已应用于多个开源项目,发现并披露的漏洞中有10个已获得CVE编号 [20] 行业竞争格局 - 2024年10月,Anthropic、谷歌、微软相继发布类似AI代码安全产品,OpenAI此次发布相对较晚 [7][24][31] - Anthropic于10月4日将Claude Sonnet 4.5应用于代码安全,其性能超越Opus 4.1且价格更低、速度更快 [25][28] - 谷歌于10月6日发布基于Gemini Deep Think模型的CodeMender,微软于10月16日发布Vuln.AI [29][31] 市场驱动因素 - 人工Debug与传统自动化方法已无法满足大规模代码库的漏洞发现与修复需求 [32] - 企业级网络设备、服务、代码库数量巨大,同时AI技术也被用于快速寻找漏洞,导致漏洞数量激增 [33] - 借助AI自动化发现与修复漏洞成为确保软件安全和降低企业风险的关键手段 [34]
哈工大最新一篇长达33页的工业智能体综述
自动驾驶之心· 2025-10-31 08:06
这些被称为"工业智能体"的系统,不仅需要具备自主推理、规划与工具使用能力,更要适配复杂业务逻辑、严苛安全标准与领域知识壁垒——如何 将通用智能体的技术潜力,转化为驱动产业变革的实际生产力,成为当前AI落地的核心挑战。 点击下方 卡片 ,关注" 大模型之心Tech "公众号 戳我-> 领取大模型巨卷干货 本文只做学术分享,如有侵权,联系删文 随着大语言模型(LLMs)能力的爆发式增长,AI智能体 (Agent) 已从通用场景探索,逐步深入到金融、医疗、制造等知识密集、高风险的工业领 域。 近期,来自哈工深与华为的研究团队系统梳理了LLM驱动工业智能体的技术演进、应用实践与评测体系,发布了 一篇覆盖300+篇研究的综述 《Empowering Real-World: A Survey on the Technology, Practice, and Evaluation of LLM-driven Industry Agents》。本文创新性提出"能力成熟度框架", 从"流程执行系统"到"自适应社会系统",清晰勾勒出工业智能体的进化路径,为科研与产业落地提供了完整参考蓝图。 论文地址 :https://arxiv ...
DeepSeek悄悄上线新模型
21世纪经济报道· 2025-10-30 18:42
核心观点 - DeepSeek发布全新多模态模型DeepSeek-OCR,其核心技术“上下文光学压缩”通过将文本作为图像处理,实现7-20倍的token压缩,理论上可实现无限上下文,并可能为光计算芯片进入大语言模型领域铺平道路 [1][3][4][5] 技术创新与原理 - 模型提出“上下文光学压缩”技术,将文本作为图像处理以实现高效信息压缩,例如一页文本通常需要2000-5000个文本tokens,转换为图像后仅需200-400个视觉tokens,实现7-20倍压缩 [3] - 在10倍压缩时保持97%解码精度,20倍压缩时仍有60%精度,该技术模拟人脑遗忘机制,通过将历史上下文渲染成图像并随时间降采样,模拟“近期信息高保真、远期信息自然褪去”的生物遗忘曲线 [3][4] - 技术能大幅降低数据分割和组装操作次数,从而降低整体计算负荷,降低对后端计算硬件在规模和精度上的直接压力 [4] 对光计算产业的潜在影响 - DeepSeek-OCR技术解决了光计算引入大模型的最大问题——序列上下文过长,其视觉编码器部分非常适合由光学协处理器执行,而文本解码部分仍由电子芯片处理,记忆压缩可完全交给光计算芯片实现最优分工 [5] - 光计算芯片利用光速传输、高并行性和低功耗特性,被誉为“后摩尔时代”潜力技术,该模型为光计算高并行性和低功耗优势发挥提供了明确技术路径 [1][5] - 光计算芯片目前处于产业化早期,主要需解决先进光电融合封装和软件生态成熟度问题,业内预计距离在数据中心与GPU同台竞技还需3-5年时间攻克工程、成本和生态难题 [6][7] 产业参与者和进展 - 国内主要光计算参与者包括曦智科技、图灵量子、光本位等公司,国外有Lightmatter、Lumai、Cerebras Systems等厂家 [6] - 图灵量子已围绕薄膜铌酸锂开展全流程研究并实现规模化量产,具备从设计、版图、流片、测试到封装的完整能力 [7]
英伟达的“10倍股历程”:3年前市值4000亿美元,如今“全球首家五万亿”
华尔街见闻· 2025-10-30 17:33
公司市值里程碑 - 英伟达市值正式突破5万亿美元大关,达到5.03万亿美元,成为全球首家达到此里程碑的公司 [1][2] - 公司市值超越了AMD、Arm、ASML、博通、英特尔、拉姆研究、高通和台积电市值的总和,甚至超过了标普500指数中的公用事业、工业和消费必需品等整个行业的体量 [4] - 公司当前体量已超过德国、法国和意大利主要股指市值的总和 [5] 股价增长轨迹 - 过去六个月里,英伟达股价上涨了约90% [5] - 三年前公司市值约为4000亿美元,在ChatGPT发布后几个月内便突破1万亿美元大关,增长步伐不断加速 [9] - 公司增长速度超过苹果和微软,后两者在本周才首次收于4万亿美元市值之上 [11] 业务需求与订单支撑 - 公司设计的GPU是驱动整个人工智能产业的引擎,是整个AI交易的基石 [12] - 公司去年发布的Blackwell芯片已出货600万片,另有1400万片的订单在手 [13] - 公司预测2026日历年芯片销售额将远超3000亿美元,高于华尔街普遍预期的2580亿美元 [13][14] - 巨大需求主要来自大型科技公司,它们正投入巨资建设运行AI模型所需的数据中心基础设施 [15] 市场审视与估值水平 - 一些投资者和行业分析师开始将当前AI股票的涨势与本世纪初的互联网泡沫相提并论 [16] - 公司股价约为其明年预期收益的33倍,而标普500指数的平均市盈率约为24倍 [16] - 科技公司正投入数千亿美元用于数据中心和芯片开发,并为此背负沉重债务,但目前产生的收入相对较小 [16]
AI破晓前,最早动身的人
投资界· 2025-10-30 16:36
东方既白。 迷雾被层层拨开。 作者 I 吴琼 报道 I 投资界PEdaily 正如蓝驰创投今年人民币基金合伙人大会的主题——"东方既白",承接着去年"跳出象限"的探索。蓝驰创投管理合伙人陈维广告诉投 资界:"去年是在寻求不确定性中的穿越之道。今年则是看到了很多于增长而言的约束条件,但也看到了跳出象限、穿越周期的可能路 径。深感曙光已现,当大展拳脚。"更多科技破晓之初的机遇摆在了面前。 过去一段时间里,这支投资团队的足迹已遍布AI: 从模型及应用层的月之暗面、Ge n s pa r k、与爱为舞、百图生科、大千科技、元理智能;到具身智能领域的智元机器人、银河通用机器 人、它石智航、灵初智能、Hill bot;再到AI硬件的VITURE、可以科技、Ha i vi vi、庞伯特;底层基础设施则有PPIO、潞晨科技、伊 辛智能、智与芯行……一张系统化AI投资版图浮现。 如此笃定出手,在当下一级市场并不多见。 而过往20年,蓝驰亲历了多个产业轮转,几乎在每一个新周期都能快速迭代并精准调整其投资策略。当下纷纷扰扰,这无疑是一个极 佳的早期科技投资研究样本。 变局 中国AI路径浮现 如你所见,投资AI已成为国内创投圈最主流 ...
DeepSeek“悄悄”上线全新模型,或触发硬件光计算革命
21世纪经济报道· 2025-10-30 13:54
日前,DeepSeek在人工智能开源社区Hugging Face上发布了一个全新的多模态模型DeepSeek-OCR。 这一成果迅速在产业界引发热烈讨论。 在华为旗下的学术平台"黄大年茶思屋"上,有技术专家甚至指出,该模型的核心构件视觉encoder的高 效解码,为光计算和量子计算在LLM(注:大语言模型)领域的引入提供了明确的技术路径。 10月29日,图灵量子相关负责人在接受21世纪经济报道记者采访时表示,DeepSeek-OCR技术能更有效 地将光计算高并行性和低功耗优势发挥出来,相信很快便会有光计算芯片结合大模型的应用出现。 光学压缩破局 一直以来,上下文的长度是困扰大模型性能的重要瓶颈。比如,上下文窗口过小,会导致模型无法一次 性阅读用户之前的输入信息(比如文章),影响推理的准确性。 针对这个痛点,业内提出了稀疏注意力、检索增强生成等多种技术来应对。这一次,DeepSeek首次提 出"上下文光学压缩"(Contexts Optical Compression)技术,通过将文本作为图像来处理,实现信息的 高效压缩,理论上甚至可以实现无限上下文。 上述图灵量子负责人也表示,"DeepSeek-OCR技术将 ...
一年狂卖十几亿人民币,这家深圳南山公司成了AI硬件黑马
新浪财经· 2025-10-30 10:33
智通财经记者 | 梁宝欣 智通财经编辑 | 林腾 Plaud的首款产品—Plaud note,是一款厚度仅0.29厘米的卡片式录音设备,可磁吸在iPhone背面,支持会议 与通话场景下的即时录音,解决了苹果手机无法在通话中录音的痛点。 更关键的是,Plaud是首批将大语言模型引入录音产品的公司。据了解,在推出Plaud note之前,许高曾推 出过另一款AI录音笔—iZYREC,这款产品体积比AirPods充电舱还小,但彼时还未有大模型技术支撑,仅 能依靠传统自然语言处理(NLP)实现基础转写。 在AI硬件经历激烈分化的2025年,Plaud(深圳机智连接科技有限公司)成为少数跑通商业化闭环的创业公 司。 这家成立不足四年的深圳企业,以AI录音产品为核心切入市场。自2023年6月推出首款卡片式AI录音设备 Plaud Note起,产品连续两年保持约十倍增长。截至今年7月23日,Plaud已将产品销往全球170个国家,累 计出货量突破100万台。 Plaud联合创始人许高在今年9月的一次公开访谈中提到,2025年的总收入,预计能达到2.5亿美元。这一收 入包括硬件产品,以及搭载其上的AI软件Plaud Inte ...
中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力
机器之心· 2025-10-30 09:41
大语言模型(LLM)虽已展现出卓越的代码生成潜力,却依然面临着一道艰巨的挑战:如何在有限的计算 资源约束下,同步提升对多种编程语言的理解与生成能力,同时不损害其在主流语言上的性能? 为此, 中国移动九天团队 创新性地提出了 Hybrid MoE 架构 —— MultiPL-MoE ,该方案的核心在于耦合 两个层次的专家选择机制进行优化:在 Token 层级,采用配备共享专家及新颖门控权重归一化方法的稀疏 MoE,以实现与段落层级专家的高效协同;在 Segment 层级,则创新性地引入滑动窗口划分与专家选择路 由策略,使模型能够精准捕捉不同编程语言的语法结构与深层上下文模式。 目前,该项研究已被 EMNLP 2025 接收。 因此,我们创新性地提出了一种 Hybrid MoE 结构,即 token-level MoE 和 segment-level MoE 相结合的 MoE 架构。Token-level MoE 采用典型的 sparse upcycling MoE 结构,Segment-level MoE 则利用滑动窗口获得多 个分段并搭配采用专家选择 top-k 个分段的专家选择路由的策略。实验结果证明了 M ...