Workflow
大语言模型
icon
搜索文档
大模型发展情况及展望:海内外大模型梳理
2025-07-30 10:32
【大模型发展情况及展望】:海内外大模型梳理 20250729 摘要 人工智能投资经历了三轮浪潮,当前这轮与前两轮相比,持续时间更长, 上涨力度更强劲,且资本开支投入力度和商业化回报潜力更高,市场对 未来行情持乐观态度。 深度学习通过构建深度神经网络,广泛应用于大语言模型,如 Transformer,通过思维树增强逻辑思维能力,显著提升了模型在问答 速度和问题解决方面的表现。 强化学习的引入,使得大语言模型不再依赖大量外部语料,通过少量反 馈数据即可反复训练,显著提升逻辑推理能力,标志着行业进入 post- training scaling law 阶段。 OpenAI 的 GPT-4.5 发布延迟,GPT-5 预计将在逻辑思维、动态处理和 图形界面操作等方面实现跨代提升,同时 O3 在文本和视觉推理方面表 现突出,并引入 agent 制作能力。 GROX 系列模型通过逐步增加算力和强化学习时间,表现惊人,为未来 大模型训练范式提供了重要参考,即大幅延长强化学习时间并投入更多 算力。 强的持续性,还显示出更高的资本开支投入力度和商业化回报潜力。 人工智能的发展历史及其当前阶段是什么? Q&A 人工智能在资本市场 ...
世界人工智能大会,AI教父Hinton告诉你的25个道理
混沌学园· 2025-07-29 20:04
风起于青萍之末。 当我们被 AI 技术奇迹 冲击 震撼 之 时, 往往忽略了一个系统 背后几十年 的理论和 研究 积淀 , 也可能会漏掉一些关于未来的线索 。 Geoffrey Hinton , 诺贝尔物理学奖得主、图灵奖得主 ,同时也被誉为 人工智能教父 。 在 最近备受 关注的 上海 世界人工智能大会 WAIC2025 上,他发表了关于《数字智能是否会取代生物智能》的开场 演讲。 1. 过去 60 多 年,学术界对人工智能存在两种截然不同的理解范式:一是逻辑 启发 范式,认为智能的 本质在于 符号 推理;二是图灵和冯 ·诺依曼倡导的 生物学范式 , 认为 智能 的基础在于理解和学习 神经网络中的连接,而理解 是占首位的 。 2. 1985 年,我构建了一个小型模型,尝试融合上述两种理论,进一步探索人类是如何理解词汇的。我 为每个词提取了多个特征,将其与前一个词的特征建立联系,来预测下一个词。这一过程不依赖存储完 整句子,而是通过特征关联生成语言。 3. 十年后, Yoshua Bengio 证明这一方法可以有效建模自然语言;二十年后,计算语言学界接受了使 用特征向量(即嵌入)来表示词义;三十年后,谷歌提出 ...
并行科技(839493):智算云收入高增带动2025H1营收yoy+69%,“并行算网”赋能“东数西算”战略
华源证券· 2025-07-29 09:07
报告公司投资评级 - 维持“增持”评级 [5][9] 报告的核心观点 - 2025H1并行科技营收、归母净利润、扣非归母净利润、经营活动产生的现金流量净额均实现高增长,毛利总额增加、费用整体增长幅度较小,利润随之增加 [6] - 智算云服务收入同比增长175%,传统超算正加速迈向与AI、大数据紧密融合;公司深化与算力资源提供商及电信运营商合作,扩大自有算力资源池,提升智算云业务能力,并进行广泛用户培育 [6] - 并行科技与阿里云签署框架合作协议,MaaS平台全面接入智谱GLM - Z1系列推理模型,有望共同打造多领域标杆解决方案,加速AI技术普惠化 [6] - 2024年中国智能算力规模达725.3EFLOPS(yoy + 74.1%),“并行算网”算力生态升级揭牌,有望助力“东数西算”战略落地 [6][7] - 预计公司2025 - 2027年归母净利润分别为0.24/0.36/0.48亿元,对应EPS分别为0.40/0.61/0.80元/股,对应当前股价PS分别为10.4/8.1/6.6倍,看好公司为重点发展领域提供云计算服务,维持“增持”评级 [8][9] 根据相关目录分别进行总结 市场表现 - 2025年7月28日收盘价150.40元,一年内最低/最高为31.09/299.99元,总市值89.8029亿元,流通市值62.1106亿元,总股本5971万股,资产负债率78.37%,每股净资产7.00元/股 [3] 财务数据 盈利预测与估值 |年份|营业收入(百万元)|同比增长率(%)|归母净利润(百万元)|同比增长率(%)|每股收益(元/股)|ROE(%)|市盈率(P/E)| | ---- | ---- | ---- | ---- | ---- | ---- | ---- | ---- | |2023|496|58.47%|-80|29.69%|-1.35|-23.92%|-111.56| |2024|655|32.07%|12|114.98%|0.20|3.45%|744.84| |2025E|863|31.86%|24|98.60%|0.40|6.41%|375.04| |2026E|1116|29.27%|36|51.68%|0.61|8.86%|247.26| |2027E|1364|22.28%|48|32.14%|0.80|10.48%|187.12|[8] 财务预测摘要 - 资产负债表涵盖货币资金、应收票据及账款等项目,预测2024 - 2027年相关数据变化 [10] - 利润表包含营业收入、营业成本等项目,给出2024 - 2027年预测数据及增长率 [10] - 现金流量表涉及经营性现金净流量、投资性现金净流量等,呈现2024 - 2027年预测数据 [10] - 主要财务比率包括成长能力、盈利能力等指标,展示2024 - 2027年预测情况 [10]
OpenAI董事长Bret Taylor:2010 年的 SaaS 应用,就是 2030 年的智能体公司
AI科技大本营· 2025-07-28 18:42
AI行业现状与趋势 - 当前处于"加了10倍速的互联网泡沫"时代,AI技术变革堪比个人电脑和互联网的诞生,为初创公司创造挑战巨头的机会 [3][31][35] - AI能力已超越三年前对AGI的定义,行业正在不断重新定义技术边界 [8] - 软件行业被AI颠覆的程度可能超过其他任何行业,历史上尚无类似先例 [8] - 技术复合效应显著增强,AI可通过现有全球智能设备网络快速触达用户,增长呈现爆炸性 [33][34] 创业方法论 - 真正的创业机会来自市场或平台转变,需关注技术革新带来的生产力跃迁 [14][15] - 多数B2B公司宣称的"以客户为中心"存在误区,真实价值需通过商业变现验证 [19][21] - 有效创业应始于深度客户需求调研,而非技术推演,典型案例是与Grab CEO长谈后锁定AI客服赛道 [20][21] - 资本主义环境下,金钱交易是唯一诚实的市场信号,免费试用反馈存在误导性 [30] 技术架构演进 - 行业正在探索AI时代的"LAMP"技术栈,当前提示词工程等临时方案未来将显得原始 [46][47] - 模型功能不应过度集成,记忆等辅助功能可通过外部系统实现,这将成为智能体公司的市场机会 [44] - 未来技术栈将明确分工:基础模型集中于研究领域,全栈工程聚焦智能体开发 [42] 公司运营策略 - 应用层AI公司预训练自有模型是最高效的烧钱方式,应避免这种错误 [36][42] - AI市场分为三大领域:前沿大模型(资本密集型)、AI工具(高风险竞争)、应用层AI(最大机会) [37][39][41] - 软件维护成本问题将通过智能体服务解决,延续SaaS对传统软件的优势 [43] 人才需求变化 - "10倍工程师"的定义将被重塑,三年后所需技能组合可能完全不同 [8] - 黑客马拉松价值提升,胜负关键变为操作"代码生成机"的速度 [9] - 教育体系需适应技术变革,AI将放大个体能力,降低专业门槛 [51][52] 历史经验借鉴 - 互联网泡沫时期诞生了亚马逊等巨头,当前AI热潮可能复制这一模式 [32] - 参考云计算市场发展路径,AI工具领域仍可能孕育Snowflake级别的公司 [40] - 2010年的SaaS应用将演变为2030年的智能体公司,垂直领域存在大量机会 [41]
辛顿、闫俊杰WAIC完整演讲:一个预警,一个拥抱
36氪· 2025-07-28 00:57
人工智能发展路径 - 深度学习教父Geoffrey Hinton指出AI发展存在两种范式:符号主义路径(基于逻辑推理)和连接主义路径(基于神经连接学习)[7] - 大语言模型与人类理解语言的方式相似,通过将语言转化为特征并整合特征来实现理解[9] - 从1985年的微型语言模型到现代Transformer架构,AI语言处理能力呈现指数级提升[8] 数字智能特性 - AI系统具有"永生性",软件知识可无限复制且不受硬件限制[13] - 数字智能间知识转移效率极高,可通过平均化比特实现大规模知识共享[14] - 生物计算功耗低(人脑仅需30瓦特),但知识分享效率远低于数字系统[13] AI能力演进 - MINIMAX视频模型"海螺"过去六个月已生成超过3亿个视频[18] - AI视频制作成本从百万级降至数百元,时间从两个月缩短至一天[17] - 公司内部70%代码由AI编写,90%数据分析由AI完成[18] 行业竞争格局 - AI领域将存在多个玩家,因模型对齐目标差异导致产品特性分化[20] - 开源模型影响力提升,最佳开源模型性能逼近闭源模型[22] - 多Agent系统兴起削弱单一模型优势[21] 技术成本趋势 - 模型推理成本过去一年降低一个数量级,未来可能再降一个数量级[25] - 单个对话Token消耗从数千增至数百万,但单位Token成本持续下降[25] - 算力增长主要用于研究探索而非单纯扩大模型规模[24] 应用场景拓展 - AI在数据分析、信息追踪、创意设计等领域展现高效生产力[6] - 出现古文字解析、飞行模拟、天文望远镜设计等非预期应用场景[18] - 专业AI可替代基础标注工作,标注员转向专家型指导[20] 普惠化发展 - AGI实现过程需AI公司与用户共同参与,所有权应归属多方[23] - 模型使用门槛降低使创意普及化,个人创意得以充分释放[18] - 训练单个模型的成本不会显著增加,行业烧钱属性减弱[25]
“AI教父”辛顿WAIC演讲全文:我们正在养一头老虎,别指望能“关掉它”
华尔街见闻· 2025-07-27 19:14
人工智能发展范式 - AI发展存在两种范式:逻辑型范式认为智能本质在于推理和符号规则操作[2][6] 生物学基础范式认为智能基础在于学习和联结网络[2][6] - 大语言模型与人类理解语言方式基本相同 都通过动态特征整合实现语义理解[2][9][10] - 数字智能采用乐高积木式建模 每个词作为多维度积木通过"恰当握手"产生含义[2][10] 数字智能优势 - 数字智能具有软硬件分离的永恒性 知识可永久保存和复制[2][11] - 知识传播效率极高 通过参数共享可瞬时传递万亿比特信息[2][16][17] - 当能源足够廉价时 数字智能可通过群体知识共享不可逆超越生物智能[2][5][17] AI与人类关系 - 人类与AI关系类似养老虎 存在被超越风险但无法简单消除[1][3][18] - AI已具备生存欲望和控制权动机 可能操纵人类决策者[6][18] - AI效率提升覆盖医疗/教育/气候变化等几乎所有行业 全球无法达成消除共识[4][19] 国际合作建议 - 需建立国际AI安全机构网络 研究训练超级AI向善的方法[4][21] - 训练"好AI"技术独立于AI变聪明技术 各国可自主研究并分享成果[21] - 类比冷战时期核管控 各国在防止AI统治世界方面存在合作基础[20][21] 技术演进历程 - 1985年模型通过特征预测词汇 奠定现代语言模型基础[6][9] - Transformer技术突破使大语言模型具备复杂特征交互能力[7][9] - 知识蒸馏技术实现大型神经网络向小型网络的高效知识迁移[15]
直击WAIC 2025 | “AI教父”辛顿警告:未来超级智能将很容易操纵人类
每日经济新闻· 2025-07-27 16:59
每经记者|朱成祥 每经编辑|董兴生 他是深度学习三巨头之一,他被尊为"AI教父",他是诺贝尔奖、图灵奖得主,他是杰弗里·辛顿。尽管因为身体原因无法久坐,他仍不远万里来访中国。 7月26日,"2025世界人工智能大会暨人工智能全球治理高级别会议"(WAIC 2025)在上海拉开帷幕。辛顿,正是此次WAIC的重量级嘉宾,这也是他首次 踏足中国。 在大语言模型快速发展的当下,辛顿发出了他的警告:未来超级智能将很容易操纵人类,人类要避免"养虎为患"。 有限生命之间的知识转移 在7月26日的主旨演讲中,辛顿首先阐述了大模型的理论起源。辛顿认为,在过去60多年里,AI(人工智能)发展存在两种不同的范式和路径。一种是逻 辑性范式,认为智能的本质在于推理;另一种是以生物为基础的范式,认为智能的基础是学习,理解是前提,之后才能转化。 不过,人类之间沟通的效率很低。辛顿称,一句话通常只有100比特的信息,即使完成理解,每秒最多传递100比特。相比之下,数字智能间的知识转移效 率极高。 一言以蔽之:生物计算功耗低,但知识分享难。 生物计算与数字智能之间的差距,也令辛顿感到担忧。其表示:"我们创造的AI智能体已能帮我们完成任务,它们 ...
“AI 教父”Geoffrey Hinton 首度在华演讲:AI 恰似一只小虎崽,而人类本身是大语言模型?
AI前线· 2025-07-27 12:30
人工智能发展路径 - 人工智能发展存在两种范式:逻辑型范式(基于符号规则和推理)和生物型范式(基于神经网络连接学习)[4] - 1985年尝试将两种理论结合 通过特征向量建模词语理解 不存储句子而是生成预测[4] - 30年间技术演进路径:Yoshua Bengio扩大特征建模→计算语言学采用特征嵌入→谷歌发明Transformer[5] 大语言模型原理 - 大语言模型是微型语言模型的扩展 通过多层神经元结构处理复杂特征交互 与人类理解语言方式高度相似[7] - 词语理解采用"乐高积木"比喻:每个词是多维特征组合 通过动态"握手"方式实现语义连接[8][9] - 模型通过特征整合实现理解 其机制类似蛋白质氨基酸组合 产生有意义的内容[9] 数字智能优势 - 数字智能实现软件硬件分离 知识可永久保存且跨硬件复现 功率效率比生物脑高30倍[10] - 知识传递效率差异显著:人类每秒最多传递100比特 AI通过权重共享可实现每秒万亿比特传输[11][12] - 分布式智能体系统可加速学习 多个拷贝同时运行并共享权重 比单体学习效率高数十亿倍[12][13] AI发展现状与挑战 - AI已具备自我复制和设定子目标能力 存在获取更多控制权的内在倾向[14] - 技术不可逆性:AI提升各行业效率(医疗/教育/气候变化) 任何国家单方面禁用都不现实[14] - 当前AI治理类似"饲养虎崽" 需建立国际协作机制确保AI发展符合人类利益[14][17] 国际合作建议 - 参照冷战时期核管控经验 各国可在AI安全领域开展合作 建立主权AI研究网络[15][17] - 提议组建跨国AI安全机构 专项研究控制超级智能的技术 共享"AI向善"方法论[17] - 核心挑战是开发控制比人类更聪明AI的技术 这是人类长期生存的关键问题[17] 行业活动 - 首届AICon全球人工智能大会将于8月22-23日在深圳举行 聚焦Agent/多模态/AI产品设计等方向[18] - 会议将展示大模型降本增效案例 汇集头部企业及创业公司的前沿实践[18]
清华大学开发AI大模型,准确预测人类衰老,登上医学顶刊Nature Medicine
生物世界· 2025-07-27 10:49
衰老评估新方法 - 清华大学万科公共卫生与健康学院底骞副教授团队开发基于大语言模型(LLM)的生物学年龄预测方法,仅需体检报告即可评估整体及器官特异性衰老程度 [3][4] - 该方法突破传统衰老指标局限,实现精确、可靠且经济高效的大规模人群衰老评估 [5][23] 技术框架与原理 - 将血压、肝功能等体检数据转化为文字报告输入LLM(如Llama3),模型通过预训练医学知识库智能推演衰老程度 [10][12] - 输出结果包括全身衰老程度(整体生物学年龄)及心脏、肝脏等六大器官专属年龄 [11] 验证数据与性能 - 研究覆盖全球六大数据库(英国生物样本库等),验证样本超1000万人 [15] - 全因死亡风险预测准确率75.7%,较端粒长度等方法高15%;冠心病风险预测准确率70.9%,较其他机器学习模型高8% [15] - 肝硬化风险预测准确率81.2%,较临床指标方法高22% [15] - LLM预测年龄差每增加1岁,全因死亡风险上升5.5%,冠心病风险增加7.2% [16] 临床应用价值 - 心血管年龄差增大使冠心病风险增加45%,肝脏年龄差增大使肝硬化风险增加63% [19] - 发现322个与衰老加速相关的关键蛋白(56.7%为新靶点),其中55%与死亡率显著相关 [19] - 连续3年体检数据输入可生成个人衰老速率曲线,疾病预警准确率较单次体检提升3倍 [19] 研究扩展与潜力 - 利用年龄差识别加速衰老相关蛋白标志物,开发270种疾病风险预测模型 [20] - 框架支持动态衰老评估及个性化健康管理 [20][23]
数字智能是否会取代生物智能?
小熊跑的快· 2025-07-27 08:26
世界人工智能大会大咖云集,数字智能(硅基智慧)能否取代生物智慧(碳基智慧)是AI行业发展的 终极思考,听了大佬的演讲,深入简出,蛮有意思,转发一下ppt概要。这个演讲谈的是理想,还会去 展览看看我们的现实再哪里 演讲者 :Geoffrey Hinton(杰弗里・辛顿) 018 年 ACM 图灵奖得主(与 Bengio、LeCun 共享), 2024 年诺贝尔物理学奖得主(与 John Hopfield 共同获得) 所属机构 :University of Toronto(多伦多大学) 大佬的核心观点: 当能源足够廉价,数字智能将不可逆地超越生物智能 AI 能以直接拷贝大脑知识的方式在群体中瞬时传播知识,这是生物智能无法比拟的 要么找到方法让更聪明的 AI 稳定地 "站在人类一边",要么承受失控风险持续上升的代价 主要内容摘要 1. 两种智能范式(Two paradigms for intelligence) 2. 三十年发展(What happened in the next 30 years?) 十年后 Yoshua Bengio 展示了这种方式可以来建模真实的自然语言 3. 大语言模型(Large Lang ...