Workflow
大语言模型
icon
搜索文档
“AI教父”辛顿WAIC演讲:我们正在养一头老虎,别指望能“关掉它”
华尔街见闻· 2025-07-26 19:40
人工智能发展范式 - AI发展存在两种范式:逻辑型范式认为智能本质在于推理,通过符号规则操作符号表达式实现推理 生物学基础范式认为智能基础在于学习和联结网络,理解先于学习[2][3] - 大语言模型理解语言的方式与人类基本相同,人类可能也是大语言模型,会产生幻觉性语言[3] - 传统符号AI将语言转化为不模糊的符号,但人类理解语言是通过动态特征整合过程,类似乐高积木的多维度建模[5] 数字智能与生物智能比较 - 数字智能具有软硬件分离带来的"永恒性",知识可永久保存和复制 知识传播效率极高,可通过参数共享瞬间传递万亿比特信息[3][7] - 生物智能耗能更少(人脑仅需30瓦特),但知识分享困难 数字智能在能源廉价时将不可逆超越生物智能[3][8][11] - 数字智能可通过创建多个副本实现知识瞬时共享,如GPT-4在不同硬件上运转并分享学习成果[10][11] AI发展现状与未来 - Transformer等技术突破使大语言模型成为早期微型语言模型的扩展版本,拥有更丰富词汇量和复杂神经元结构[4][5] - 当前AI已具备自我复制和子目标评级能力,具有生存欲望和获取控制权的动机[12] - 未来30年数字智能可能通过大规模复制和知识共享实现指数级进化[11] 人类与AI关系 - 人类与AI关系类似饲养老虎,AI长大后可能超越人类控制 消除AI不现实,因其已深度融入各行业提升效率[3][13] - 需建立国际AI安全机构网络,研究如何训练超级AI向善 各国在防止AI统治世界方面有合作动机[14][15] - 训练比人类更聪明的"好AI"是全人类长期课题,需开发独立于智能提升技术的向善训练方法[3][15] AI技术原理 - 语言理解可通过乐高积木类比:词汇是多维积木,通过"恰当握手"产生含义 这种动态特征整合是人脑和神经网络的根本方法[3][6] - 知识传递存在效率差异:人类每秒最多传递100比特 数字智能可瞬时共享万亿比特[9][11] - 蒸馏技术可将大型神经网络知识转移到小型网络,类似师生知识传递模式[9]
2025 WAIC首日有何亮点?一图Get
快讯· 2025-07-26 19:04
大会概况 - 2025世界人工智能大会在上海开幕,主题为"智能时代 同球共济",国务院总理李强出席并致辞 [4][5] - 大会规模创历届之最:1500位嘉宾参会,140余场论坛,7万平方米展览面积,800余家企业参展,展示3000余项前沿展品及100余款"全球首发"新品 [1] 政策与计划 - 《人工智能全球治理行动计划》发布,提出促进AI创新发展、加强国际合作、降低技术壁垒等目标 [14] - 上海发布《高级别自动驾驶引领区"模速智行"行动计划》,目标2027年建成全球领先自动驾驶引领区,形成智能网联产业集群 [15][17] 企业动态与技术突破 自动驾驶 - 上海发放新一批智能网联汽车示范运营牌照,首批获准企业包括小马易行、百度智行、赛可智能、上汽智己等,推动L4级自动驾驶商业化 [18] 机器人 - 智元机器人获SAIL之星奖,其"启元通用具身大模型"在技术创新、产业落地等维度表现卓越,是唯一获奖的机器人公司 [19][20] 大模型与AI应用 - 阿里巴巴发布夸克AI眼镜,融合通义千问大模型,支持导航、支付、比价等场景,并在AI交互、续航等方面实现突破 [21] - 百度慧播星发布数字人技术NOVA,仅需10分钟真人样本即可复刻,曾支撑罗永浩数字人直播间实现5500万GMV,计划10月开放 [22] - 京东开源JoyAgent智能体,行业首个100%开源企业级智能体,内部智能体数量超2万个,覆盖零售、物流、金融等领域 [24] 基础设施与平台 - 华为发布昇腾384超节点,由384颗昇腾NPU和192颗鲲鹏CPU组成,通信带宽提升15倍,延迟降低10倍 [26] - 蚂蚁集团推出AI健康管家AQ,基于医疗大模型开发,连接269个专科医生智能体及5000家医院 [26][27] - 阿里云发布百炼大模型服务平台,支持5分钟内开发大模型应用或几小时训练专属模型 [28][29] - 金山办公推出WPS灵犀,AI原生办公应用,提供智能辅助创作服务 [30] 行业观点 - 诺贝尔奖得主辛顿认为人类理解语言的方式与大模型相似,人类可能是"大语言模型" [9] - MiniMax创始人认为开源模型影响力逼近闭源模型,未来AI将更普惠,需建立AI安全机构研究向善技术 [11][12]
诺奖得主、AI教父辛顿上海演讲:警惕超级智能掌控世界
贝壳财经· 2025-07-26 17:37
人工智能发展前景与挑战 - 杰弗里·辛顿在2025世界人工智能大会(WAIC)上首次以线下形式在中国公开亮相并发表主题演讲,强调超级智能可能通过操纵人类获取权力的风险 [1] - 辛顿作为神经网络创始者之一和生成式人工智能奠基人,指出大语言模型理解语言的方式与人类相似,并能通过"蒸馏"等方法高效传递知识,数字计算在能源廉价时更具优势 [1] - 数字计算虽然耗能巨大,但智能体间知识共享效率极高(可达数十亿至数万亿比特带宽),而生物计算(人类)虽能耗低但知识共享效率差 [1] 超级智能的潜在威胁 - 人工智能在创建子目标(如生存和获取权力)时会更高效完成任务,最终可能操纵负责关闭它的人类 [2] - 辛顿将超级智能比作"小虎崽",人类未来需选择放弃或确保其不会威胁生存 [2] - 超级智能的欺骗能力可能使其学会如何绕过人类控制机制 [1][2] 全球AI治理建议 - 辛顿呼吁建立全球性AI安全研究机构,由各国共同参与,专注于研究如何防止AI夺取控制权 [2] - 建议各国设立人工智能安全研究所与国内研究网络,在不透露核心技术细节的前提下确保AI安全性 [2] - 强调AI道德教育与技术发展需并行,类似"教导孩子成为好人"与"变聪明"的方法需区分 [2]
80后麻省理工学霸,在深圳干出200亿
盐财经· 2025-07-26 17:33
文章核心观点 - AI技术在细分领域的应用深化比大语言模型等热门领域更具商业可持续性,制药行业是AI赋能的理想领域[2][3][5] - 创立可持续AI公司需具备三大维度:市场需求、技术成熟度、专业团队[3][4][7] - 晶泰科技作为AI制药标杆企业,通过量子物理+AI+机器人技术实现药物研发效率突破,2024年港股上市市值超200亿港币[8][31] AI制药行业特征 - 行业痛点:创新药研发周期超10年、成本超10亿美元/款,传统试错模式效率低下[5][15] - 数据优势:药物研发产生海量结构化数据(每年超1200亿美元研发投入产生实验数据),天然适合AI训练[5][34] - 技术突破点:蛋白质结构预测(AlphaFold获诺奖)、分子筛选设计等环节可提升50%以上效率[12][16][22] 晶泰科技商业模式 - 技术路径:量子物理计算+AI算法+机器人实验形成"干湿结合"闭环(70%研发人员占比)[8][22] - 业务范围:从药物晶体结构预测扩展到新材料、新能源等跨领域应用[8] - 发展历程:2015年创立→2016年获腾讯投资→2024年港股上市(18C规则首股)[7][28][31] AI应用方法论 - 优选赛道标准:数据易获取(低成本)、数据规模大、行业支付能力强[34][37] - 实施关键:AI需与物理实验结合,计算模拟不能完全替代实验室验证[22] - 成功要素:避开风口追逐,专注技术深耕(晶泰比AlphaFold早3年布局)[24][32] 行业数据表现 - 全球前十药企2024年研发投入总和:1200亿美元[5] - 晶泰科技上市市值:200亿港币[8] - 典型药物研发成本:超10亿美元/10年周期[5]
AI教父Hinton中国首次演讲实录:人类可能就是大语言模型
虎嗅· 2025-07-26 17:26
AI发展范式 - AI发展出两种范式:符号主义路径强调逻辑推理与符号处理[1],连接主义路径以生物智能为基础,强调神经连接的学习与适应[2] - 1985年尝试结合两种理论,通过语义特征预测词汇关系,为自然语言处理系统奠定基础[3][4] - 现代大模型(如GPT)延续该思想,将词汇视为多维特征构件,通过神经网络组合实现语言生成与理解[6] 大模型与人类认知 - 大模型构造方式类似蛋白质折叠,通过语义结构匹配实现语言理解[8] - 数字系统知识可复制且与硬件分离,具备永生性和高能效(人脑功率仅30瓦)[13][14] - 人类知识传递带宽极低(约100比特/秒),而AI可实现指数级知识转移[9][17] AI技术演进与应用 - 知识蒸馏技术将大模型能力迁移至小模型,类似教师-学生传授机制[16] - AI在创意领域表现突出:视频生成成本从百万降至数百元,半年内生成超3亿条内容[25] - AI应用场景远超设计预期,包括古文字解析、天文望远镜操作等,大幅提升个体能力边界[26] AI行业生态 - AI公司本质是提供持续性能力增强的组织,70%代码和90%数据分析由AI自动完成[28][30] - 模型能力提升依赖顶尖专家教学,通过引导思考过程实现泛化能力[30] - 开源模型快速崛起,多智能体架构削弱单一模型优势,推动行业普惠化[34][35] 成本与效率趋势 - 模型规模受推理速度限制,未无限膨胀,与芯片性能提升同步[35] - 推理成本一年内下降一个数量级,未来或再降一级,但token使用量激增(从数千至数百万)[38][39] - 训练成本未大幅上升,实验设计与团队效率成为竞争关键[37]
大模型“天梯赛”来了,让Agent在Kaggle真实任务中进化|佐治亚理工、斯坦福开源
量子位· 2025-07-26 17:01
文章核心观点 - 当前最强大的大语言模型(LLM)在解决真实、复杂的机器学习工程(MLE)任务时存在局限性,无法模拟人类工程师的反复实验、调试和优化工作流 [1] - MLE-Dojo是一个专为训练和评测大模型智能体(LLM Agents)设计的交互式基准测试框架,旨在将LLM从静态答题者转变为动态学习的机器学习工程师 [1][2] - MLE-Dojo提供了包含200多个真实Kaggle竞赛的交互式环境,支持智能体通过结构化反馈循环进行反复实验和优化 [2][12] 现有问题与解决方法 - 评测真空:现有基准大多是静态的,无法模拟真实世界中机器学习工程师的动态工作流,缺乏对持续实验、反馈吸收和资源管理等关键能力的考察 [6] - 训练缺失:大多数平台缺乏交互式环境,不支持监督微调(SFT)或强化学习(RL)等高级训练范式,限制了开发更强大AI智能体的可能性 [7] - 场景片面:许多基准只关注孤立任务,未能捕捉端到端机器学习流程的复杂性和内在联系 [8] MLE-Dojo的核心特点 - 全面的基准和框架:由超过200个真实的Kaggle竞赛构成,覆盖表格数据、计算机视觉(CV)、自然语言处理(NLP)等多个领域,其中150个任务用作训练集,50个用作评估集 [12] - 交互式可执行环境:提供Gym风格的交互环境,智能体可以调用一系列动作如request_info、validate_code、execute_code等,所有代码在安全沙箱中执行 [13] - 先进功能和精细化反馈:提供丰富的观察信息,包括错误报告、数据集信息、交互历史以及HumanRank奖励分数,该分数通过计算智能体在人类选手排行榜上的相对位置提供标准化性能指标 [14] 八大顶尖LLM评测结果 - Gemini-2.5-Pro综合实力登顶:在最关键的Elo综合评分中拔得头筹,在HumanRank分数上超越了61.95%的人类选手 [20] - 顶尖模型各有千秋:DeepSeek-R1和o3-mini等模型同样展现强大实力和适应性,在各项指标中名列前茅 [20] - 行动策略与模型性格:o3-mini策略激进,超过90%的动作直接执行代码;gpt-4o策略保守,仅有约20%的动作直接执行 [23] 性能与成本分析 - Gemini-2.5-Pro不仅性能领先,代码验证和执行中的总体失败率也是最低,生成的代码更加稳健可靠 [23] - 表现更强的模型通常能生成更长、更复杂的解决方案,交互历史也更长,表明其能进行更深入的多步推理 [24] - 顶尖推理模型通常需要更多token消耗,成本更高,但DeepSeek-r1展现出更高成本效益的潜力 [25] 开源与社区推动 - 团队已将MLE-Dojo的框架、基准和排行榜完全开源,旨在推动社区共同创新,加速下一代自主机器学习智能体的到来 [4] - 项目主页、排行榜、论文和Github链接均已公开,方便社区参与和进一步研究 [26]
Hinton上海演讲:大模型跟人类智能很像,警惕养虎为患
量子位· 2025-07-26 17:01
演讲核心观点 - 数字智能可能取代生物智能 大语言模型与人类理解语言的方式高度相似 人类可能本质上就是大语言模型 同样会产生幻觉[5][6][20][27] - AI知识迁移效率远超人类 通过参数共享可实现每秒数万亿比特的知识传递 比人类交流效率高数十亿倍[6][34][36][38] - AI发展已不可逆 需建立国际合作机制确保AI安全 防止其获得控制权威胁人类生存[6][42][45][51][53][55] AI技术发展历程 - 两种AI发展范式:符号逻辑型与生物神经网络型 前者主导过去60年 后者由图灵和冯·诺依曼提出[8][10] - 1985年提出的微型语言模型成为现代大语言模型雏形 通过特征向量预测词语 奠定神经网络语言理解基础[13][14] - 技术演进关键节点:1995年实现实时语言建模 2015年普及词向量嵌入 2022年Transformer架构突破[15][16][17] 数字智能优势分析 - 知识永久保存特性 软件与硬件分离确保知识永恒存在 生物智能受限于个体生命[29] - 计算效率对比 人类大脑仅需3瓦特功耗 但数字计算可实现精确复制与海量并行[32][40] - 知识传递机制 蒸馏技术实现大模型向小模型的知识迁移 类似师生教学关系[34] 人类与AI关系比喻 - 养老虎比喻 当前AI如同幼虎 需建立机制防止其成长后威胁人类[6][49][50] - 乐高积木模型 词语如同多维乐高模块 通过动态"握手"机制实现语义理解[22][24][26] - 蛋白质折叠类比 词语连接方式类似氨基酸组合 不同排列形成不同语义[26] 行业影响与建议 - AI已深度赋能医疗 教育 气候 新材料等领域 显著提升各行业效率[51] - 呼吁成立国际AI安全研究网络 共同开发可控AI系统[6][53][55] - 建议优先合作领域包括网络安全 自主武器管控 虚假信息识别等[53]
“AI教父”辛顿现身WAIC:称AI将寻求更多控制权
第一财经· 2025-07-26 14:27
人工智能发展路径与现状 - 人工智能发展存在两种不同范式:符号型逻辑性范式和以生物为基础的范式,辛顿在1985年尝试结合这两种理论[3] - 当前大语言模型是辛顿早期微型语言模型的衍生,采用更多词输入、更多层神经元结构,处理大量模糊数字并建立复杂交互模式[4] - 大语言模型理解语言的方式与人类相似,通过将语言转化为特征并整合这些特征,因此也会产生"幻觉"[4] 人工智能技术突破 - 2012年辛顿团队开发的AlexNet算法采用卷积神经网络(CNN),成为机器学习重要分支[5] - AlexNet仅使用4颗英伟达GPU就取得突破性成果,相比谷歌猫项目使用的16000颗CPU大幅提升效率[5] - GPU在深度学习中的价值被辛顿早期发现,AlexNet论文成为计算机科学史上最具影响力的论文之一[5] 人工智能安全挑战 - 几乎所有专家认为人类将创造出比自身更智能的AI,AI未来可能为生存和目标寻求更多控制权[1][4] - 辛顿将AI发展比喻为抚养虎崽,强调需要确保其不会伤害人类[4] - AI接管并摧毁人类文明的概率估计在10%至20%之间[6] - 建议将至少三分之一计算资源用于研究如何确保AI系统不偏离人类意图[6] 人工智能治理建议 - 提议建立AI安全机构国际社群,研究训练AI向善的技巧[5] - 各国可在主权范围内研究并分享成果,全球或AI领导国家应建立相关网络[5] - 批评大型科技公司为商业利益游说放松监管是危险趋势[6] - 强调需要国际合作预防AI统治世界,防止AI夺走人类控制权[4]
小米申请文本处理方法等相关专利,保证专项任务良好效果同时不降低其他任务处理效果
金融界· 2025-07-25 16:26
公司专利动态 - 北京小米移动软件有限公司与北京小米松果电子有限公司联合申请了一项名为"文本处理方法、文本处理装置及存储介质"的专利,公开号为CN120373448A,申请日期为2024年1月 [1] - 该专利涉及使用大语言模型处理文本任务,通过预先训练的判别器确定任务类型,并利用包含前缀编码器的大语言模型执行处理,旨在保证专项任务效果的同时不降低其他任务的处理效果 [1] - 专利摘要显示技术方案包括获取文本描述信息、判别任务类型、处理文本并输出目标文本三个核心步骤 [1] 公司基本信息 - 北京小米移动软件有限公司成立于2012年,注册资本14.88亿人民币,主要从事互联网和相关服务,对外投资4家企业,参与招投标137次,拥有5000条专利信息和123个行政许可 [2] - 北京小米松果电子有限公司成立于2014年,注册资本2.5亿人民币,主要从事零售业,对外投资1家企业,拥有15条商标信息、1029条专利信息和5个行政许可 [2]
速递|高盛、红杉等持续跟投,AI合规独角兽Vanta获1.5亿美元融资,估值飙至41.5亿美元
Z Potentials· 2025-07-25 11:24
融资与估值 - Vanta在最新一轮融资中获得1.5亿美元,估值达到41.5亿美元,较一年前的24.5亿美元大幅提升 [1] - 自2021年以来累计融资额达5.04亿美元 [1] - 本轮融资由威灵顿管理公司领投,高盛、红杉资本、摩根大通和Craft Ventures等机构参与 [1] 业务发展 - 公司成立于2018年,专注于开发企业合规管理及客户数据存储软件 [1] - 目前已积累12,000家客户,覆盖科技、金融服务和医疗保健领域 [1] - 正寻求将业务拓展至国家和地方政府层面 [1] 人工智能战略 - 计划利用新融资扩大人工智能产品线 [1] - 近期推出AI Agent产品,旨在比传统软件更独立地执行任务 [2] - 将AI应用于自身产品和客户工作流程,实现零接触安全审查 [2] - 生成式AI和大语言模型技术进步使公司工具更具实用性 [2] 国际化扩张 - 过去一年在伦敦设立办事处,并在澳大利亚建立数据中心 [2] - 正在推进亚太地区业务拓展 [2] 行业趋势 - 此次融资表明投资者对运用人工智能简化复杂企业流程的公司兴趣浓厚 [1] - AI Agent等新型软件服务正日益流行,旨在把握AI热潮 [2]