深度学习
搜索文档
有一定深度学习基础,该如何入门自动驾驶?
自动驾驶之心· 2025-09-26 07:33
公司业务与平台架构 - 公司搭建了自动驾驶、具身智能和大模型三个技术平台 [2] - 平台通过知识星球社区提供近40+学习路线 [8] - 平台提供七门面向初学者的精品课程 [8] 行业技术发展趋势 - 自动驾驶技术栈快速迭代,三年前主流是BEV,两年前是无图技术,一年前是端到端,当前热点是VLA和世界模型 [1] - 行业面临VLA和WA的路线之争以及未来发展方向等前沿议题讨论 [8] 公司产品与服务 - 平台提供与学术界及工业界顶尖专家的面对面交流机会 [8] - 社区内容涵盖VLA NavigScene、LangCoop、DriveBench、ZeroGS、Diffusion planner等前沿主题 [8] - 课程内容覆盖世界模型、轨迹预测、大模型、相机标定、毫米波、点云3D检测、Transformer等技术领域 [8] 市场活动与推广 - 公司推出国庆节和中秋节年度最大优惠活动 [2] - 提供平台课程八折优惠券和七折超级折扣卡 [4] - 知识星球新人享受七折优惠,续费用户可享五折优惠 [5]
从Transformer到GPT-5,听听OpenAI科学家 Lukasz 的“大模型第一性思考”
AI科技大本营· 2025-09-23 10:11
Transformer架构的诞生与影响 - 2017年论文《Attention Is All You Need》提出彻底抛弃循环神经网络,仅使用注意力机制处理语言,其提出的Transformer架构重塑了人工智能版图[2] - 该论文在Google Scholar上的引用次数高达197,159次,成为大模型理论的奠基性文章,开启了人工智能新纪元[2][17] - Transformer架构以其无与伦比的并行计算能力和对长距离依赖的出色捕捉,迅速成为自然语言处理领域的全新范式,并辐射到计算机视觉、语音识别等AI子领域[17] 核心人物Lukasz Kaiser的学术背景 - Lukasz Kaiser拥有波兰弗罗茨瓦夫大学计算机科学与数学双硕士学位,并在德国亚琛工业大学获得博士学位,专攻"自动结构上的逻辑与博弈"这一艰深领域[7] - 2009年其博士论文荣获E.W. Beth dissertation prize,这是全球逻辑、语言和信息领域的最高学术荣誉之一,证明其在纯粹理论科学领域达到世界顶尖水平[8] - 博士毕业后受聘于巴黎狄德罗大学LIAFA实验室,成为法国国家科学研究中心终身研究员,拥有稳定的学术职位和完全的研究自由[9] 从学术界到工业界的转型 - 2013年Kaiser辞去法国终身研究员职位加入谷歌大脑,这一决定源于对"重复"的厌倦和对"变革"的极度渴望,从"证明"转向"构建"的冲动[10][11] - 当时自然语言处理领域被循环神经网络统治,但RNN存在长距离依赖问题和串行处理缺陷,与GPU和TPU的并行架构不匹配[12][14] - Kaiser团队最初将注意力机制作为RNN的增强补丁,但最终提出完全基于注意力的新模型构想,彻底推翻了RNN的统治地位[14][15] Transformer八子的分化与Kaiser的选择 - Transformer八位作者中七位已踏上创业之路,成为AI产业浪潮中的商业巨擘,如Aidan Gomez创立Cohere、Noam Shazeer创立Character.ai等[4][24] - Lukasz Kaiser是八子中唯一未创业的科学家,于2021年离开工作八年的谷歌,加入以AGI为最终使命的OpenAI,继续坚守技术研究最前线[4][24][25] - 在OpenAI期间,Kaiser深度参与并主导了GPT-4、GPT-5以及代号为"o1"和"o3"的推理模型等核心研发工作[4][27] 通用人工智能的探索历程 - 2017年Kaiser参与发表论文《One Model To Learn Them All》,提出MultiModel单一模型同时处理八个不同任务,是AGI追求的第一次公开实践[20][22] - 该研究证明统一深度学习架构有潜力联合学习跨领域知识,尽管单项任务表现未超越专业模型,但为通用智能探索开辟了新方向[22] - Kaiser认为AI下一阶段关键在于教会模型"思考",通过生成更多中间步骤进行深度推理,而不仅仅是直接输出答案[29] 行业技术发展趋势 - AI发展经历了从2014年"证明可行性"到2017年"架构创新",再到2019年"自监督预训练"以及2021年"规模定律",最终到2023年"数据质量与RLHF"的进化路径[27] - 未来计算力将从大规模预训练转向在少量高质量数据上进行海量推理计算,预示着AI即将迎来又一次范式转移[29] - 多模态融合、模型规模持续提升以及AI能力通过API和云服务形式普及,已成为行业明确的发展方向[31]
市场舆情监测供应厂家推荐:如何选择高性价比服务商
搜狐财经· 2025-09-18 10:55
行业背景与需求 - 市场舆情监测是企业决策的重要工具,关乎品牌声誉维护和行业趋势把握 [1] - 在纷繁复杂的网络环境中,选择专业可靠的服务商是企业关注焦点 [1] - 技术实力、数据覆盖范围和服务模式灵活性是选择服务商的关键考量维度 [1] 公司技术实力 - 公司为国家高新技术企业,深耕大数据领域多年,形成独特技术壁垒 [3] - 研发团队专注于数据挖掘、机器学习、自然语言处理与深度学习 [3] - 构建覆盖全国的监测网络,实现对互联网信息的高效采集与分析 [3] - 依托自建IDC数据中心,结合全国运营商资源,在国内外部署大量数据探测节点 [3] - 立体化数据采集体系使监测结果具备广泛覆盖面和高精确度 [3] - 智能分析引擎能捕捉金融领域市场情绪的细微变化信号 [3] 服务模式与解决方案 - 将大数据技术与移动互联网应用深度融合,推出多款定制化解决方案 [4] - 构建用户体检监测云服务中心,将数据转化为直观的可视化报告 [4] - 通过持续优化数据大模型,增强海量信息的解析能力 [4] - 技术积累帮助企业识别潜在风险并挖掘隐藏市场机遇 [4] - 在政务评估领域提供数据支持方案,帮助政府部门实现科学决策 [4] 公司发展优势 - 作为专精特新企业,始终保持对前沿技术的敏感度 [4] - 从最初网站数据采集发展到构建完整智能分析体系 [4] - 技术迭代速度快,行业深耕程度值得肯定 [4] - 持续创新能力使企业在快速变化的市场环境中拥有可靠技术支撑 [4]
谷歌反垄断案折射搜索行业变革
经济日报· 2025-09-15 05:46
谷歌反垄断案判决结果 - 谷歌在一场持续5年的反垄断案中取得阶段性胜利 成功避免被强制拆分其Chrome浏览器及安卓操作系统[2] - 法院裁定谷歌只需向竞争对手开放更多搜索结果数据 并设立反垄断技术委员会以监督公司运营[2] - 相对宽松的判决提振了市场信心 消息公布后谷歌盘后股价一度大涨超8%[2] 生成式AI对市场竞争格局的影响 - 法官在判决书中多次强调生成式AI的影响 指出越来越多的用户正通过ChatGPT等AI聊天机器人获取信息 显著加剧了搜索市场的竞争[2] - 生成式AI公司如OpenAI意外成为谷歌的"救命稻草" 其崛起削弱了对谷歌进行彻底拆分的必要性[2] - AI搜索引擎如Perplexity的"答案引擎"重新定义了信息获取方式 提供简洁答案并支持连续追问[3] 传统搜索引擎的竞争优势 - 传统搜索巨头已构建起坚实的生态"护城河" 例如谷歌的Chrome浏览器与YouTube、Gmail、地图等生态服务形成协同[3] - 传统搜索引擎掌握着生成式AI发展的关键资源 包括算力(谷歌云位居全球前三)与存储于其服务器中的海量数据[4] - AI公司自建数据索引库面临高技术门槛和巨额成本 难以跳过对传统巨头资源的依赖[4] 行业未来发展趋势 - 全球搜索业务站在转型十字路口 新兴AI搜索需突破成本与技术壁垒 传统搜索巨头需实现AI化转型[4] - 谷歌一案的判决被视为本世纪科技行业最具深远影响的法院裁决之一 将为面临类似诉讼的Meta、亚马逊和苹果提供重要参考[4] - 一批AI浏览器新品发布 如Perplexity的Comet和OpenAI即将发布的新款浏览器 让浏览器市场竞争再起[3]
斯坦福AI能精准预测死亡,玄学还是大数据?
虎嗅· 2025-09-11 21:04
AI医疗预测技术突破 - 斯坦福大学医生利用深度学习技术预测临终患者死亡时间 准确率从40%提升至80% [1] - 丹麦科学家使用全国596万人数据构建280维标签模型 预测大事件和死亡日期准确率达78% [1] 技术应用限制 - 预测算法因存在被保险公司滥用的潜在风险而未公开 [1]
AI+HI系列:DecompGRNv1:基于线性RNN的端到端模型初探
华创证券· 2025-09-05 16:12
量化模型与构建方式 1. 模型名称:RNN-LIN - 模型构建思路:基于线性RNN构建的简化时序模型,移除非线性激活函数以提升训练效率并减少参数量[11][12] - 模型具体构建过程: 输入序列为股票日频特征(高、开、低、收、均价、成交量)的150日时序数据[23] 模型结构包含遗忘门和输出门,使用sigmoid激活函数控制门控值在(0,1)范围内,隐状态迭代时不使用非线性激活函数[20] 具体计算公式如下: $$h_{t}=f_{t}\otimes h_{t-1}+(1-f_{t})\otimes c_{t}$$ $$y_{t}=o_{t}\otimes h_{t}$$ $$f_{t}=Sigmoid(x_{t}W_{f})$$ $$o_{t}=Sigmoid(x_{t}W_{o})$$ $$c_{t}=SiLU(x_{t}W_{c})$$ 其中$h_t$表示隐状态,$y_t$表示输出,$f_t$为遗忘门,$o_t$为输出门,$c_t$为候选状态,$W_f$、$W_o$、$W_c$为可学习参数矩阵[20] 参数量相比GRU模型减少约50%[20] - 模型评价:训练效率优于GRU,但性能略逊于GRU基线模型[22][47] 2. 模型名称:RNN-LIN-GLU - 模型构建思路:在线性RNN基础上耦合门控线性单元(GLU)以提升模型表达能力[21][22] - 模型具体构建过程: 在RNN-LIN层后叠加GLU FFN模块组成block[21] GLU FFN的计算公式为: $$FFNSwiGLU(x,W,V,W_{2})=(Swish(xW)\otimes xV)W_{2}$$ 其中$W$、$V$、$W_2$为可学习参数矩阵[21] 其他构建过程与RNN-LIN相同[21] - 模型评价:GLU模块对RNN-LIN的性能提升效果优于对GRU的提升[45] 3. 模型名称:DecompGRN - 模型构建思路:基于线性RNN改进的时序-截面端到端模型,将截面信息直接整合进RNN门控单元[2][49] - 模型具体构建过程: 采用两层RNN结构[50] 第一层线性RNN输出每个时间步的个股表征,使用市值作为分组特征进行20分组,计算股票分组去均值结果,得到包含截面信息的个股表征[50] 第二层构建线性RNN变体,将截面信息和时序融合共同输入遗忘门和输出门[50] 使用时序趋势分解模块将初始输入拆分为趋势与残差分量[89] 趋势分量输入1D卷积+RNN实现时序编码,残差分支使用深度可分离卷积[94][95] 最终将趋势和残差分支结果相加合并,输入第二个时序RNN编码器,取最后一个时间步输出通过线性预测头得到股票得分[96] 参数量仅为GRU基线模型的43%[74] - 模型评价:性能超越基线GRU模型,模型逻辑与参数量实现双重简化[2][74] 模型的回测效果 1. RNN-LIN模型 - 中证全指:RankIC 0.13,RankICIR 1.08,IC胜率 0.88[37] - 沪深300:RankIC 0.10,RankICIR 0.62,IC胜率 0.74[37] - 中证500:RankIC 0.09,RankICIR 0.71,IC胜率 0.78[37] - 中证1000:RankIC 0.12,RankICIR 0.96,IC胜率 0.86[37] 2. RNN-LIN-GLU模型 - 中证全指:RankIC 0.13,RankICIR 1.14,IC胜率 0.89[37] - 沪深300:RankIC 0.10,RankICIR 0.63,IC胜率 0.73[37] - 中证500:RankIC 0.10,RankICIR 0.74,IC胜率 0.79[37] - 中证1000:RankIC 0.12,RankICIR 1.01,IC胜率 0.87[37] 3. DecompGRN模型 - 中证全指:RankIC 0.141,RankICIR 1.26,IC胜率 0.89[55][89] - 沪深300:RankIC 0.099,RankICIR 0.65,IC胜率 0.74[55][89] - 中证500:RankIC 0.098,RankICIR 0.77,IC胜率 0.78[55][89] - 中证1000:RankIC 0.127,RankICIR 1.08,IC胜率 0.88[55][89] 量化因子与构建方式 (报告中未明确提及独立的量化因子构建,主要关注端到端模型) 因子的回测效果 (报告中未提供独立因子的测试结果) 分组测试绩效统计 1. RNN-LIN模型(层数1) - 中证全指:年化收益率42.59%,夏普比率1.46,最大回撤-36.71%,超额年化42.05%,平均单边换手0.81[42] - 沪深300:年化收益率28.59%,夏普比率1.38,最大回撤-22.09%,超额年化28.67%,平均单边换手0.66[42] - 中证500:年化收益率23.68%,夏普比率1.02,最大回撤-34.63%,超额年化23.95%,平均单边换手0.76[42] - 中证1000:年化收益率32.81%,夏普比率1.20,最大回撤-35.43%,超额年化33.72%,平均单边换手0.77[42] 2. RNN-LIN-GLU模型(层数1) - 中证全指:年化收益率48.73%,夏普比率1.60,最大回撤-35.33%,超额年化48.19%,平均单边换手0.81[42] - 沪深300:年化收益率29.92%,夏普比率1.38,最大回撤-23.62%,超额年化30.00%,平均单边换手0.65[42] - 中证500:年化收益率24.45%,夏普比率1.03,最大回撤-39.60%,超额年化24.72%,平均单边换手0.75[42] - 中证1000:年化收益率34.47%,夏普比率1.24,最大回撤-34.51%,超额年化35.38%,平均单边换手0.76[42] 3. DecompGRN模型 - 中证全指:年化收益率57.68%,夏普比率1.71,最大回撤-34.69%,超额年化56.18%,平均单边换手0.79[57][89] - 沪深300:年化收益率31.69%,夏普比率1.42,最大回撤-26.88%,超额年化31.00%,平均单边换手0.65[57][89] - 中证500:年化收益率26.90%,夏普比率1.10,最大回撤-37.82%,超额年化26.13%,平均单边换手0.74[57][89] - 中证1000:年化收益率40.35%,夏普比率1.37,最大回撤-35.51%,超额年化40.03%,平均单边换手0.74[57][89] 指增组合测试结果 DecompGRN模型指增表现 - 沪深300指增:年化超额收益10.24%,跟踪误差5.07,超额夏普1.95,超额最大回撤-8.12%,2025年累计超额3.93%[75][85][89] - 中证500指增:年化超额收益10.05%,跟踪误差6.10,超额夏普1.60,超额最大回撤-7.15%,2025年累计超额6.72%[75][85][89] - 中证1000指增:年化超额收益19.58%,跟踪误差6.75,超额夏普2.68,超额最大回撤-9.11%,2025年累计超额18.26%[75][85][89]
守护我们的专注力(金台随笔)
人民日报· 2025-09-05 06:57
数字时代注意力经济现象 - 数字资源易得性导致专注力下降 表现为读不进书 看不下完整电影 无法深度思考[1] - 生活快节奏消磨精神能量 空闲时间倾向于消费无需动脑的内容[1] - 文化体验与自我提升存在知行差距 多数人陷入知易行难困境[1] 专注力重建方法论 - 需改变功利心态 停止过度追求即时回报 才能沉浸过程本身[2] - 3分钟电影速看无法欣赏镜头艺术 5分钟名著速读难以体会文字意蕴[2] - 深度学习中积累的思考习惯与从容气质是时间的长期馈赠[2] 好奇心触发机制 - 好奇心触发连锁反应:产生疑问 激发兴趣 探求原因 深究结果[3] - 创造触发时刻需脱离数字设备 通过人际交流 自然接触 文物观览获得新知[3] - 专注力是由内而外的思维沉浸 非依靠外部自律维持[3] 数字文化资源整合 - 数字技术将海量文化资源编织入日常生活[4] - 需解决注意力失焦问题 培养信息甄别与批判思考能力[4] - 保持文化敬畏心才能使数字文化接触成为精神滋养[4]
刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
机器之心· 2025-09-04 17:33
课程概述 - 斯坦福大学2025年春季《CS231n:深度学习与计算机视觉》课程正式上线,专注于深度学习架构细节及视觉识别任务[1] - 课程重点围绕图像分类、定位和检测等端到端模型学习,特别是图像分类领域[2] - 课程为期10周,学生将实现并训练神经网络,深入理解计算机视觉前沿研究[3] - 结业时学生可在真实世界视觉问题上训练和应用数百万参数的神经网络[4] - 通过实践作业和课程项目,学生掌握深度学习工具集及深度神经网络训练与微调的工程技巧[5] 讲师团队 - 李飞飞担任主讲人之一,为斯坦福教授、World Labs CEO,领导创建ImageNet项目并推动深度学习在计算机视觉领域的革命性突破,近期研究方向为空间智能与世界模型[6] - Ehsan Adeli为斯坦福大学精神病学与行为科学系及计算机科学系助理教授,研究方向包括计算机视觉、计算神经科学、医学影像分析等[6] - Justin Johnson为密歇根大学助理教授及FAIR研究科学家,研究兴趣包括视觉推理、图像生成和3D推理[6] - Zane Durante为斯坦福大学三年级博士生,导师为李飞飞和Ehsan Adeli,研究方向包括多模态视觉理解及人工智能在医疗健康中的应用[7] 课程资源 - 课程全部18个视频已在Youtube免费开放,第一和最后一堂课由李飞飞讲授[12] - Youtube播放列表包含18个视频,总观看次数达984次,其中第一讲观看次数为7410次,第二讲为1057次,第三讲为706次,第四讲为442次[12] - 视频地址为https://www.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16[12] 课程内容目录 - 课程内容涵盖线性分类器图像分类、正则化与优化、神经网络与反向传播、卷积神经网络图像分类[16] - 包括卷积神经网络训练与架构、循环神经网络、注意力机制与Transformers、目标识别与图像分割[16] - 涉及视频理解、大规模分布式训练、自监督学习、生成式模型、3D视觉、视觉与语言、机器人学习及以人为中心的人工智能[16]
海洋灾害预警数据集入选典型案例
中国自然资源报· 2025-09-04 10:09
项目核心成果与入选 - 海南省海洋灾害多维立体监测与智能预报预警高质量数据集入选国家数据局高质量数据集典型案例 [1] - 项目聚焦台风、风暴潮、赤潮、海浪、裂流等多类海洋灾害 [1] - 项目是海南省海洋灾害综合防治能力建设项目成果之一,业主单位为海南省海洋厅,已于2025年7月竣工并转入业务化运行 [2] 技术方法与数据规模 - 项目整合GPU-CPU异构计算、深度学习与人工智能模型,建立覆盖海南沿海风、浪、流、风暴潮等要素的预报模式 [1] - 项目形成约9.6TB高质量数据,直接服务于海洋预报警报业务 [1] - 构建智能订正与精细场景释用技术,大幅提升海洋环境预报产品的准确率与时效性 [1] - 通过物理—化学—生物耦合模型,完善赤潮等生态灾害的风险预警与评估体系 [1] - 借助机器视觉与动态采样训练,实现海浪与裂流的智能识别,预警时效提升约30% [1] 应用机制与行业影响 - 建立了覆盖实时感知—精准预报—生态保护—智能防控全周期的数据管理机制 [2] - 目前已应用于10余类海洋灾害防治业务场景 [2] - 通过多地多单位协同和数据共享机制,推动海洋数据资源高效流通与业务化应用 [2] - 成果实现自主可控的海洋预报创新,为海洋防灾减灾提供海南智慧和数据样板 [2]
AI教父Hinton诺奖演讲首登顶刊,拒绝公式,让全场秒懂「玻尔兹曼机」
36氪· 2025-09-03 19:29
霍普菲尔德网络与玻尔兹曼机原理 - 霍普菲尔德网络由二进制神经元构成,神经元间通过对称加权连接,其全局状态被称为“配置”,并由“优度”衡量,而能量是优度的负值[5][6] - 网络通过每个神经元的局部计算来降低能量,最终稳定在能量最低点,但可能存在多个能量最低点,具体停留位置取决于起始状态和神经元更新序列[6][8] - 该网络可将能量最低点与记忆关联,实现“内容可寻址存储”,即输入不完整的记忆片段后,网络能通过应用决策规则补全完整记忆[11][12] 从记忆存储到感官输入解释 - 网络被扩展用于构建对感官输入的解释,而不仅是存储记忆,通过将网络分为“可见神经元”和“隐藏神经元”,网络的配置能量代表了该解释的劣度,目标是获得低能量的解释[13][14][15] - 以内克尔立方体为例,网络通过设置连接强度,可以形成两个稳定的状态,分别对应图像的三维诠释(凸面体和凹面体),体现了感知光学原理[19][23][25] 解决搜索与学习问题的方法 - 针对网络可能陷入局部最优的“搜索问题”,引入带有噪声的“随机二进制神经元”,通过概率性决策让神经网络能够从较差的解释“爬坡”到更好的解释[27] - 通过随机更新隐藏神经元,网络会趋近于“热平衡”,此时隐藏神经元的状态构成对输入的一种诠释,低能量状态出现的概率更高,遵循玻尔兹曼分布[29][30][31] - 针对“学习问题”,Hinton与Sejnowski在1983年提出了玻尔兹曼机学习算法,该算法包含“清醒阶段”(向网络呈现真实图像并增加同时激活神经元的连接权重)和“睡眠阶段”(让网络自由“做梦”并减少同时激活神经元的连接权重)[36][38] 玻尔兹曼机的核心创新与演变 - 玻尔兹曼机的核心创新在于权重调整基于两种相关性差异:网络在“清醒”时与“做梦”时两个神经元共同激活频率的差异,这与反向传播算法依赖前向和反向通路传递不同信息的方式截然不同[41][42][44] - 由于达到热平衡速度缓慢,通过消除隐藏单元间的连接发展出受限玻尔兹曼机(RBM),并引入“对比散度”方法加速学习,该方法通过将数据输入可见单元、并行更新隐藏神经元、重构可见单元等步骤实现[44][46][48] - RBM在实践中取得成果,例如Netflix公司曾使用RBM根据用户偏好推荐电影并赢得预测大赛[50] 堆叠RBM与深度学习突破 - 为构建多层特征检测器,2006年提出“堆叠RBM”方法,通过将第一个RBM的隐藏层激活模式作为数据训练下一个RBM,以此类推,创建出特征的层级结构和越来越抽象的表示[50][51][52][53] - 堆叠完成后添加最终层进行监督学习(如图像分类),这使得神经网络学习速度远超随机初始化,并且泛化能力更好,因为大部分学习在无监督情况下进行[55] - 在2006-2011年期间,堆叠RBM被用于预训练前馈神经网络再进行反向传播微调,2009年其被证明在语音识别中效果显著,2012年基于此的系统在谷歌安卓设备上大幅改善了语音识别性能[56][58] 玻尔兹曼机的历史角色与未来展望 - 玻尔兹曼机被比喻为“历史的酶”,它催化了深度学习的突破,一旦证明了深度神经网络的潜力,研究人员开发出其他方法后,它便逐渐退出主流[58] - 利用“睡眠”阶段进行“反学习”的算法被认为更具生物学合理性,可能避免反向传播的非对称通路,未来在理解大脑如何学习时,“睡眠”中的“反学习”可能仍是关键一环[59]