Workflow
人工神经网络
icon
搜索文档
运用人工神经网络的防空系统威胁评估模型
-· 2026-02-27 15:40
报告核心观点 - 该研究提出了一种用于防空系统的动态、学习型人工智能威胁评估模型,旨在通过整合缺失数据补全、多标准分析和人工神经网络来自动化威胁评估和目标分配过程 [1] - 与文献中大多数使用少量标准且为静态的研究不同,该模型采用了**26个不同标准**,并能够动态更新威胁分数,提供更广泛的视角 [1][3] - 模型性能表现优异,在测试中**均方误差(MSE)介于0.0005至0.0072之间**,**相关系数(R)高于95%**,表明其能高精度预测威胁等级,可加速决策支持过程,减少人为影响并提高系统效能 [1][56] 文献综述与行业现状总结 - 文献中的威胁评估方法主要分为四类:**基于规则的模糊逻辑(灰色关联分析)、贝叶斯网络与随机方法、多标准决策制定方法以及人工神经网络** [5][6][7][8][9] - 现有研究在使用的标准数量上差异很大,从1个到55个不等,且多数为静态模型,难以适应不断变化的战场条件 [1][10] - 威胁感知和反应时间因个人或地理条件而异,这源于操作人员的经验、知识库和决策链长度等因素,因此需要决策支持系统来减少初始不确定性并正确识别优先级 [11] - 不同国家基于其地理位置和战略,对威胁的视角和防御技术重点各不相同,例如美国和中国关注大数据与人工智能,而土耳其和以色列强调作战速度和精确防御 [14][16][18] 研究方法论 - **数据收集与标准选择**:研究从56项文献研究中编译了**223个目标数据集**,涵盖了**26个最常用且可进行数据补全的标准**,共收集了**5,798个数据点**,其中**4,246个通过数据补全过程生成** [21][24] - **数据预处理**:对数值进行了标准化,对分类数据添加了“未知”类别,并通过专家调查确定了20种不同目标类型的优先级权重,数据补全基于标准之间的关联网络,采用基于最近邻聚类估计的方法完成缺失值 [25][26][28][29] - **威胁分数计算**:提出了**组合几何威胁分数(CGTS)**,通过几何平均法结合文献中的威胁分数和基于标准重要性级别的加权分数,旨在减少不同来源的偏见评估,为神经网络训练提供更可靠的目标变量 [40][41] - **人工神经网络模型**:模型采用**26个标准化标准作为输入层**,**CGTS值作为输出层**,隐藏层神经元数量作为可变参数,使用**Levenberg-Marquardt反向传播算法**进行训练,并采用**均方误差(MSE)** 作为性能函数 [42][45][49] 模拟与实证结果 - **模型性能**:在**70%训练、10%验证、20%测试**的数据分割比例下,模型取得了最佳结果,**测试集的均方误差(MSE)为0.0025,相关系数(R)为0.9617**,表明模型具有高预测精度和泛化能力 [56][60] - **比较分析**:与文献中其他人工神经网络研究相比,该研究考虑了更多的标准(26个),并在更少的训练周期(9个)内取得了良好结果,计算出的**模型效率值为26,577**,高于所列的多数对比研究 [66][67][68] - **模拟场景**:模型对五个不同目标进行了测试,例如,由于弹药容量高(8,460)和交战距离短(10),**轰炸机(目标3)被评估为具有最高威胁分数(0.7303)**,而**SEAD飞机(目标4)** 尽管电子战能力高,但由于交战距离较远(28),威胁分数相对较低(0.5904),这证明了模型能通过平衡不同标准进行现实且可解释的威胁优先级排序 [74][75][77] 结论与贡献 - 该研究通过整合人工神经网络的动态学习能力与缺失数据补全算法,**填补了文献中缺乏动态自适应威胁评估模型的空白** [81][86] - 主要贡献包括:**编译并标准化了56项研究中的标准**,**首次揭示了标准间的关系网络并据此进行数据补全**,**提出了创新的组合几何威胁分数(CGTS)计算方法**,以及**设计并验证了一个高精度(R=0.96)且可泛化的人工神经网络模型** [82][83][84][85] - 该模型为下一代网络中心化防空系统提供了实时、智能威胁评估的基础验证,未来研究方向包括使用实时雷达数据测试模型、与深度学习架构比较、集成自动武器分配模块等 [85][87]
马斯克没吹牛!特斯拉能识别手势信号了,但国内还要继续等!
搜狐财经· 2026-02-22 23:28
特斯拉自动驾驶技术突破 - 特斯拉在荷兰老城区的实测视频显示,其车辆能够识别并响应人类指挥者的手势信号,例如“往前开”的指令,并在复杂狭窄路况中完成操作[3] - 该能力标志着自动驾驶系统从识别固定规则(如红绿灯)向理解人类“社会规则”和肢体语言的里程碑式跨越[3] - 这一功能由最新的FSD v14.2版本实现,其通过优化神经网络视觉编码器,使系统能更清晰地感知环境并理解动态意图[6] 全自动驾驶系统技术路径 - 特斯拉FSD V12及后续版本摒弃了传统手写代码规则,完全采用“端到端”的人工神经网络[6] - 技术本质是让系统像人一样“看世界”,通过神经网络处理视觉信息,从而实现对复杂、非结构化场景的理解[6][7] 全自动驾驶系统安全数据 - 特斯拉FSD Supervised的全球累计行驶里程已突破80亿英里(约128亿公里)[9] - 数据显示,开启FSD的特斯拉车辆,平均每行驶530万英里才会发生一次重大碰撞[9] - 该安全表现远超美国驾驶员平均水平(每66万英里一次),也优于仅开启主动安全的特斯拉车辆(每218万英里一次)[9] 商业模式与产品定价 - 以Model Y Premium All-Wheel Drive为例,车辆售价为48,000美元,目的地费1,390美元,订单费250美元,总价48,920美元[11] - 该配置包含30天的FSD(Supervised)试用[11] - 公司曾表示,随着FSD能力提升,目前每月99美元的订阅费用未来将会上涨[12] - 公司描绘的终极价值场景是,用户可在整个旅途中使用手机或睡觉,将驾驶完全交由FSD系统[12] 中国市场进展 - 目前特斯拉FSD在中国内地版本的功能尚不完整,与能够识别手势的“满血版”存在差距[14] - 公司已在国内设立本地训练中心,正在进行路况适配训练,以教会系统识别中国的特定交通参与者(如交警、行人、电瓶车)[14][16] - 公司高管表示FSD在中国内地的落地虽无具体日期,但各项准备工作在“稳步推进”[14] - 公司CEO曾暗示,FSD在中国获得批准只是时间问题[16]
像大模型一样进化
腾讯研究院· 2026-01-05 16:44
人工智能发展历程与核心驱动力 - 大模型的成功是技术长期演化的结果,经历了从早期符号主义AI失败到深度学习崛起,再到Transformer成功的艰难历程[1] - 人工神经网络的目标函数宏大,旨在模拟大脑信息处理乃至实现通用人工智能,其开创性工作曾被视为疯狂[3] - OpenAI训练GPT的目标函数是使用巨大神经网络容纳所有人类知识以实现AGI,GPT-4已将几乎全部人类知识压缩进1.8万亿个参数[4] 规模化法则与目标设定 - 人工神经网络的成功背后是规模化法则,即参数规模越大,优化空间越广,实现目标的可能性越大[4] - 设定短期狭隘的目标函数容易实现,但可能导致模型陷入“局部最优”陷阱,限制了更广阔的发展空间[4] - 公司应避免陷入“局部最优”,即满足于阶段性成就而丧失长期发展机会,需设定宏大且持续演进的目标函数[4][6] 注意力机制与信息处理 - Transformer架构的核心是注意力机制,它通过评估文本中词语间的关联强弱来捕捉信息关系,实现高效精准的信息处理[19] - 注意力分配是学习的本质,高质量的数据输入至关重要,遵循“垃圾输入,垃圾输出”的第一性原理[20] - 公司应像AI一样,将注意力集中在高质量的数据和信息源上,以构建坚实的认知基座[20][21] 学习与优化方法论 - 随机梯度下降是广泛使用的优化算法,其原理是通过当前误差找到大致正确的方向并迈出一小步,逐步优化模型参数[10] - 大模型通过“预测→计算误差→反向传播→优化参数”的循环流程从错误中学习,所有知识和能力由此获得[11] - 大脑的预测编码机制与梯度下降异曲同工,通过预测与现实的差异产生误差信号,驱动学习和认知更新[12] 随机探索与认知发展 - 随机梯度下降的核心魅力在于能从不确定中找到确定性,无需执着于精确规划每一步,而应找准大致方向并坚持行动[13] - 起点(如家境、学历)对于梯度下降算法并不重要,关键在于持续沿着梯度方向前进[14] - 随机探索(如阅读陌生领域、与不同人交流)能避免陷入认知的局部最优,带来新的误差和认知增益,推动认知结构重构[15][16] 实例学习与归纳教学 - 联结主义AI通过海量实例(如图片)让神经网络自行探寻模式规律,效果优于符号主义AI直接灌输规则的方法[22] - 范例教学(归纳式教学)主张通过提供精选样例让学生主动归纳规则,这种方法能加深理解并促进知识迁移[23] - 在复杂生活场景中,抽象道理(预训练知识)不足以为决策提供直接指导,需要通过具体情境中的实践进行微调和强化学习[24][25] 选择性遗忘与注意力管理 - 人类超越大模型的关键能力之一是“选择性遗忘”,即有意识地强化重要记忆并主动遗忘低效或有害信息[25] - 选择性遗忘是一种认知优化策略,通过“先做加法,再做减法”的思维模式,使注意力聚焦于核心价值[25] - 接纳过去的不愉快经历并主动进行情绪上的选择性遗忘,能让注意力回归当下,重获内心的平静与自由[26]
21书评︱“深度学习之父”辛顿:信仰之跃
21世纪经济报道· 2025-07-31 17:32
文章核心观点 - 文章通过回顾“深度学习之父”杰弗里·辛顿的传奇学术生涯与思想转变 探讨了坚持“信仰”对于人工智能领域突破性发展的重要性 并指出脑科学与人工智能的结合是通向通用人工智能的关键路径 [1][2][11] 人物背景与早期经历 - 杰弗里·辛顿于2024年因人工神经网络的基础性发现和发明获得诺贝尔物理学奖 是2018年图灵奖获得者 被公认为人工智能之父 [1][4] - 辛顿在剑桥大学本科期间频繁更换专业 从物理学辍学 后转向生理学、哲学 最终以心理学获得学士学位 毕业后曾成为一名木匠 [4][5] - 其家族学术背景显赫 父亲是剑桥大学教授、英国皇家学会院士 曾祖父是数学家兼科幻作家 曾祖父的岳父是布尔代数的创立者乔治·布尔 [5] - 辛顿早期远离学术选择成为木匠 被认为是对家族期望压力的逃避和对权威的无意识反抗 [6] 学术转折与研究信仰 - 辛顿在阅读心理学家唐纳德·赫布的《行为的组织》后深受启发 书中“共同放电则彼此连接”的赫布法则点燃了他用仿生方法研究大脑智能的火种 [7] - 他在一个心理工作坊中喊出“我真正想要的是一个博士学位” 从而决心重返校园 进入爱丁堡大学攻读人工智能博士学位 [7] - 当时神经网络研究正处严冬 人工智能先驱马文·明斯基在其著作《感知机》中批判神经网络是“死胡同” 主张符号主义AI 辛顿的导师也转投符号主义阵营 [7] - 辛顿坚信“让人工智能真正奏效的唯一途径 是让计算方式尽量像人脑” 并认为人工神经网络能做到人脑能做的一切 [9] 研究历程与行业影响 - 在近40年的时间里 辛顿因其对神经网络的执着而承受强烈的孤独感和学界敌意 其研究曾被普遍认为没有出路 [1][9] - 20世纪80年代中期 辛顿在麻省理工学院向明斯基等人展示其神经网络模型“玻尔兹曼机”时 场面一度凝重紧张 [9] - 四十多年后 深度卷积网络在图像识别领域大放异彩 Transformer架构重塑了自然语言处理 验证了辛顿当年的信仰之跃 [11] - 辛顿选择神经网络的部分原因是受其昆虫学家父亲从生物学角度理解生命的影响 他决意通过神经网络来创造通用人工智能这一新生命 [11] 人工智能领域发展启示 - 清华大学教授刘嘉在新书《通用人工智能:认知、教育与生存方式的重构》中借辛顿的故事提出 下一代人工神经网络的发展又到了需要赌一个像辛顿当年的“信仰”的时候 [2] - 刘嘉在1997年拜访马文·明斯基后因人工智能处于第二次寒冬而错过该领域 他现在的研究方向是让脑科学和人工智能结合 认为这对通向真正的通用人工智能可能有帮助 [2] - 脑科学与人工智能被描述为DNA的双螺旋结构 存在紧密且关键的联系 [2] - 真正的信仰被比喻为克尔凯郭尔笔下的“信仰骑士” 在于跃向绝望深渊时的决断 而非对结果的确定把握 [10][11]
一种新型晶体管
半导体行业观察· 2025-04-04 11:46
神经形态计算技术突破 - 新加坡国立大学研究团队证明单个标准硅晶体管可模拟生物神经元和突触行为 通过调整块体终端电阻值控制穿透碰撞电离和电荷捕获现象 实现神经放电和突触重量变化的复制 [1][2][3] - 该技术基于商用CMOS平台 与现有半导体制造工艺兼容 具备高度可扩展性和可靠性 相比需要复杂晶体管阵列或新兴材料的方案更具产业化优势 [3] - 团队开发出双晶体管单元NS-RAM 在神经元或突触状态下运行时表现出低功耗特性 多个操作周期内性能稳定 不同设备间行为一致 满足实际应用需求 [3] 技术应用前景 - 该突破使硬件级人工神经网络(ANN)成为可能 相比基于软件的ANN(如ChatGPT底层技术)大幅降低计算资源需求 解决当前AI系统能耗过高的问题 [2] - 神经形态计算芯片采用内存计算(IMC)架构 实现信息处理方式接近人脑 研究显示人脑通过约900亿神经元和100万亿突触连接达成超高能效 该技术方向有望复制这种效率 [1][2] 行业影响 - 标志着紧凑型节能AI处理器开发取得重大进展 为开发更快响应速度的神经形态计算系统奠定基础 可能推动半导体行业新一轮技术迭代 [3] - 采用成熟CMOS工艺路线降低产业化门槛 有利于加速商业化进程 对现有半导体制造产业链具有直接兼容性 [3]