Workflow
神经网络
icon
搜索文档
奥普特跌2.05%,成交额1.28亿元,主力资金净流出1181.12万元
新浪证券· 2025-09-01 11:18
股价表现与交易数据 - 9月1日盘中股价下跌2.05%至140.65元/股 成交额1.28亿元 换手率0.73% 总市值171.92亿元 [1] - 主力资金净流出1181.12万元 特大单净卖出1158.37万元(买入574.50万元/卖出1732.87万元) 大单净流出22.75万元(买入3054.48万元/卖出3077.23万元) [1] - 年内累计涨幅86.63% 近5日/20日/60日分别上涨7.21%/38.14%/60.10% [1] - 年内1次登龙虎榜 最近1月14日净买入8434.34万元 买入总额1.43亿元(占比46.21%) 卖出总额5909.56万元(占比19.04%) [1] 财务业绩与经营概况 - 2025年上半年营业收入6.83亿元 同比增长30.68% 归母净利润1.46亿元 同比增长28.80% [2] - 主营业务收入构成:机器视觉核心部件87.06% 机器视觉配件12.76% 其他业务0.18% [1] - A股上市后累计派现3.92亿元 近三年累计分红2.15亿元 [3] 股东结构与机构持仓 - 股东户数6005户 较上期减少13.18% 人均流通股20355股 较上期增加15.19% [2] - 富国天惠成长混合持股200万股(增持50万股) 香港中央结算持股124.91万股(减持6.67万股) [3] - 华夏中证机器人ETF新进持股78.72万股 富国新灵活混合持股76.80万股(增持8.77万股) [3] - 富国价值优势混合退出十大流通股东 [3] 行业属性与业务定位 - 所属申万行业:机械设备-自动化设备-其他自动化设备 [2] - 概念板块涵盖:全息概念/神经网络/百元股/基金重仓/华为概念等 [2] - 公司专注于机器视觉核心软硬件产品的研发、生产和销售 [1]
AI 教父辛顿最新对话:超级智能诞生之后,我们唯一的生路是当“婴儿”
AI科技大本营· 2025-08-28 16:29
大模型技术发展现状 - 通用人工智能(AGI)曙光已现,科技巨头竞赛日趋白热化,多模态大模型进化速度极快 [1] - 大语言模型基于神经网络运作,通过调整数十亿神经元连接权重实现学习,能够根据上下文预测词语 [10][11] - 当前AI已在医疗影像解读、新药研发(如蛋白质折叠预测)等领域展现巨大潜力,可通过眼底扫描预测心脏病风险 [26] AI技术演进路径与时间框架 - 专家共识认为5-20年内将创造出远超人类智能的AI系统,智力差距将形成巨大鸿沟 [5][6] - 神经网络研究始于上世纪六七十年代,通过计算机模拟脑细胞网络验证大脑运作理论,开辟了新的人工智能路径 [9] - 传统AI基于符号逻辑(如亚里士多德式推理),而现代AI转向模仿大脑工作机制的神经网络模式 [10] 产业影响与就业变革 - AI将消灭多数就业岗位,低技能工作(如呼叫中心)和高技能白领工作(律师助理、初级程序员)均面临风险 [22] - 即使需要高情商的工作(如医生、护士)也可能被取代,实验显示AI在同理心评价上已超越真人医生 [23] - 物理灵巧性工作(如水管工)短期内相对安全,但10-20年后机器灵巧度提升将威胁这些岗位 [22] 军事与安全应用 - 500美元无人机可摧毁数百万美元坦克,AI已彻底改变战争形态 [20] - 欧盟AI法案明确排除军事用途监管,各国因军事优势和经济利益不愿限制AI武器化 [18][19] - 致命性自主武器可能造成重大灾难后才会引发类似《日内瓦公约》的监管措施 [20] 企业战略与行业动态 - 科技公司领导者普遍将AI定位为"顺从的助手",但超级智能AI可能需要完全不同的共存模式 [27] - 谷歌等企业对AI风险有关注,但监管措施仍不足,所有公司都存在改进空间 [14] - 企业需适应欧洲市场法规(如隐私、仇恨言论限制),尽管当前AI法规仍较薄弱 [18] 技术实现机制 - 神经网络通过神经元群组激活表征词语意义,例如"星期二"和"星期三"激活相似神经元群组 [11] - 训练通过调整连接强度实现,例如使系统在看到"炸鱼和"后高概率预测"薯条" [11] - 当前通用大语言模型可能未充分利用个人数据,主要依赖通用上下文预测 [13] 全球竞争与合作格局 - 中美在防止网络攻击等领域难以合作,但在防止AI失控方面存在共同利益基础 [16][18] - 欧洲通过《欧盟人工智能法案》尝试建立规则体系,可能影响全球AI产品设计标准 [18] - 美国当前领导层下难以实现有效国际合作,但政权更替后可能推动全球协作 [18]
谷歌大脑之父首次坦白,茶水间闲聊引爆万亿帝国,AI自我突破触及门槛
36氪· 2025-08-25 11:35
个人成长与早期经历 - 童年时期频繁搬家,12年内更换11所学校,培养了适应能力 [7] - 9岁时接触早期Intel 8080计算机套件,通过BASIC语言书籍自学编程 [9][11][13] - 13岁时打印400页游戏源码学习并发编程,完成首个复杂软件移植 [14] - 本科期间接触遗传编程和神经网络,1990年尝试用32处理器并行训练神经网络 [15][17] 神经网络与工程突破 - 90年代提出数据并行/模型并行概念,早于相关术语普及 [8] - 2011年与吴恩达在谷歌茶水间交流后,启动Google Brain项目,目标是用GPU训练超大规模神经网络 [25][26] - 使用2000台计算机(16000核心)训练分布式神经网络,在视觉任务中实现无监督学习,生成"平均猫"图像 [26][27][30] - 无监督模型在Imagenet数据集上使错误率降低60%,监督语音模型在800台机器训练5天后错误率降低30% [30] - 推动定制机器学习硬件TPU开发,支持神经网络规模化应用 [30] 技术演进与核心贡献 - 推动词向量(word2vec)技术,用高维向量表示词汇语义 [32] - 序列到序列模型与LSTM网络应用于机器翻译,提升序列处理能力 [34][36] - 注意力机制与Transformer架构突破,实现n平方复杂度下的高性能序列处理 [38][40] - 谷歌大脑框架被数百个团队采用,支持搜索、广告等核心业务 [26] AI发展现状与未来方向 - LLM在非物理任务上超越普通人表现,但在专业领域尚未达到人类专家水平 [47] - 可解释性研究通过可视化或直接询问模型决策机制推进 [43][44] - 未来突破依赖自动化闭环:自动生成想法、测试、反馈及大规模解决方案搜索 [49] - 强化学习与大规模计算加速科学、工程领域发展,预计影响未来5-20年进程 [49] - 未来5年聚焦开发更强大、成本效益更高的模型,服务数十亿用户 [50] 行业影响与里程碑 - Google Brain项目促成神经网络在谷歌产品中的大规模部署 [26][30] - 纽约时报报道"猫图像"突破,成为AI认知里程碑事件 [27] - TensorFlow与TPU硬件推动行业机器学习基础设施标准化 [1][30]
应对万物互联趋势加剧和数据需求激增 “曲线球”系统可绕障传输超高频信号
科技日报· 2025-08-20 08:34
技术突破 - 美国普林斯顿大学研究团队开发出创新"曲线球"系统 通过动态塑造无线信号传输路径绕过障碍物 维持稳定高速通信连接[1] - 系统采用"艾里波束"无线电波技术 使信号沿弯曲轨迹前进而非直线传播 实现非直视条件下有效传输[2] - 引入神经网络构建智能系统 快速适应环境变化 类似职业篮球运动员依靠经验判断投篮角度和力度[2] 性能优势 - 超高频信号(尤其是亚太赫兹频段)具备传输当前无线系统10倍数据量的潜力 对高带宽需求应用至关重要[1] - 通过超表面天线精细引导波束方向和形态 实现对信号路径的主动调控 实验验证了技术可行性[2] - 可解决用户移动或物体阻挡导致的连接中断问题 突破复杂室内环境应用限制[1] 应用前景 - 为虚拟现实、全自动驾驶汽车等高带宽需求应用提供超高速、高可靠的无线连接支持[1][2] - 应对万物互联趋势加剧和数据需求激增难题 亚太赫兹频段为实现更高传输速率和网络容量提供关键突破口[1] - 未来发射器将能智能导航最复杂环境 支持目前难以实现的沉浸式应用[2]
实测Perplexity Pro平替模型,免费开源仅4B
量子位· 2025-08-15 12:21
产品定位与核心特性 - 开源模型Jan-v1仅4B大小但声称能平替Perplexity Pro [1] - 完全免费且支持本地部署 [2] - 基于Qwen3-4B-Thinking微调 针对推理和工具使用优化 [5] - 官方宣称SimpleQA准确率达91% 本地性能优于Perplexity Pro [3][9] 技术能力表现 - SimpleQA准确率高达91.1% 展现强事实性问答能力 [9] - 支持256k上下文长度 长文本分析接近Qwen-4B水平 [21][25] - 具备检索增强生成能力 可动态结合网络检索生成可溯源答案 [18][19] - 工具调用能力仍有提升空间 测试显示需进一步优化 [25][28] 应用场景与部署 - 专用于网络搜索和深度研究场景 [5][12] - 支持在Jan/llama.cpp/vLLM环境中运行 [8] - 最低仅需2.3GB存储空间(GGUF版本) [29][30] - 入门级NVIDIA GTX 1650显卡即可本地部署 [20] 市场反馈与生态 - 获得Qwen官方转发推文支持 [6] - 网络评价总体积极 但部分用户要求更详细技术报告 [33][34] - 提供四种量化版本 大小从2.3GB到4.0GB不等 [30]
白大褂遇上漫画笔
人民日报· 2025-08-08 06:40
图书内容与创作背景 - 图书由神经外科医生冯军峰和漫画师三折人生联合创作 采用漫画形式科普神经科学知识 出版单位为清华大学出版社[2] - 创作初衷源于神经外科医患沟通中存在信息不对等问题 通过视觉化辅助手段提升沟通效率[2] - 内容侧重神经外科临床科普 涵盖昏迷促醒 脑机接口 神经网络 神经元芯片 深脑刺激等11个前沿主题[3] 内容特色与表现形式 - 采用父子主题乐园探险的故事主线 通过飞行器 潜水艇等趣味交通工具展示大脑内部结构[3] - 融入女娲补天 大禹治水 孙悟空等中国神话元素作为科学史讲解员 体现医学人文关怀[3] - 表达风格强调诙谐生动 在专业性与趣味性 科学性与艺术性之间经过3年反复调试平衡[2][3] 市场反响与社会价值 - 图书面世后获得读者认可 年轻父母群体积极询问续集进展[2] - 实现多项目标:解读神经外科疾病救治过程 激发儿童科学探索兴趣 为科普创作提供新思路[4] - 填补神经外科医生视角科普作品的市场空白 满足公众对大脑神秘领域的好奇需求[2][4]
AI教父Hinton,重新能坐下了
虎嗅· 2025-08-03 12:53
行业与公司发展 - 2012年Hinton团队在ImageNet竞赛中以15.3%错误率夺冠,标志深度学习在图像分类领域的重大突破 [30][31] - 深度学习复兴的两大前提:2010年前后计算能力与大数据成熟 [34] - Hinton团队开发的神经网络技术使机器识别常见物体的准确度达到前所未有的水平 [33] 关键技术突破 - Hinton与搭档提出玻尔兹曼机和反向传播算法,解决机器"从数据中自动提炼内部表征"的核心难题 [20] - ChatGPT底层架构采用Transformer,属于神经网络的一种特殊形式 [13] - 2012年深度学习从纯学术研究转向产业应用,成为科技巨头战略核心 [42][43] 重大商业事件 - 2013年谷歌以4400万美元收购Hinton创立的DNNResearch公司 [40][41] - 谷歌随后以6.5亿美元收购DeepMind,该交易被视为谷歌最值得的投资之一 [54] - DeepMind被收购后开发出AlphaGo、AlphaFold、Gemini等里程碑式AI产品 [55][57] 行业影响与趋势 - 2019年Hinton与LeCun、Bengio共获图灵奖,表彰其推动神经网络成为科技产业核心 [59][60] - 2023年Hinton预警AI风险,提出"AI30年内导致人类灭绝概率10%-20%"的观点 [76] - AI发展速度超预期,Hinton修正预测认为"AI5年内可能比人类更聪明" [76] 行业应用前景 - Hinton认为AI将颠覆所有行业,仅水管工等需要高度创造力的职业暂时安全 [76] - 谷歌通过整合DeepMind与谷歌大脑部门,持续产出尖端AI产品 [57] - 全球科技巨头围绕深度学习重构业务,涵盖搜索、语音、图像识别、自动驾驶等领域 [43]
为什么Thor芯片要保留GPU,又有NPU?
理想TOP2· 2025-08-02 22:46
纯GPU在自动驾驶中的应用与局限性 - 纯GPU可实现低级别自动驾驶,但存在延迟、功耗和效率等明显短板,难以满足L3及以上级别需求 [4][6] - 早期测试案例显示,基于英伟达GTX1080GPU的方案在60公里/小时车速下,80毫秒延迟导致车辆前进1.33米,存在安全隐患 [5] - 特斯拉早期采用NVIDIA PX2 GPU,后转向自研NPU(FSD芯片)以优化能效 [6] GPU、NPU、TPU的架构与原理对比 - GPU设计初衷为图形渲染,以英伟达GTX1080为例,含2560个流处理器,但执行神经网络计算时30%-40%硬件资源闲置 [8][9] - NPU专为神经网络设计,如华为昇腾310B含2048个MAC单元,数据流转路径比GPU减少60%以上 [10][14] - TPU采用脉动阵列架构(如TPU v2的512x512阵列),数据复用率比GPU高3倍以上,专为TensorFlow优化 [12][28] 自动驾驶芯片的混合架构设计 - 英伟达Thor芯片同时集成GPU和NPU,NPU处理YOLOv8模型单帧图像耗时5毫秒,GPU处理100万点云数据耗时3毫秒,协同效率提升40% [32][33] - 混合架构降低硬件成本25%,减少50%电路板空间占用,并保留GPU以兼容传统算法(如SLAM),节省18个月适配时间 [33][34] 能效与成本数据对比 - NPU能效显著优于GPU:华为昇腾310B能效比2.75TOPS/W,是英伟达Jetson AGX Xavier(1.07TOPS/W)的2.5倍 [36] - 特斯拉FSD芯片NPU部分能效比5.76TOPS/W,相同算力下功耗仅为纯GPU方案的1/4.8 [36] - 量产10万台时,NPU单位研发成本30美元/台,GPU为80美元/台;144TOPS算力下,NPU方案硬件成本仅为纯GPU方案的12.5% [37] 技术发展趋势 - 纯GPU方案在L4级自动驾驶中面临瓶颈:处理5-10GB/秒数据需多颗GPU协同,功耗达320W,使电动车续航减少30% [6] - 未来主流方案为NPU+GPU混合架构,兼顾神经网络处理效率与通用计算兼容性,综合优化延迟、能耗及成本 [40]
自动驾驶为什么需要NPU?GPU不够吗?
自动驾驶之心· 2025-07-26 21:30
自动驾驶芯片技术对比 - 纯GPU方案可实现低级别自动驾驶,但存在延迟高(80毫秒导致车辆行驶1.33米)、功耗大(4颗TITAN X GPU达320W使电动车续航减少30%)和效率低(ResNet-152模型处理4K图像耗时28毫秒)三大短板 [5][6][7] - NPU专用架构在神经网络计算中表现优异:华为昇腾310B含2048个MAC单元,数据流转路径比GPU减少60%;处理相同任务耗时仅8毫秒,比GPU快3.5倍 [12][6] - TPU采用512x512脉动阵列,数据复用率比GPU高3倍,专为TensorFlow优化但灵活性较低 [12][14][27] 芯片架构原理差异 - GPU基于通用流处理器(如GTX1080含2560个),执行AI任务时30%-40%硬件资源闲置 [10] - NPU采用MAC阵列直接映射神经网络结构,华为昇腾310B通过2048个乘加单元实现硬件级矩阵运算加速 [12][15] - TPU的脉动阵列通过数据节拍流动(如TPUv2的512x512阵列)减少访存次数,适合大型矩阵乘法 [14][15] 混合计算方案优势 - 英伟达Thor芯片采用GPU+NPU异构设计:NPU处理YOLOv8目标检测(5毫秒/帧),GPU完成激光雷达坐标转换(3毫秒/百万点云),协同效率提升40% [30] - 混合方案相比纯GPU硬件成本降低25%(单芯片成本500美元 vs 4000美元),电路板空间占用减少50% [31][35][36] - 兼容现有GPU算法可节省18个月适配时间,量产10万台时NPU单位研发成本仅30美元(GPU需80美元) [30][37] 能效与成本数据 - NPU能效比显著领先:特斯拉FSD芯片NPU部分达5.76TOPS/W,是同级GPU方案(1.07TOPS/W)的5.4倍 [34] - L4自动驾驶测试中,纯GPU方案(150W)比混合方案(60W)每百公里多耗电8度,续航减少53公里 [34] - 实现144TOPS算力时,NPU方案硬件总成本1200美元仅为纯GPU方案(5500美元)的21.8% [35][36]
从人文视角为青少年解读AI
人民日报海外版· 2025-07-10 10:22
人工智能科普教育 - 涂子沛的"人工智能三部曲"包括《给孩子讲人工智能》《给孩子讲大数据》《给孩子讲大模型:基于DeepSeek、豆包和ChatGPT》,专为青少年创作,通过故事拆解大数据、人工智能、大模型的发展史与基础知识 [2] - 《给孩子讲人工智能》涵盖人工智能领域的重要历史、前沿应用和实用预警,《给孩子讲大数据》追溯大数据发展脉络并培养数据思维,《给孩子讲大模型》展示大语言模型的发展历程与功能 [2] - 作者采用诙谐语言、生动故事、幽默漫画和问题式引导,将抽象科技概念融入青少年熟悉场景,构建宏观认知并激发探索欲 [3] 科技与人文结合 - 涂子沛以人文视角平衡科学性、趣味性、思想性和文学性,不盲目崇拜技术,而是带领青少年接近人工智能的"人文入口" [3] - 书中传递文化理念:技术需要被理解、审视和赋予善意,提醒青少年学习技术是为了成为有能力、有信心的人,而非技术的仆人 [3] - 随着深度学习技术发展,未来人工智能将掌握更多数据并合成新数据,认知边界无限拓展,培养青少年面对未知的勇气与判断力至关重要 [4] 行业影响与未来展望 - 合理利用AI工具已成为AI时代不可或缺的基本技能,"人工智能三部曲"为青少年播下知识与思考的种子,可能影响未来大模型的设计者、管理者和批评者 [4]