Workflow
深度学习
icon
搜索文档
广发证券发展研究中心金融工程实习生招聘
招聘岗位与职责 - 公司招聘金融工程组实习生,工作地点为深圳、上海、北京,要求线下实习 [1] - 实习时间要求每周至少3天,总时长不少于3个月,实习考核优秀者有留用机会 [1] - 岗位职责包括数据处理、分析、统计,协助完成量化投资课题研究 [2] - 岗位职责包括协助进行金融工程策略模型的开发与跟踪 [2] 候选人基本要求 - 专业要求为数学、统计、物理、计算机、信息工程等理工科或金融工程相关专业 [3] - 学历要求为硕士或博士在读,特别优秀的大四保研生亦可,要求非应届(2027年及之后毕业) [3] - 技能要求熟练掌握Python等编程语言,熟悉SQL数据库,具备优秀编程能力与规范 [3] - 能力要求包括责任心强、自我驱动,并具备良好的信息搜集、逻辑思维、分析判断及沟通表达能力 [3] 候选人优先考虑项 - 具备扎实的金融市场基础知识,熟悉股票、债券、期货、指数及基金等核心概念 [4] - 数学基础好,有科研项目经历及SCI或EI收录的学术论文 [4] - 熟悉Wind、Bloomberg、天软等金融终端 [4] - 熟悉机器学习、深度学习,熟悉PyTorch、Linux,有GPU服务器使用及项目开发经验 [4] - 有其他机构量化投研相关实习经历 [4] 申请流程与方式 - 简历投递截止日期为2025年12月31日 [1] - 简历需投递至指定邮箱,邮件标题需按“【金融工程组】-【姓名】-【毕业学校】-【专业】”格式命名 [5] - 简历需以PDF格式发送,未按要求命名的邮件将被视作垃圾邮件处理 [5] - 简历收集截止后,公司将尽快为合格候选人安排笔试和面试 [5]
十年磨一芯,谷歌做对了什么?
财联社· 2025-11-29 12:45
文章核心观点 - 谷歌TPU正从内部专用AI加速器走向外部市场,其生态优势与成本效益对英伟达GPU的霸主地位构成挑战 [3][8][9] 谷歌TPU的发展历程与战略演进 - 2013年谷歌启动TPU项目,源于深度学习算力需求激增,自研ASIC加速器可将深度神经网络推理的总体能效降至原来的十分之一 [5] - 项目进展迅速,仅15个月完成初代TPU设计到数据中心部署,2016年通过AlphaGo击败李世石首次破圈 [6] - 2017年Transformer架构的出现与TPU高度适配,推动TPU从单一AI加速芯片升级为谷歌AI基础设施底座,并免费开放1000台Cloud TPU巩固生态 [7] - 后续引入液冷技术、4096颗芯片超节点及自研环形拓扑网络,提升性能并应用于广告、搜索等核心盈利产品线 [7] - TPU v7支持训练出多模态模型Gemini 3,使谷歌成为AI算力市场重要竞争者 [8] TPU的技术架构与成本优势 - TPU采用极简"脉动阵列"架构,牺牲硬件通用性以最大化深度学习效率,设计理念紧扣成本优化 [8] - 项目起源可追溯至2006年,但当时GPU算力冗余未推进,体现"量体裁衣"的务实商业逻辑 [8] - TPU v6及后续版本目标成为"推理时代最省钱的商业引擎" [7] 市场影响与竞争格局 - 谷歌云内部高管预计TPU市场扩张可抢占英伟达年收入份额的10%,Meta拟斥资数十亿美元购买TPU [3] - 大摩预测2027年谷歌TPU外销量达100万颗,引发投资者对英伟达市场份额侵蚀的担忧 [3] - 英伟达紧急声明强调其产品比ASIC具备更高性能、通用性及可替代性 [3] - 谷歌通过"芯片-云-模型-应用"全栈AI能力构建生态护城河,形成垂直整合的差异化优势 [9]
谷歌AI往事:隐秘的二十年,与狂奔的365天
36氪· 2025-11-27 20:13
公司近期业绩与产品表现 - Gemini应用月活跃用户从上一季度的4.5亿大幅提升至6.5亿[2] - Gemini 3在各类主流基准上展现统治级表现,Nano Banana Pro模型将AI生图精度与想象力提升到新高度[2][43] - 公司进入罕见的产品加速期,接连发布视频模型Veo 3、虚拟世界生成模型Genie 3等“王炸”产品[43][44] 公司AI技术发展历史与积淀 - 公司二十多年间的AI投资贯穿现代深度学习绝大部分关键节点,从拉里·佩奇对“终极搜索引擎”的想象,到“猫论文”、DeepMind、TPU[4][6] - 在Transformer论文发表前十年,世界上几乎所有知名AI人才都曾在公司工作过[5] - 公司首次语言模型实验始于2000年左右,开发出拼写纠错功能,并进化出内部昵称为PHIL的概率语言模型[10][11] 关键技术突破与商业影响 - 2012年“猫论文”使用16000个CPU核心训练九层神经网络,通过无监督学习识别YouTube视频中的猫,证明无监督学习可行性[14][15] - “猫论文”技术催生推荐系统机制,被应用于YouTube并奠定其全球最大视频平台基础,后续被Facebook、Instagram、字节跳动效仿,创造数千亿美元收入[15][17] - 公司开发出Transformer架构,其模型彻底碾压基于LSTM的谷歌翻译方案,证明模型规模越大效果越好[34] 重要收购与人才战略 - 2014年以5.5亿美元收购DeepMind,获得最豪华AI研究团队,但收购间接导致OpenAI、Anthropic、xAI等公司诞生[22][23][24] - 收购DeepMind后,公司向英伟达订购4万块GPU,订单价值1.3亿美元,后继续花费数亿美元购买GPU[25][27] - 为应对ChatGPT威胁,公司将Google Brain和DeepMind合并为Google DeepMind,并召回谢尔盖·布林等顶级人才参与Gemini项目[42] 自研芯片与基础设施 - 为解决GPU成本过高和算力不足问题,公司自研TPU芯片,专门针对神经网络矩阵乘法进行优化,效率远高于当时GPU[28][29][30] - TPU通过降低计算精度提高效率,避免公司向英伟达支付高额溢价(英伟达GPU系统毛利率高达75%至80%)[31] - 自研TPU使公司建立规模几乎与英伟达相当的芯片研发体系,服务于自身和谷歌云客户[30] 战略误判与危机应对 - 公司早期已开发出与ChatGPT接近的聊天机器人Mina,但因失控风险、收入模式冲突和法律风险未发布[36][37] - ChatGPT的出现使公司意识到AI从持续性创新转变为颠覆性创新,对构成生存威胁,内部发布红色警报[41][42] - 公司决定结束多模型并存局面,集中资源打造多模态旗舰模型Gemini,并于2023年5月宣布计划后,同年12月发布公共测试版本[42][43]
微软系 40 大 AI 科学家,为何钟情雷峰网的 GAIR 大会?
雷峰网· 2025-11-27 18:05
GAIR大会与微软系科学家的历史渊源 - 1998年张亚勤与李开复联合创办微软中国研究院,被称为中国人工智能的黄埔军校[5] - 2016年首届GAIR大会在深圳举办,由CCF和雷峰网主办,旨在促进学术界、产业界、投资界融合[7][8] - 七年来GAIR已成为微软系科学家的AI第二故乡,累计有40多名来自微软全球各地的科学家参与[9] 历届GAIR大会的重要里程碑 - 2018年第三届GAIR上微软系马毅、孙剑探讨深度学习的痼疾[9] - 2019年第四届GAIR上张正友、周明分别作为CVPR、ACL大会主席探讨人工智能多学科大一统[9] - 2020年第五届GAIR设立纪念Thomas Huang专场,沈向洋、颜水成、田奇等参与追忆[9] - 2023年第七届GAIR成为国内首个走向海外的AI产学融合顶会,黄学东院士离开微软后首秀[9] - 2025年12月将举办第八届GAIR全球人工智能与机器人大会[10] 微软系顶尖科学家的职业发展轨迹 - 沈向洋从微软全球执行副总裁转任IDEA理事长、香港科技大学校董会主席[14] - 黄学东从微软云与人工智能部首席AI技术官加入Zoom担任CTO[17] - 张宏江从微软亚太研发集团CTO转任北京智源人工智能研究院理事长[20] - 周明从微软亚洲研究院副院长孵化出澜舟科技,推出轻量化模型"孟子"[36] - 马维英从微软亚洲研究院常务副院长加入字节跳动,后转入张亚勤清华AIR团队[40] - 何晓冬从微软雷德蒙德研究院负责人转任京东集团高级副总裁、大模型负责人[46] 科学家在GAIR大会的技术分享重点 - 杨强在2016、2019、2020年分别分享人工智能成功条件、联邦学习发展及应用[22][23] - 孙剑在2017-2019年连续三届分享Face++研发方向、云端芯视觉计算、深度学习变革[50] - 颜水成在2017、2020年探讨深度学习精度极限与用户体验、芯片能与新基建[56] - 梅涛在2017-2021年分享视频内容生命周期、智能供应链机器视觉、感知到认知计算[60] - 郑宇在2019年演讲用大数据和AI打造智能城市[58] 科学家在产业界的技术影响力 - 张正友现任腾讯首席科学家,曾在GAIR分享计算机视觉三生三世[32] - 芮勇现任联想集团CTO,曾在GAIR分享计算机视觉从感知到认知的长征[34] - 赵峰现任清华大学AIR首席科学家,曾在GAIR分享IoT+AI赋能智慧家庭[42] - 华先胜曾任阿里巴巴副总裁,现任特斯联CTO,专注城市大脑视觉智能[54] - 余凯从百度研究院副院长创办地平线,在GAIR分享中国AI真实现状[72]
2025航空行业报告:360亿方智能航空AI白皮书
搜狐财经· 2025-11-22 13:11
深度学习与大语言模型专利格局 - 深度学习技术自2011年成型以来,已累计产生超过31万个专利族,其专利申请增速从早期的近50%放缓至2019-2023年的复合年增长率16% [2] - 2023年中国贡献了全球80%的深度学习专利申请,但在国际专利族指标上,中国占比40%,美国占比35%,显示出美国更强的全球布局意识 [2] - 大语言模型专利自2020-2021年起快速涌现,目前已积累约6,000个专利族,2022年ChatGPT的发布推动专利活动进入指数增长阶段 [4] 主要国家与企业竞争态势 - 百度以6,751个深度学习专利族位居全球第一,腾讯、平安科技、国家电网等中国企业位列前十,而美国企业如谷歌、微软、IBM、英伟达在国际专利族数量上优势明显 [3] - 大语言模型领域的创新主要由产业界推动,学术机构占比仅为21%,谷歌、百度、腾讯、微软、阿里巴巴五家企业几乎主导了整个领域的专利布局 [4] - 美国呈现多元化且去中心化的创新格局,而中国形成由百度主导、顶尖高校支持的集中式生态系统 [17] 技术应用与商业化趋势 - 大语言模型十大应用领域中,内容生成、聊天机器人、医疗健康、法律应用与情感分析位居前列,医疗领域在疾病诊断、药物研发与个性化医疗方面展现出突破潜力 [5] - 谷歌、百度、微软、腾讯和阿里巴巴在绝大多数应用类别中均处于专利申请领先地位,展现出全面的技术生态战略 [5][18] - 深度学习技术从“幻灭低谷期”跃升至“生产力成熟期”,大语言模型驱动的生成式人工智能从“创新触发阶段”发展到“期望膨胀期”的后期阶段 [20][22] 未来发展与战略影响 - 专利布局已成为企业构建技术壁垒、抢占市场先机的核心手段,中美两国在基础研究、产业应用与国际扩展方面的差异化策略将持续影响全球AI创新格局 [6] - 随着计算效率提升与数据质量优化,大语言模型正迅速适应市场需求,并在金融、教育、网络安全等多个行业中发挥变革性作用 [18] - 大语言模型通过包含数十亿甚至数万亿参数的庞大数据集训练,正在重新定义数据处理的边界 [23]
图灵奖得主竟「忘了提及」中国学者成果?马库斯重锤Yann LeCun
36氪· 2025-11-19 19:19
核心观点 - 文章围绕Yann LeCun可能离开Meta以及其与Gary Marcus的学术争议展开,核心是AI领域关于技术路线(LLM vs 世界模型)和学术贡献(CNN发明权)的激烈辩论 [1][5][6][8] Yann LeCun的观点与立场 - Yann LeCun是图灵奖得主,Meta首席AI科学家,但公开反对大语言模型,认为LLM是死胡同,未来3到5年会被淘汰,其智商不如猫 [1][29][31] - 主张发展“世界模型”,该模型通过观察视觉信息来理解世界,类似于人类婴儿的学习方式 [31][32] - 在Meta内部被边缘化,其领导的FAIR实验室面临裁员和资源缩减,28岁的Alexandr Wang被提拔为其上司 [40][41][43][45] - 计划离开Meta并创立新公司,专注于开发“世界模型” [26][31][47] Gary Marcus的批评与指控 - Gary Marcus是认知科学家,深度学习的长期批判者,认为LLM存在幻觉问题,无法真正理解,且难以通向AGI [6][8] - 指控Yann LeCun的学术成就存在包装和剽窃,并非CNN的发明者 [5][9][10] - 指出CNN的基础工作由日本学者福岛邦彦在1979年完成,中国学者张伟等人在1988年早于LeCun将反向传播应用于CNN训练 [11][21][22][23] - 批评LeCun在LLM问题上的立场转变,指其在ChatGPT成功前曾赞扬LLM,之后才转变为反对者,是见风使舵 [23][24] - 认为“世界模型”概念并非创新,早在1950年代由赫伯特·西蒙等人提出,LeCun是旧概念新包装 [26][27] 学术争议背景 - Jürgen Schmidhuber是另一位长期指控深度学习巨头抄袭成果的研究者,并专门撰文质疑2018年图灵奖的颁发 [14][16][19] - Schmidhuber指出张伟等人于1988年以日文发表、1989年4月提交期刊的CNN研究,早于LeCun1989年7月发表的英文论文 [21][22][23] - 争议焦点在于LeCun通过英文论文在知名平台发表,但未充分引用前辈工作,被指责系统性抹杀同行贡献 [23][28]
字节将中国电商、生活服务、中国广告工程技术团队整合为“中国交易与广告”部门
每日经济新闻· 2025-11-18 16:23
公司组织架构调整 - 字节跳动于11月17日将中国电商、生活服务和中国广告的工程技术团队整合,成立“产品研发与工程架构-中国交易与广告”部门 [1] - 此次调整仅涉及工程技术团队,旨在加强广告与交易业务的研发建设,提升研发效率 [1] - 新成立的中国交易与广告部门由抖音生服技术负责人王奉坤负责 [1] 业务与技术整合 - 中国交易与广告部门将基于个性化推荐、深度学习和大模型技术,依托抖音、今日头条、西瓜视频、番茄小说等多元产品 [1] - 该部门的核心任务是构建抖音电商、生活服务、广告营销等核心营收业务的算法策略和工程架构 [1]
Nature全新子刊上线首篇论文,来自华人团队,AI加持的可穿戴传感器,突破手势识别最后难关
生物世界· 2025-11-18 12:05
技术突破概述 - 加州大学圣地亚哥分校团队开发出基于深度学习的抗运动干扰人机交互界面 即使在剧烈运动环境下也能实现精准手势识别和机械臂控制[3] - 该研究发表于Nature新子刊Nature Sensors 是该期刊首篇论文[3] 运动干扰挑战 - 传统可穿戴惯性测量单元(IMU)在真实世界应用中受到运动伪影严重干扰 可能来自行走、跑步或交通工具振动[7] - 运动干扰可能与手势信号频率相似或幅度更大 从而淹没手势信号 且在不同个体间存在差异[7] 传感器系统设计 - 传感器系统集成六通道IMU、肌电信号(EMG)模块、蓝牙微控制器单元和可拉伸电池 尺寸仅为1.8×4.5 cm² 厚度2毫米 拉伸性超过20%[9] - 采用四层设计:第一层电池经过60次充放电循环后仍保持约25mAh容量 库仑效率接近100% 第二层包含EMG信号采集模块 使用三层电极结构[9] - 第三层集成IMU和蓝牙单元 蓝牙信号在20米距离内保持稳定 连续运行30分钟最高温度仅27.7°C 佩戴1小时皮肤温度稳定在34.5°C[9] 深度学习算法性能 - 基于LeNet-5的卷积神经网络(CNN)在复合数据集测试中表现最佳 召回率大于0.92 精确度大于0.93 F1分数大于0.94 特异性大于0.99[12] - CNN架构包含三个卷积层、三个最大池化层和三个全连接层 训练准确度收敛至接近1 损失接近0 确认无过拟合问题[12] 个性化迁移学习 - 应用基于参数的迁移学习增强模型泛化能力 仅需每个手势2个样本(坐姿和躺姿各一个)即可将19种手势最小识别准确度从51%提升至92%以上[14] - 数据收集时间从约2分钟大幅减少到约6秒 学习率从0.01调整至0.001进行微调[14] 实时控制性能 - 采用滑动窗口机制(窗口长度1秒 滑动步长0.25秒)实现连续手势识别 蓝牙传输延迟约1毫秒 CNN模型预测时间约1毫秒[16] - 机械臂在接收到三个连续相同预测(约3毫秒)后275毫秒内响应执行动作 在跑步机运动场景下仍能精确控制[16][18] 水下应用拓展 - 系统经Scripps海洋-大气研究模拟器训练后 在叠加海浪干扰的IMU信号测试中召回率、精确度、特异性和F1分数均接近1[20] - 海水环境可降低电极-皮肤阻抗 增强EMG信号质量 已成功应用于潜水员控制水下机器人进行目标跟踪、海洋数据收集等任务[20]
文本转语音技术行业研究报告(附行业政策、产业链全景分析、竞争格局及发展趋势预测)
搜狐财经· 2025-11-18 11:37
行业定义与核心价值 - 文本转语音技术是一种将文字内容转换为自然流畅语音信号的技术,其核心价值在于打破信息传递的媒介限制,实现人机交互 [10] - 技术工作原理涵盖文本预处理、波形培育等关键环节 [11] 市场规模与发展现状 - 2024年中国文本转语音技术行业市场规模达到187.6亿元,同比增长22.77% [4][7][12] - 技术已从早期机械模拟演进为能生成接近人类水平自然度的智能系统,在语音助手、有声读物、无障碍辅助等传统领域及虚拟主播、个性化语音定制等新兴场景中应用广泛 [4][7][12] 产业链结构 - 产业链上游为核心硬件、算法框架与基础设施支持 [6][10] - 产业链中游为技术核心环节 [6][10] - 产业链下游应用领域包括教育、金融、医疗、媒体等 [6][10] 下游应用深化 - 网络视听行业是重要下游应用领域,2024年中国网络视听用户规模达10.91亿人,同比增长1.58% [6] - 网络视听内容创作者利用文本转语音技术生成语音解说,与视频结合制作高质量多媒体内容 [6] 企业竞争格局 - 行业呈现“国际技术引领,国内场景深耕”格局,国际企业如Google、微软凭借技术领先性占据高端市场 [7] - 国内主要企业包括科大讯飞、百度、云知声、腾讯、网易有道等,在中文场景和垂直应用中具备优势 [7][15] - 未来竞争将围绕边缘计算部署、多模态交互及伦理安全技术展开 [7] 未来技术趋势 - 大模型与深度学习深度融合将推动技术从“能发声”向“会表达”跨越,聚焦拟人化质感与长场景适配能力升级 [8] - 多模态融合成为核心发展路径,与文本、图像、视频生成等技术协同构建全链路内容生产生态 [8] - 政策监管与行业自律将持续加强,推动市场向规范化、标准化发展 [8]
从印度二本到Meta副总裁,被世界拒绝15次的他,撑起AI时代地基
36氪· 2025-11-17 12:20
PyTorch发展历程 - 2017年正式开源,其前身Torch7曾因无人使用且看不到收益而多次面临被管理层砍掉的危机[8][9] - 开源一年内被全球顶尖实验室采用,成为深度学习研究主流工具,论文数量爆炸式增长[10] - 到2021年,PyTorch在谷歌上的搜索量反超TensorFlow,达到其1.8倍[17] - 2018年Facebook宣布推出PyTorch 1.0,标志其从研究工具升级为可支撑生产级别部署的工业级框架[19] 行业影响与市场地位 - 在NeurIPS、ICML、CVPR等顶级学术会议上,超过70%的论文选择PyTorch作为实现框架[19] - Hugging Face平台显示PyTorch已成为AI研究者最常用框架,TensorFlow市场份额快速缩小[21] - OpenAI的GPT系列、Stability的生成模型、Anthropic的Claude等顶级AI模型均依赖PyTorch生态[26] - 社区从几十人扩展到全球数十万开发者,渗透至课堂、课程和科研机构[21] 产品技术优势 - 采用更灵活架构和更友好接口,让研究者能够边写边改并实时调整实验模型[17] - 相比TensorFlow更注重灵活性和直觉性,使机器学习过程更具创作自由[17] - 开源特性使其成为"所有人都能用、所有人都能改"的框架[28] 团队与领导背景 - 创始人Soumith Chintala出身印度普通家庭,曾被美国12所大学拒绝,DeepMind拒绝其三次[1][4] - 以J-1签证赴美后从亚马逊测试工程师起步,后加入Facebook AI Research担任L4级工程师[4][5] - 在FAIR工作期间通过解决ImageNet任务中的数值与超参数错误展现技术能力[5] - 最终晋升为Meta副总裁,成为AI社区最受尊敬的工程师之一[10][23]