大语言模型
搜索文档
NeurIPS 2025|CAKE:大模型驱动的贝叶斯优化新配方,让黑箱优化更智能、更高效
机器之心· 2025-12-02 14:47
核心技术创新 - 提出名为Context-Aware Kernel Evolution (CAKE)的新方法,利用大语言模型的推理与生成能力,在贝叶斯优化过程中自动、动态地设计最优的高斯过程核函数[5][6] - 该方法将核函数设计问题重新构想为一个"进化过程",LLM作为生成新核函数的引擎,执行交叉和变异两类遗传操作,并根据贝叶斯信息准则评估性能[15][17][19] - 提出BIC-Acquisition Kernel Ranking (BAKER)方法,通过加权平衡模型拟合度和采样潜力两个指标对核函数进行排序,在优化代理模型与实际推进最优解之间取得稳健平衡[21][22] 技术性能优势 - 在超参数优化任务中,CAKE在60个HPO任务上所有测试的ML模型中均取得最高最终准确率,在优化早期(如前25%预算内)能迅速收敛到高性能区域[27] - 在控制器调优任务中,CAKE显著优于所有基线,能更快收敛至高回报控制策略,在月球着陆任务中是少数能成功达到200分目标分数的BO方法之一[28] - 在光子芯片设计的多目标优化中,CAKE使用预期的超体积改进作为获取函数,求得高质量解的速度提升近十倍,大幅节省设计时间与成本[29][32] 方法比较验证 - 与三大类基线方法比较:固定核(SE或M5)、自适应核(随机选择、按获取函数值选择或按BIC选择)、组合与高级方法(深度高斯过程、高斯过程集成等)[25][26] - 消融研究证实CAKE和BAKER两个组件的必要性,完整模型效果远超CKS + BAKER(证明LLM优于传统搜索)和CAKE + BIC(证明BAKER平衡策略优于单独BIC)[35] - 实验证明LLM作为遗传算子能更迅速引导核函数种群朝更高适应度方向进化,与随机重组或传统遗传算法相比,适应度分布曲线能更快向高分区域移动[31] 计算成本分析 - 使用LLM会增加每次迭代的"墙上时钟时间"至8.3秒,而固定核方法仅需0.6秒,自适应方法需3.7秒[40] - 在贝叶斯优化典型应用场景(如药物研发、芯片设计)中,函数评估成本(数小时或数天)远高于LLM推理成本(秒级),CAKE通过减少函数评估次数总体上极大节约优化总成本[39] - 性能随着LLM能力提升而提升,使用gemini-2.0-flash在LR、SVM、RF、XGB、MLP任务上分别达到0.8253、0.8720、0.9056、0.9310、0.8780准确率,证明框架具有良好的"未来兼容性"[41] 应用前景拓展 - CAKE标志着AI for Science范式下的一次根本性跃迁,将大语言模型角色从文本生成工具提升为参与算法级结构设计的智能协作者[42] - 未来计划扩展CAKE框架,引入更具通用性的核函数语法,并将其核心思想推广至其他基于核方法的机器学习任务,如支持向量机、核主成分分析以及度量学习等[42] - 这项工作为构建更加自主、可解释且持续进化的智能优化系统开辟新路径,有望成为推动自动化实验室与加速科学发现进程的关键技术之一[42]
深演智能冲刺港股:2024年净利骤降64.6% 2025年上半年客户集中度飙至70.2%
新浪财经· 2025-12-02 08:26
主营业务结构 - 公司核心业务为智能广告投放与智能数据管理,2025年新增AI智能体系统Deep Agent [1] - 业务结构严重失衡,智能广告投放业务收入占比从2022年的82.1%持续攀升至2025年上半年的93.3%,而智能数据管理业务占比从17.9%萎缩至6.7% [1] - 新增的Deep Agent系统尚未产生实质收入,无法缓解业务单一化风险 [2] 财务表现与盈利能力 - 公司营收波动,2024年营收为5.38亿元人民币,同比下滑12.0% [3] - 净利润剧烈波动,2024年净利润为2150万元人民币,较2023年的6070万元骤降64.6% [3] - 2025年上半年净利润为360万元人民币,同比增长134.3%,但主要因2024年同期基数仅153.6万元,盈利质量堪忧 [3] - 盈利能力持续恶化,综合毛利率从2022年的30.9%降至2025年上半年的27.1% [4] - 净利率显著下降,从2022年的10.9%降至2025年上半年的1.3% [4] 客户与供应商集中度 - 客户集中度问题恶化,2025年上半年,前五大客户收入占比飙升至70.2%,创历史新高,其中第一大客户收入占比达23.9% [5] - 供应商集中度同样高企,2025年上半年,前五大供应商采购额占比升至38.6% [6][7] - 媒体资源采购渠道单一,若主要供应商调整合作条款或提高价格,将直接影响公司成本 [7] 成本结构与议价能力 - 智能广告投放业务高度依赖媒体资源采购,2025年上半年媒体资源采购成本占销售成本比例高达87.1% [2] - 公司对上游媒体代理商议价能力受限,成本控制能力薄弱 [2] - 2024年毛利率下降,主要因媒体资源采购成本下降幅度(12.8%)不及收入降幅(12.0%) [4] 研发投入与行业竞争力 - 2024年公司研发投入占比为10.5%,低于行业平均水平的15% [8] - 2024年公司人均研发费用为18万元人民币,不足头部企业(如百度营销、阿里妈妈)的一半 [8] - 公司2024年毛利率27.3%低于行业均值35%,净利率4.0%显著低于同行平均8% [8] - 公司核心技术仍依赖传统机器学习模型,生成式AI布局滞后,2025年推出的Deep Agent尚未贡献收入 [8][10] 市场份额与行业环境 - 中国营销决策AI市场参与者超百家,百度、阿里等科技巨头凭借技术和资源优势加速布局 [9] - 深演智能2024年市场份额仅2.6%,在巨头挤压下,生存空间持续收窄 [9] - 行业价格战愈演愈烈,技术迭代速度难以匹配行业36.5%的复合增长率 [9][10] 数据合规与现金流 - 2025年《网络数据安全管理条例》实施后,数据合规成本显著增加 [11] - 公司存在因历史数据处理不合规而面临监管处罚的风险 [11] - 2024年经营活动现金流净额为4210万元人民币,同比下降26.2% [12] - 2024年应收账款周转天数为159天,较2023年延长17天,显著高于应付账款周转天数64天,营运资金占用持续增加 [12] 公司治理与股权结构 - 实控人黄晓南与谢鹏通过一致行动协议合计控制公司35.73%股权,为共同控股股东 [13] - 股权集中可能导致决策过度依赖核心管理层 [13] - 2022年至2025年上半年,公司累计未足额缴纳社保及公积金达3390万元人民币 [14]
DeepSeek发布V3.2正式版
新京报· 2025-12-01 23:01
公司产品发布 - DeepSeek于12月1日晚间发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale [1] - DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常问答场景和通用Agent任务场景 [1] - 在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro [1] - 相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少了计算开销与用户等待时间 [1] 产品性能与定位 - DeepSeek-V3.2-Speciale的目标是将开源模型的推理能力推向极致,探索模型能力的边界 [1] - V3.2-Speciale是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力 [1] - 该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力 [1] - 在主流推理基准测试上的性能表现媲美Gemini-3.0-Pro [1]
OpenAI大溃败,GPT-5「换皮」GPT-4o,两年半预训练0突破
36氪· 2025-12-01 10:12
OpenAI研发进展与挑战 - 自2024年5月GPT-4o发布后,公司顶尖团队尚未完成一次为下一代前沿模型设计的大规模预训练[3][5] - 过去两年半时间,公司没有真正扩大预训练的规模[7] - 第五代旗舰模型GPT-5及GPT-5.1的技术根基可能仍未突破GPT-4o的范畴,而非基于全新前沿模型的大规模预训练[1][12][25] 具体项目遇挫详情 - 秘密项目Orion原定以GPT-5面世,但因训练未达预期被降级为GPT-4.5发布[11] - Orion大规模预训练时间超过3个月,打破行业通常1-2个月的常规,且性能提升主要局限在语言能力,代码能力甚至不如旧模型且成本更高[14][17] - GPT-4.5基于Orion模型,追求更强的语言能力、更稳的对话体验和更大知识库,情商成为关键词,代码虽有提升但并非主菜[17][18] 模型性能与行业对比 - GPT-5发布后业界反响唏嘘,被视为GPT-4.5的进一步优化版而非颠覆性飞跃[20] - 技术社区观点认为GPT-5更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和[34][35] - 相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力[36] - 根据基准测试数据,谷歌Gemini 3 Pro在多项指标上超越GPT-5.1,例如Humanity's Last Exam(37.5% vs 26.5%)、ARC-AGI-2(31.1% vs 17.6%)、MathArena Apex(23.4% vs 1.0%)等[31] 战略转向与内部调整 - 公司将更多精力转向推理模型,这种模型计算量更大但有望输出更优质回答[34] - 公司内部共识已从追求“统治一切”的超级模型转变为模型专业化和多样化,认可需要针对特定任务的专用模型[54] - 公司正打造代号为“Shallotpeat”的新一代大语言模型,专门修复预训练过程中遇到的种种疑难杂症[46][50] - 公司重点发展智能体开发工具“Agent Builder”,将智能体划分为探索型/非定向工作和流程型/SOP导向工作两类[60][62] 竞争对手动态与行业影响 - 谷歌在预训练领域取得新突破,给Gemini 3带来空前推理深度,而谷歌和Anthropic仍在扩大预训练并增强强化学习[25][31] - 公司内部备忘录承认谷歌在大语言模型特别是预训练方面表现出色,承认竞争对手重新崛起和企业需求降温打破了其无敌光环[27][29] - 公司计划在圣诞节前夕发布一系列新模型,包括Image Gen v2、IMO和IOI金牌多模态模型、GPT-5.2 Codex等[72][73]
证券研究报告、晨会聚焦:金工吴先兴:12月A股指数调样会带来哪些投资机会-20251130
中泰证券· 2025-11-30 20:54
报告核心观点 - 12月A股指数样本调整将带来显著投资机会,重点关注调入指数且冲击系数大的个股以及流动性变化[3][4] - 大语言模型可量化解析基金经理季报文字观点,构建的投资策略年化收益率超过20%[3] - 电影行业进入高质量驱动阶段,全年票房预计突破500亿元,行业盈利质量提升[6][7] - 商业不动产REITs试点启动,公募REITs市场进入双轮驱动新阶段,潜在规模达8000-15000亿元[8][9][10] 金融工程研究总结 - 基于大语言模型对基金季报展望文字进行语义解析,构建"观点跟随"策略,行业组合及占优风格年化收益率超过20%[3] - 12月指数调样涉及65个跟踪规模50亿元以上的指数,塔牌集团、江中药业、正邦科技等31只股票正向冲击系数超2[4] - 光启技术和中天科技超预期调入沪深300指数,可重点关注调入机会[4] - 中际旭创和新易盛因权重约束被动下调权重,测算约63亿元资金减仓中际旭创,27亿元减仓新易盛,冲击系数分别为-0.36和-0.20,流动性充足下负面冲击有限[4] 传媒互联网研究总结 - 电影市场恢复增长,预计全年总票房突破500亿元,《哪吒之魔童闹海》引领增长,光线传媒、上海电影等头部内容方显现收入弹性[6] - 单银幕收入探底回调,30岁以上观众占比首次突破50%,三线及以下城市票房占比超40%,非票经济和IP开发拓宽变现路径[6] - 行业进入高质量驱动阶段,TOP15影片中剧情类型票房贡献率连续5年保持48%-68%,引进片供给快速恢复[7] - 监管政策释放积极信号,十五五规划有望解决行业痛点,推动电影强国建设[7] 地产行业研究总结 - 商业不动产REITs试点启动,涵盖商业综合体、写字楼等资产,需满足权属清晰、合规手续齐备、持续稳定现金流条件[8] - 商业REITs有助于盘活40-50万亿元商业地产存量,参考美国4.8%的REITs化率,保守测算潜在规模8000-15000亿元[9][10] - 当前REITs市场共有77只产品上市,总募集资金超2000亿元,总市值约2200亿元,商业REITs将完善产品生态,吸引保险资金等长期资金[11]
泰国孔敬大学孔子学院积极对接中文水平考试3.0标准
人民网-国际频道 原创稿· 2025-11-30 12:01
公司动态 - 泰国孔敬大学孔子学院于11月26日举行新学年汉语通选课开班仪式,吸引了大量泰国学员注册选课 [1] - 学院构建了覆盖汉语核心能力的四类课程体系,包括综合汉语课、汉语听说课、汉字读写与中国文化常识课程,形成层次清晰、衔接紧密的学习路径 [2] - 学院持续推进综合汉语课(1—4级)的课程升级与教材研发工作,2025年4月开发的101综合课程教学资源实现了“学生用书、教师手册、配套课件”三位一体教学资源包的编制 [2] - 升级后的101综合汉语课获得学生广泛认可 [2] - 学院自2025年3月起启动汉语通选课程与HSK3.0版标准的对接与研发工作,目前已完成一级课程体系的更新,更高阶段的教材及课件编写工作正在推进中 [3] - 编写团队将结合泰国学生学习特点优化教学策略,预计2027年前完成HSK3.0版一至三级课程体系的全面覆盖 [3] 行业标准与产品 - 汉语通选课的开班是学院对接中文水平考试(HSK)3.0版标准的具体实践 [1] - 中国中文水平考试3.0版标准于2025年11月18日正式发布实施,是国际中文教育领域的重要变革 [1] - HSK3.0版标准对标《国际中文教育中文水平等级标准》,调整了HSK词汇、语法、话题、任务大纲,并增加了汉字大纲 [1] - 学院教学团队在《国际中文教育中文水平等级标准》框架下,以HSK2.0版考试大纲为参照,依托HSK3.0版一级试考试卷和听力语料,系统梳理词汇和语法点 [2] - 团队将前期形成的词汇表和语法项目与新版考试大纲逐条对照,显示全部纳入新大纲规定范围,课程设计与新标准要求高度契合 [2]
美银回应谷歌TPU抢英伟达GPU生意:份额肯定会降,但不是瞬间发生
智通财经· 2025-11-28 20:57
AI加速器市场竞争格局 - 谷歌TPU知名度迅速提升,引发“谷歌干翻英伟达”的市场讨论,迫使英伟达回应其GPU依然领先 [1] - 英伟达当前在AI加速器市场份额超过85%,预计将逐步回落至75%左右的常态化水平 [2][6] - 市场份额变化将逐步发生,短期内因供应链紧张及英伟达的规模优势,竞争对手难以快速抢占大量份额 [2][7] 英伟达的竞争优势与挑战 - 公司商用GPU具备现货供应便捷、支持多云部署、拥有完整软件生态和广泛开发者群体等优势 [7] - 业务覆盖无法自主研发定制芯片的主权基金及企业本地部署客户,目标市场范围更广 [7] - 面临的挑战包括更多客户将开发定制芯片以适配多样化的训练和推理任务,导致份额回落 [6] - 谷歌或于2026年向Meta出租TPU,若消息属实将加剧Meta现有GPU供应商的竞争压力 [4] 大语言模型竞争态势 - AI行业近期动作频频,谷歌、Anthropic等公司相继发布新模型,OpenAI、xAI等预计在未来数月推出竞品 [4] - 大型语言模型的竞争被视作一场长期马拉松,当前市场格局不代表未来份额走向 [4] - 谷歌近十年来研发定制化TPU,其Gemini 2和Gemini 3模型的训练“100%依赖TPU” [4] 定制芯片与GPU的应用场景 - 定制芯片虽能降低谷歌、Meta等内部工作量巨大客户的特定任务成本,但适用场景有限 [7] - 在微软Azure、亚马逊AWS等公共云及百余家新兴云厂商中,定制芯片实用性较低,因这些场景对灵活性要求极高 [7] - 谷歌公共云业务主要使用英伟达GPU,反映出GPU在公共云场景下的灵活性优势 [4][7] 美银投资评级与目标价 - 美银维持对英伟达、博通、AMD的“买入”投资评级 [2] - 超微公司目标价为300美元,基于2027财年非公认会计准则EPS的32倍市盈率 [9] - 博通公司目标价为400美元,基于2026财年37倍市盈率 [10] - 英伟达公司目标价为275美元,基于2027财年剔除现金后的28倍市盈率 [11]
百融云创旗下助贷屡被投诉36%利率 回应称合同合规
中国经济网· 2025-11-28 14:13
公司财务表现 - 2024年实现总营收29.29亿元,同比增长9% [4] - 模型即服务(MaaS)营收9.32亿元,同比增长5% [4] - 业务即服务(BaaS)营收19.97亿元,同比增长12% [4] - 年内净利润2.66亿元,同比下滑21% [4] - 净利润率从13%降至9% [4] - 截至2024年中旬的六个月内,助贷服务收入超过8亿元 [1] 公司业务与投诉情况 - 公司定位为人工智能技术服务公司,应用大语言模型、自然语言处理等科技 [3] - 通过模型即服务(MaaS)及业务即服务(BaaS)模式提供服务 [3] - 旗下拥有智能金融综合服务平台“榕树贷款”和“钱小乐” [1][3] - 平台被投诉存在“借款7500元,综合年化利率35.95%”及“宣传利率4.02%,实际费率35.99%”等情况 [1] - 公司回应称未接到借款息费率达到36%的投诉,贷款合同合规,对平台投诉不掌握具体情况 [1] 行业监管环境 - 监管要求商业银行在助贷业务合作协议中明确平台及增信服务费用标准,并将增信服务费计入借款人综合融资成本 [2] - 规定平台运营机构不得以任何形式向借款人收取息费,增信服务机构不得以咨询费等名义变相提高费率 [2] - 商业银行需开展差异化风险定价,确保综合融资成本符合相关规定,不得笼统以成本区间上限定价 [2] - 司法意见支持金融借款合同借款人请求对总计超过年利率24%的部分予以调减 [3] - 司法意见旨在严格依法规制高利贷,有效降低实体经济融资成本 [3]
腾讯广告算法大赛圆满结束,多位选手现场获得腾讯Offer意向书
搜狐财经· 2025-11-28 12:16
赛事概况 - 2025腾讯算法大赛决赛于11月26-27日在深圳腾讯全球总部成功举办,赛事历时5个多月,全球超过2800支队伍参与,最终20支队伍进入决赛 [1] - 冠军队伍“Echoch”成员来自华中科技大学、北京大学、中国科学技术大学,亚军“leejt”队和季军“也许明天”队成员分别来自中山大学和香港大学 [1] - 前三甲队伍均获得腾讯的offer意向书及奖金,大赛另设20万元人民币的技术创新奖授予中国科学院计算技术研究所的队伍 [1] 赛事规模与影响力 - 本届大赛吸引全球近30个国家超过8400人报名,海外报名人数创历史新高,赛事奖金池达360万元人民币 [5] - 公司副总裁表示,超过8000人的报名是一个强烈信号,表明AI正吸引新一代年轻人,并印证了公司在技术生态上的凝聚力 [3] - 大赛为中国数据规模最大的全模态生成式推荐算法大赛,提供腾讯直通offer机会及真实广告业务场景实战机会 [5] 技术焦点与创新 - 赛题为“全模态生成式推荐”,选手在比赛中主动应用并创新升级LLM(大语言模型)、MLLM(多模态大语言模型)及推荐前沿技术 [3] - 决赛方案在生成式模型结构、多模态embedding应用及算法工程codesign等方面体现创新和突破 [3] - 该技术能综合运用各种形式的数据(全模态),采用生成式算法推荐个性化广告,对提升广告精准度和优化用户体验具有重要探索价值 [5] 业务应用与战略方向 - “全模态生成式推荐”是广告AI的发展方向,有助于广告系统优化推荐效率,提升广告转化率 [5] - 公司Q3财报中首次亮相“腾讯广告AIM+”智能投放产品矩阵,支持广告主自动配置定向、出价、版位及优化广告创意 [6] - 腾讯广告妙系列AI产品正逐步形成“陪伴—策略—内容—执行—优化”的Business Agent联动生态,并在实际业务中持续探索生成式推荐技术 [6] 产学结合与生态建设 - 大赛决赛评委由全球知名高校学者、技术专家及腾讯技术专家组成,赛后赛题数据集将开源以促进产学技术交流 [3][5] - 公司希望通过比赛让学界、业界结合,助力AI人才浮现,让技术创新想法有机会落地于业务并呈现真正价值 [3] - 经过长期深耕,腾讯广告已基于坚实的AI技术底座形成智能化营销体系,为商家降本增效、提升转化效果 [5]
亚马逊研究奖获奖名单出炉:王晋东等26位华人入选
机器之心· 2025-11-28 12:11
亚马逊研究奖2025年春季获奖概况 - 亚马逊研究奖最新一期共评选出63位获奖者,来自全球8个国家的41所大学,其中华人学者有26位,占比约41% [1][2] - 该奖项设立于2015年,为多学科研究提供资助,获奖者可访问700多个亚马逊公共数据集,使用AWS AI/ML服务与工具,并获得亚马逊专家的咨询支持 [2] AI信息安全领域 - AI信息安全方向有8位研究者获奖,其中包含3位华人学者 [3] - 加州大学欧文分校Zhou Li的研究课题为利用LLM在审计日志中实现精确且分析人员友好的攻击溯源 [4] - 弗吉尼亚大学Yu Meng的研究聚焦于弱监督RLHF,旨在建模人类偏好中的模糊性与不确定性 [5] - 东北大学Ziming Zhao的研究兴趣涵盖系统与软件安全、网络与Web安全 [6] 亚马逊广告研究方向 - 亚马逊广告研究方向共有两位获奖者,均为华人学者 [8] - 东北大学Xiaojing Liao的研究课题为理解大语言模型的攻击方式:可解释的漏洞检测与修复 [10][11] - 弗吉尼亚大学Tianhao Wang的研究方向包括差分隐私和机器学习隐私,重点在于设计实用算法 [14] AWS Agentic AI方向 - 智能体AI是亚马逊资助的热门方向,今年共有30位研究者获奖 [16] - 达特茅斯学院Cong Chen的研究目标是通过优化、经济学和AI方法推动全球能源转型,涉及面向能源用户的大语言模型 [17][19][23] - 慕尼黑工业大学Chunyang Chen的研究领域位于软件工程、人机交互与AI的交叉处,采用AI和LLM辅助自动化移动应用开发 [20][21][24] - 蒙特利尔大学Bang Liu深耕基础智能体研究,联合发起Foundation Agents开源组织,并构建材料科学大模型与智能体 [26][28][33] - 加州大学圣地亚哥分校Lianhui Qin的研究目标是构建在复杂环境中进行交互、推理与泛化的AI智能体 [30][34][35] - 威廉与玛丽学院Jindong Wang的研究兴趣涵盖机器学习、大型基础模型及面向社会科学的生成式AI,其成果曾应用于微软健康产品,减少15% token消耗 [36][38][42] - 加州大学圣地亚哥分校Xiaolong Wang的研究聚焦于利用数据中的结构学习视觉表示,特别是视频中的时空结构 [39][41][43] - 明尼苏达大学Zhi-Li Zhang的研究重点包括开发AI/ML算法以实现智能软件定义网络基础设施和边缘/云系统 [45] - 石溪大学Jiawei Zhou的研究聚焦于广义语言应用与生成式AI,致力于改进LLM和多模态模型的效率、知识增强、事实性等方面 [46][51] 在Trainium上构建 - Trainium是AWS开发的定制AI芯片系列,旨在以更低成本提供高性能的ML模型训练和推理,支持PyTorch和TensorFlow等流行框架 [48] - 该方向共有20名获奖者 [49] - 康奈尔大学Kuan Fang的研究课题为机器人感知与控制的多模态基础模型快速适应 [50][53][59] - Lieber研究所Shizhong Han的研究旨在结合多组学数据和深度学习技术揭示脑部疾病的遗传基础并开发新型治疗方法 [55][60] - 加州大学欧文分校Sitao Huang的研究兴趣包括高效硬件加速器、硬件系统的编程语言与综合流程 [58][61][79] - 加州大学默塞德分校Dong Li的研究聚焦高性能计算,并与大规模AI/ML系统密切相关 [63][68][78] - 不列颠哥伦比亚大学Xiaoxiao Li的研究集中在AI与医疗的交叉领域、通用人工智能的理论与技术 [66][69] - 早稻田大学Jiang Liu的研究兴趣包括无线通信与感知、无线网络系统 [67][70] - 加州大学默塞德分校Xiaoyi Lu的研究兴趣包括并行与分布式计算、高性能通信与I/O技术、深度学习 [72][78] - 普渡大学Xupeng Miao的研究课题为通过数据流感知优化实现大型基础模型的通信高效分布式训练 [73][74] - 明尼苏达大学Yanning Shen的研究兴趣包括机器学习、数据科学、网络科学 [76] - 加州大学伯克利分校Yun Song的研究方向为数学与计算生物学 [80] - 伊利诺伊大学厄巴纳-香槟分校Minjia Zhang的研究兴趣包括大规模深度学习与AI应用、高效算法及高效机器学习系统 [83][89] Think Big方向 - Think Big方向旨在资助通过变革性理念推进科学前沿的研究者,今年共有三位获奖者,其中一位为华人 [85] - 北卡罗来纳大学教堂山分校Tianlong Chen的研究课题为利用分子动力学赋能蛋白质AI模型 [86][88]