Workflow
Deep Learning
icon
搜索文档
MicroCloud Hologram Inc. Develops Quantum-Enhanced Deep Convolutional Neural Network Image 3D Reconstruction Technology
Prnewswire· 2025-12-18 23:30
SHENZHEN, China, Dec. 18, 2025 /PRNewswire/ -- MicroCloud Hologram Inc. (NASDAQ: HOLO), ("HOLO" or the "Company"), a technology service provider, innovatively launches a quantum-enhanced deep convolutional neural network image 3D reconstruction technology system. This system first utilizes quantum convolutional neural network to complete the feature extraction of input images, then generates the core parameters of the 3D model through quantum fully connected layers, and finally imports these parameters int ...
美国 IT 硬件-专家洞察:AI 数据中心需要多少内存-U.S. IT Hardware-Expert Insight How much memory do AI Data Centers need
2025-12-15 09:55
AI数据中心内存需求专家洞察电话会议纪要 涉及的行业与公司 * 行业:美国IT硬件、半导体、内存、存储、AI数据中心[1] * 提及的公司:Google、Grok、OpenAI、Anthropic、Amazon、NVIDIA、Cerebras、IBM、华为、DeepSeek[14][18][29][32][35][36] * 覆盖的上市公司:希捷科技(STX)、西部数据(WDC)、SanDisk(SNDK)、三星电子(005930.KS/005935.KS/SMSN.LI)、SK海力士(000660.KS)、美光科技(MU)、铠侠(285A.JP)[7] 核心观点与论据 AI训练与推理的内存需求差异 * AI训练对内存的需求远高于推理[2] * 训练需要存储大量数据,包括模型权重、激活值、梯度、优化器状态和频繁的检查点[2][15] * 推理只需存储临时张量和KV缓存以实现快速响应,内存需求低得多[2][15] * 以一个中等规模模型为例,训练消耗约1TB的合计内存,而推理需求则低得多[2] * 一个700亿参数的通用模型需要140GB存储权重,加上激活值等增加500GB,梯度再增加140GB,总计接近1TB[16] * 当前趋势是模型规模向万亿参数发展,例如Gemini 3.0、Kimi K2,规模是上述例子的10倍[16] 供需失衡与价格影响 * AI的快速普及导致内存需求和价格急剧上升,令超大规模云服务商措手不及[3][26] * 供需失衡推高了HBM和DRAM等关键组件的成本[3] * HBM4每堆栈的成本预计将比HBM3高出近50%[21] * 超大规模云服务商正在签署多年期HBM采购保证,为未来晶圆厂预付款,并进行垂直整合[29] * 需求远超供应,导致HBM、DRAM、SSD等价格全面上涨[21][29] 存储技术趋势:从HDD转向SSD * 由于HDD短缺,许多超大规模云服务商已转向SSD[4] * SSD比HDD贵5到10倍,但公司愿意承担更高成本以继续推进其模型[4][40] * 在某些用例中,SSD提供更优性能、更低的运营成本、更低的功耗和最小的冷却需求,从而降低总体拥有成本[4] * SSD具有更高的IOPS,无机械部件,冷却要求低,占用空间小[38][42] * 一个10年期的TCO案例研究显示:HDD总成本约为8000万至8500万美元,而SSD仅为3000万至4000万美元,SSD在电力、空间和维护成本上显著节省[46] 训练与推理的存储需求差异 * 训练对存储的需求极高,推理则相对较低[19][24] * 训练需要存储从TB到PB级的数据集,频繁的检查点需要大量写入,模型文件庞大,日志记录持续不断[24] * 训练对存储的总需求是推理的100到1000倍[24] * 最小模型(约70亿参数)的数据集为1到5TB,而Gemini 3.0、Claude 4.5、ChatGPT 5.0等最先进的多模态模型的整个训练需要1到5PB的存储[25] * 推理主要使用SSD进行快速模型加载,SATA SSD或HDD很少使用,因为推理需要快速服务和加载模型[25] TPU与GPU的对比 * TPU专为机器学习构建,架构针对大型深度学习任务优化,与GPU相比,具有更低的TCO、更高的每瓦性能以及卓越的可扩展性[4][49][51] * GPU拥有成熟的生态系统和更广泛的软件支持,尽管能效相对较低,但更适合快速原型设计和小规模项目[4][50] * TPU使用称为脉动阵列的专用设计,像工厂流水线,超级优化,在训练大批量作业时,TPU的能效和短时间扩展能力比GPU好2到3倍[51] * TPU使用VMEM(向量内存)在芯片上存储数据,使其超高速,并且每芯片容量要求更低,所需内存更少[53] * TPU未被广泛使用的主要原因是生态系统挑战和灵活性,用户基本上被锁定在GCP中使用[54][56] 新兴内存技术 * 高带宽闪存是一种新兴技术,旨在通过提供TB级的快速非易失性内存,来弥合传统DRAM和SSD存储之间的差距[5] * 这种新的内存层级有望降低能耗和冷却成本,同时为AI推理工作负载提供所需的高速,是下一代数据中心的有前景的解决方案[5] * SanDisk与SK海力士正在合作开发高带宽闪存,目标是为AI推理工作负载提供TB级内存,作为HBM和PCIe连接SSD之间的新快速访问内存层级[57] 中美AI发展对比 * 主要的前沿模型如Gemini、ChatGPT等均由美国公司开发,美国整体领先于中国[35] * 中国的模型(如华为盘古)参数规模接近1万亿,但基于评估,其性能未见超越美国模型[35] * 中国模型训练所使用的内存/硬件量显著低于OpenAI或Gemini[35] * 中国模型采用“蒸馏”等技术,并非从头训练,这使其更快、更高效,所需硬件/内存/训练时间更少[36] * DeepSeek是ChatGPT 4.0的蒸馏模型,这种创新技术有助于在内存供应瓶颈下保持竞争力[36] 行业创新与长期可持续性 * 行业创新,包括更高效的模型架构、先进的量化方法和新芯片的开发,预计将有助于长期管理内存需求并提高整体可持续性[3] * 更高效的模型架构、更激进的量化、新的内存技术、SSD或NAND缩放以及减少内存移动的加速器,将在未来2到5年内缓解压力[21] * 新模型并非全部从头训练,大量采用复用、蒸馏等技术,减少了从头训练的需求[16] * 超大规模云服务商正在采用量化来减少内存使用,采用以SRAM为中心的架构,重新构建推理以压缩缓存,并构建内存池数据中心[29] 其他重要内容 超大规模云服务商需求预测失误的原因 * 几年前发布ChatGPT-3、BARD时,公司并未完全意识到其产品的潜力,认为这只是机器学习的下一步[27] * 随着模型演进,他们意识到这些模型可以轻松获取信息并执行复杂任务,但最初对此没有洞察[27] * 2024年和2025年采用率增长如此之快,导致所有公司都在竞相构建最佳模型[27] * 2023年之前的所有规划都假设训练极其昂贵,推理便宜,可能只需要几个基础模型[28] * LLM在所有消费者应用中爆发,推理变为始终在线,集成到Gmail、Docs等应用中,需求激增[28][29] * 超大规模云服务商低估了AI尤其是内存受限方面的发展速度,现在他们正在为HBM、DRAM和SSD支付创纪录的价格[29] 推理内存需求的影响因素 * 推理的内存需求主要取决于模型在做什么,例如进行微调或添加LoRa权重适配器时,需要加载所有权重并分配内存[31] * 行业的一大趋势是在芯片上增加内存以实现更快的推理,例如Grok在LPU上使用SRAM,Google的Ironwood、Amazon的Trainium等新芯片都趋向于在推理时拥有更多片上内存[31] * 片上内存或推理所需的内存主要用于优化和加速过程,较少依赖于所执行的任务类型[31] 具体模型对比 * Gemini 3.0目前在所有推理、多模态、代理和其他基准任务上,相比5.1系列,在每一个用例和评估中都占据主导地位[33] * 性能更好的原因主要在于上下文窗口和模型训练方式,以及使用了另一种强化学习技术以获得更好的响应[33] HDD短缺对NAND需求的影响 * HDD短缺导致NAND闪存(主要用于SSD)使用增加[37] * HDD和NAND闪存都是非易失性数据存储的主要类型,基于成本、性能和容量以互补方式竞争[37] * HDD的供应链限制导致数据中心转向NAND闪存,用于数据中心的高容量模型[37] 投资建议 * 希捷科技(STX):跑赢大盘评级,目标价370美元[8] * 西部数据(WDC):与大市同步评级,目标价170美元[9] * SanDisk(SNDK):跑赢大盘评级,目标价300美元[10] * 三星电子:跑赢大盘评级,目标价130,000韩元[11] * SK海力士:跑赢大盘评级,目标价650,000韩元[11] * 美光科技(MU):跑赢大盘评级,目标价270美元[11] * 铠侠(KIOXIA):跑输大盘评级,目标价7,000日元[11]
Intellicule receives NIH grant to develop biomolecular modeling software
Globenewswire· 2025-12-11 01:01
WEST LAFAYETTE, Ind., Dec. 10, 2025 (GLOBE NEWSWIRE) -- Intellicule, a software company whose solutions determine the 3D structures of biomolecules imaged with cryogenic-electron microscopy (cryo-EM), has received a $217,941 Small Business Innovation Research (SBIR) Phase I grant from the National Institutes of Health.Daisuke Kihara, who leads Intellicule, said the grant will be used to develop software technology that could impact precision medicine.“It will have the potential to accelerate the development ...
Gorilla Announces Delivery of CVR Payment Notice
Newsfile· 2025-12-05 06:45
公司公告核心 - Gorilla Technology Group Inc 宣布将向A类或有价值权利持有人进行普通股分配 [1] CVR分配详情 - 2025年11月18日,公司股东放弃了587,747股盈利对价股份 [2] - 2025年12月4日,上述587,747股被确认为价格保护股份,每份合格CVR对应0.130382275股普通股 [2] - 持有人需在CVR付款通知送达后一年内成为合格CVR持有人,否则其分配的基础普通股将被视为放弃 [4] 成为合格CVR持有人的程序 - 持有人需向指定邮箱发送包含规定信息的通知以成为合格CVR持有人 [3] - 通知必须包含法律全名、邮寄地址、居住国、公民身份、美国纳税人识别号或社会安全号、签署并注明日期的美国国税局W-8或W-9表格、电子邮件地址、截至2025年12月4日持有的A类CVR数量,以及若通过经纪账户持有则需提供经纪公司名称和联系方式 [9] - 公司将以商业上合理的确定性判断通知是否有效,无效通知将被告知,但后续补充信息可使其被视为有效通知 [3] 公司业务概览 - 公司总部位于英国伦敦,是全球安全情报、网络情报、商业情报和物联网技术解决方案提供商 [5] - 公司利用人工智能和深度学习技术,为政府与公共服务、制造、电信、零售、运输与物流、医疗保健和教育等垂直领域提供智慧城市、网络、视频、安全融合和物联网等广泛解决方案 [5] - 公司专长于革新城市运营、加强安全及增强韧性,提供利用AI的智能视频监控、人脸识别、车牌识别、边缘计算、事后分析和先进网络安全技术等开创性产品 [6] - 公司通过整合这些AI驱动技术,赋能智慧城市提升效率、安全及网络安全措施,最终改善居民生活质量 [6]
Meta chief AI scientist Yann LeCun is leaving to create his own startup
CNBC· 2025-11-20 05:31
杨立昆离职与创业 - 杨立昆宣布将离开Meta并创办一家专注于“世界模型”AI技术的初创公司[1] - 新公司的目标是实现AI的下一次重大革命,开发能够理解物理世界、具备持久记忆、能推理和规划复杂行动序列的系统[2] - Meta将与杨立昆的初创公司建立合作伙伴关系[2] Meta AI部门重组与战略转变 - Meta的AI部门在今年进行了重大重组,原因是其开源大语言模型Llama第四版发布后开发者反响令人失望[3] - 公司首席执行官马克·扎克伯格投入数十亿美元招募顶级AI人才,包括在6月投资145亿美元招募Scale AI的28岁首席执行官Alexandr Wang,其现为Meta新任首席AI官[3] - 扎克伯格近期引入的其他知名人士包括前GitHub首席执行官Nat Friedman领导产品团队,以及ChatGPT联合创始人Shengjia Zhao担任首席科学家[8] AI技术路线分歧 - 杨立昆的AI发展方向已与Meta及硅谷其他公司产生分歧[6] - Meta和OpenAI等科技公司投入数十亿美元开发基础模型特别是大语言模型,而杨立昆等专家认为当前AI模型对世界的理解有限,需要新的计算架构来实现通用人工智能[7] - 杨立昆主张在独立实体中追求高级机器智能以最大化其广泛影响,其应用领域部分与Meta商业利益重叠,但许多并不重叠[8] Meta内部AI团队变动与文化冲突 - 10月Meta从其超智能实验室部门裁减600名员工,其中包括部分FAIR部门的成员[9] - 多年的FAIR裁员以及新的AI领导团队是杨立昆决定离职的主要原因[9] - 杨立昆与新任首席AI官Alexandr Wang及其团队很少互动,后者负责监督最初由FAIR开发的Llama AI模型[10] - 在面临OpenAI和谷歌的激烈竞争下,杨立昆一贯倡导开源AI研究,而Wang及其团队倾向于采取更封闭的方法[11]
全球首个「百万引用」学者诞生,Bengio封神,辛顿、何恺明紧跟
36氪· 2025-10-26 09:49
AI领域顶尖研究者学术影响力 - Yoshua Bengio总被引次数达987,920次,其中过去5年引用量为711,796次,占比72% [5] - Geoffrey Hinton总被引次数为972,944次,其中过去5年引用量为597,571次,占比61% [2][5] - 何恺明总被引次数超过75万次,达到756,424次,其中过去5年引用量为639,760次,占比高达84.6% [31][32] - Ilya Sutskever总被引次数超过70万次,达到706,612次,其中过去5年引用量为538,943次 [34][35] 高影响力论文与学术成就 - Bengio的《Generative adversarial nets》被引104,225次,《Deep learning》被引103,249次 [1] - Hinton的《Imagenet classification with deep convolutional neural networks》被引185,004次,《Deep learning》被引103,216次 [2] - 何恺明的《Deep Residual Learning for Image Recognition》被引298,327次,《Faster R-CNN》被引97,114次 [32] - Ilya Sutskever参与的《Imagenet classification with deep convolutional neural networks》被引185,909次 [35] AI领域发展里程碑 - 2018年Bengio、Hinton和Yann LeCun共同获得图灵奖,此后Bengio的引用量开始爆发性增长 [4][6] - 2012年AlexNet在ImageNet上取得突破性成果,被视为深度学习"引爆点" [17] - 2015年Nature发表LeCun、Bengio、Hinton的综述《深度学习》,成为标准理论引用来源 [19] - 2017年Transformer提出,2018年BERT证明预训练/微调范式,推动多模态与生成式AI发展 [21] AI学术生态发展趋势 - 2010-2022年全球AI论文总量从约8.8万增长至24万+,近乎三倍增长 [26] - AI占计算机科学论文比例从2013年的21.6%升至2023年的41.8%,几乎占据半壁江山 [26] - 2024年顶会投稿量激增:ICLR 2024共7,262投稿,NeurIPS 2024总投稿17,491,CVPR 2024投稿11,532 [26] - AI论文引用爆发式增长与AI时代发展相契合,奠基者的累积引用增长加速 [23][26] 其他高影响力研究者 - Yann LeCun被引次数超过43万次 [11] - Ian Goodfellow被引超过38万次 [40] - Jeff Dean被引373,153次 [44] - 李飞飞被引322,796次 [44] - Juergen Schmidhuber被引29万+ [40] - 吴恩达被引29万+ [40][47] - Noam Shazeer被引28万+ [40][55]
全球首个「百万引用」学者诞生!Bengio封神,辛顿、何恺明紧跟
自动驾驶之心· 2025-10-26 00:03
AI领域学术影响力里程碑 - Yoshua Bengio成为全球首位论文引用量突破100万次的学者,标志着AI学术影响力达到新高峰[2][3] - Geoffrey Hinton以97万次引用紧随其后,有望成为全球第二位突破百万引用的学者[5] - 深度学习三巨头(Bengio、Hinton、Yann LeCun)共同获得2018年图灵奖,其中LeCun引用量超过43万次[6][7][13] 顶尖AI研究者学术成就 - Yoshua Bengio在全球计算机科学领域排名第一,总引用量987,920次,近五年引用量711,796次,占比72%[8] - Geoffrey Hinton全球排名第二,总引用量963,982次,近五年引用量588,843次,占比61.1%[8] - 何恺明论文总被引超过75万次,其2016年发表的深度残差网络(ResNets)论文被引298,327次,是二十一世纪被引用次数最多的论文[48][51] - Ilya Sutskever论文总被引超过70万次,作为OpenAI和ChatGPT缔造者,与Hinton存在师徒关系[53][18] AI论文引用爆发式增长原因 - 2012年AlexNet在ImageNet上的突破性表现被视为深度学习"引爆点"[20] - 2017年Transformer架构提出和2018年BERT模型出现,推动预训练/微调范式发展,带来AI论文二次爆发[24] - 2010-2022年全球AI论文总量从约8.8万篇增长至24万篇以上,实现近三倍增长[30] - AI论文占计算机科学论文比例从2013年的21.6%升至2023年的41.8%,几乎占据计算机科学领域一半论文[31][32] AI领域学术会议活跃度 - ICLR 2024接收论文2260篇,投稿量较2023年增加2324篇[36] - NeurIPS 2024总投稿17491篇(主会15671篇),接收4497篇[36] - CVPR 2024投稿11532篇,接收2719篇,录用率23.6%[36] 其他高影响力AI研究者 - GAN之父Ian Goodfellow引用量38万+[61] - 谷歌人工智能负责人Jeff Dean引用量37万+[61] - ImageNet创建者李飞飞引用量32万+[61] - LSTM之父Juergen Schmidhuber引用量29万+,其1997年LSTM论文被引136,740次[61][67] - Coursera创始人吴恩达引用量29万+[61] - Gemini技术负责人Noam Shazeer引用量28万+,其参与的"Attention is All You Need"论文被引209,694次[61][69]
Nuix Wins Multiyear Contract with German Tax Authority to Strengthen Investigative and Regulatory Capabilities
Prnewswire· 2025-09-18 07:47
核心业务动态 - 公司赢得德国莱茵兰-普法尔茨州税务局的多年期法证分析软件供应合同 [1] - 该合作通过欧洲范围招标流程达成 客户认为其技术能提升审计和调查效率 [5] 产品技术优势 - Nuix Neo软件支持超过1000种文件类型的数据导入 采用负责任人工智能和深度关联分析技术 [2] - 软件实现工作流自动化 帮助调查人员从复杂数据集中发现关键证据并支持实时协作 [2] - 技术成果具备一致性、可审计性和可辩护性特点 [2] 客户合作生态 - 全球近100家监管机构使用公司技术处理复杂调查案件 [4] - 客户群体涵盖税务机构、廉政机构及其他监管组织 [3] - 技术帮助客户集中分析大型数据集 检测财务异常并强化税务合规性 [3] 行业地位延伸 - 公司近期获得深度学习训练人工智能技术的突破性专利 [6][7] - 被定义为数据处理、调查分析和智能软件领域的全球领导者 [6][7]
ZipRecruiter (NYSE:ZIP) 2025 Conference Transcript
2025-09-11 07:47
**行业与公司** - 行业:在线招聘平台,聚焦美国人才招聘市场,年市场规模超过3000亿美元[6] - 公司:ZipRecruiter (NYSE:ZIP),CEO Ian Siegel(创始人,任职15年),CFO Tim Yarbrough[1][4] **核心观点与论据** **1 公司战略与产品演进** - 从“量”转向“质”:初期聚焦批量推送职位至全网平台,后转向通过机器学习、深度学习提升候选人质量,当前重点为促进雇主与求职者快速匹配和互动[4][5] - 核心产品: - 简历数据库:内置消息功能,支持雇主主动联系候选人[10] - ZipIntro:24小时内通过算法匹配高契合度候选人并进行视频面试,类似“招聘速配”[10][14] - BreakRoom(收购):为一线工人提供雇主具体信息(如工作时长、薪资发放频率等),覆盖60%劳动力市场[14][15] - 差异化定位:与LinkedIn(侧重在职白领社交)、Indeed(大型在线招聘板)相比,ZipRecruiter定位为“匹配平台”,强调主动撮合与快速互动[9] **2 竞争格局与市场机会** - 在线招聘“新三巨头”:LinkedIn、Indeed、ZipRecruiter,传统巨头Monster和CareerBuilder已衰落[6] - 企业市场(Enterprise)为增长重点: - 当前收入占比SMB(中小企业)80% vs 企业20%,目标长期调整为50/50[24] - 挑战:需集成第三方招聘系统(如Workday、Taleo),已完成180个集成;企业预算多通过代理机构分配[25][28] - 品牌优势:雇主与求职者端品牌认知度超80%[13] **3 技术投入与AI应用** - 算法匹配:已应用近10年,基于历史百亿级交互数据优化,替代传统布尔搜索[13][17] - AI最新应用: - 大语言模型:提升双方互动效率(如自动消息促活)[14][18] - 内部效率提升:辅助工程师编码(生成单元测试)、替代重复性人工检查任务,但尚未导致裁员[20][21] **4 财务与运营表现** - 2025年趋势: - Q1付费雇主数环比增10%(对比此前连续下滑),Q2再环比增4%,显示劳动力市场企稳[32] - 预计Q4实现同比小幅增长[33][35] - 利润率目标:当前调整后EBITDA利润率中个位数,长期目标30%[48] - 驱动因素:企业收入占比提升、营销支出效率优化[48][49] **5 资本配置与投资优先级** - 优先顺序: 1. 有机投资(产品与技术)[52] 2. 战略并购(如BreakRoom)[52] 3. 股东回报(倾向股票回购)[52][53] - 现金流历史:创业前4.5年自筹资金,收入超5000万美元时仍保持正自由现金流[49] **其他重要内容** - 宏观环境挑战:过去32个月招聘连续下滑(对比2008金融危机时期22个月),当前关键词为“不确定性”(利率、关税等)[37][38] - 关键指标关注: - 雇佣数(每月全美约500万人)而非新增岗位数(如7.5万/月),后者对业务影响微弱[43] - 离职率(Quits Rate)回升为招聘复苏关键信号[39] - 流量增长:近两年求职者流量增速超越竞争对手,应用商店评分第一[44]
谷歌Nano Banana全网刷屏,起底背后团队
机器之心· 2025-08-29 12:34
产品发布 - Google DeepMind团队推出Gemini 2.5 Flash Image模型 具备原生图像生成与编辑能力 可快速生成高质量图像并在多轮对话中保持场景一致性 [2] - 模型引入交错生成机制 将复杂指令拆解为多轮操作 实现像素级完美编辑 用户仅需自然语言指令即可完成操作 [46] - 生成单张图像仅需十几秒 支持快速重试 显著提升创作效率 [49] 技术能力 - 模型具备优秀文本渲染能力 可在图像中正确生成简短文字如Gemini Nano 团队将文本渲染作为评估图像结构能力的新指标 [39][41] - 模型通过多模态理解与生成的紧密结合提升性能 图像理解为生成提供信息 生成反过来强化理解 [44] - 模型能利用视觉信号从世界学习额外知识 从而提升文本理解与生成能力 视觉信号成为理解世界的捷径 [45] 应用场景 - 在家居设计场景中 用户可快速可视化多种方案 如房间不同窗帘效果 模型能精准修改而不破坏整体环境 [49] - 在人物形象设计中 无论是更换服装 调整角度或生成复古风格 模型均能保持面部和身份一致性 [49] - 模型适合处理以某公司风格设计广告牌等任务 可直接将参考图像作为风格输入 操作比Imagen更方便 [52] 团队构成 - Logan Kilpatrick担任高级产品经理 领导Google AI Studio和Gemini API产品开发 曾任职OpenAI开发者关系负责人和Apple机器学习工程师 [6][8] - Kaushik Shivakumar担任研究工程师 专注于机器人技术 人工智能和多模态学习 参与Gemini 2.5模型开发 [12][14] - Robert Riachi担任研究工程师 专注于多模态AI模型开发 参与Gemini 2.0和2.5系列研发 致力于图像生成与对话AI结合 [17][20] - Nicole Brichtova担任视觉生成产品负责人 专注于构建生成模型 推动Gemini应用 Google Ads和Google Cloud产品发展 [24][26] - Mostafa Dehghani担任研究科学家 主要从事机器学习研究 参与开发多模态视觉语言模型PaLI-X和220亿参数Vision Transformer [29] 产品定位 - Gemini目标为整合所有模态向AGI方向迈进 利用知识转移在跨模态复杂任务中发挥作用 [50] - Imagen专注于文本到图像任务 在Vertex平台提供多种优化变体 适合目标明确 追求速度和性价比的场景 [50][51] - Gemini在复杂多模态工作流中优势突出 支持生成加编辑 多轮创意迭代 能理解模糊指令和利用世界知识 [52] 未来展望 - 期待模型展现智能 即使不完全遵循指令也能生成比描述更好的结果 让用户感受与更聪明系统互动 [53] - 关注模型事实性与功能性 希望生成既美观又准确无误的图表或信息图 甚至自动制作工作简报 [53]