AI推理
搜索文档
356亿,曝英特尔拟收购AI芯片独角兽
36氪· 2025-11-03 10:56
一家由英特尔CEO陈立武担任董事长、华人担任联合创始人的AI芯片独角兽,可能会被英特尔收购。 芯东西11月3日报道,据外媒日前援引知情人士消息,英特尔正在就收购美国AI芯片独角兽SambaNova进行初步谈判,商讨收购条款。 而SambaNova一直在与银行机构合作,以评估潜在收购方的兴趣。 据知情人士透露,任何交易对SambaNova的估值都可能低于其在2021年融资轮中获得的50亿美元(约合人民币356亿元)估值。 另据The Information报道,SambaNova可能会面临估值大幅削减。根据二级市场数据和交易平台Caplight的数据,基金公司BlackRock在过去一 年中将其SambaNova股票贬值了17%,使其估值为24亿美元(约合人民币171亿元),只有上一轮投后估值的一半。 谈判尚处于初期阶段,两家公司能否达成协议尚无定论,也可能出现其他买家。 一位SambaNova发言人称,该公司一直在寻找能够支持其使命和利益相关者的战略机遇,但拒绝进一步置评。英特尔的一位代表拒绝置评。 SambaNova由多位斯坦福大学教授于2017年创立。其董事长是华登国际董事长、英特尔CEO陈立武,华登国际 ...
他们抛弃了HBM
36氪· 2025-11-03 08:47
AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[1] - 存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创下公司史上最高季度利润,美光科技实现净利同比增长三倍[1] - HBM需求旺盛,SK海力士2025年前的HBM产能已被客户预订一空[1] - 传统DRAM和NAND芯片意外走俏,因存储厂集中扩产HBM导致常规内存产能趋紧,亚马逊、谷歌、Meta等数据中心巨头大规模采购传统DRAM[1] LPDDR在AI推理市场的崛起 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用LPDDR内存技术路线,AI200配备768GB LPDDR内存,约为英伟达H100 HBM容量的10倍[2][4] - 英伟达下一代Vera Rubin超级芯片首次采用LPDDR内存,尽管仍配备HBM4,但LPDDR的出现显示技术路线调整[5] - 英特尔发布配备160GB LPDDR5X内存的数据中心GPU,专为AI推理工作负载设计[6] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行,高通Cloud AI 100 Ultra架构比同类英伟达配置功耗低20到35倍[10] 技术路线分野与市场影响 - 到2030年,推理工作负载数量将是训练工作负载的100倍,AI推理越来越受内存限制而非计算限制[8] - LPDDR方案存在内存带宽较低、延迟更高、服务器环境可靠性待验证等问题,但在推理场景中容量和成本优势远超带宽劣势[10] - 高通AI250引入近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能,两款方案机架级功耗仅160千瓦[4][10] - AI硬件市场呈现分层结构:训练市场HBM不可替代,推理市场LPDDR有望异军突起[18] LPDDR供应链潜在危机 - 单个AI推理机架LPDDR内存容量可达数十TB,相当于数十万至百万部智能手机用量,2026-2027年多家厂商量产将导致需求指数级增长[11] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心订单可能挤占消费电子份额,导致手机厂商面临采购成本上升、交货周期延长[11] - 手机厂商可能被迫接受更高内存成本、降低内存配置或寻找替代方案[12] LPDDR6技术发展 - JEDEC正式发布LPDDR6标准,核心架构演进为四个24位子通道,数据速率达10,667至14,400 MT/s,有效带宽28.5至38.4 GB/s[14][16] - LPDDR6引入DVFSL等功耗管理机制,Synopsys基于台积电N2P工艺的LPDDR6 IP带宽达86 GB/s,JEDEC标准理论峰值可达115 GB/s[14][17] - 主要厂商计划2025年起逐步停产DDR4,LPDDR6预计快速被行业采用,可能成为智能手机新标配但售价可能上涨[16][17] 产业格局变革 - AI产业正从不计成本的技术竞赛转向精打细算的商业化部署,推理领域对价格敏感为高通、英特尔等公司打开竞争大门[18] - 高通将移动领域基因与数据中心可扩展性结合,英特尔强调从AI PC到数据中心的端到端能力[18] - AI推理效率革命可能以牺牲消费者利益为代价,数据中心需求可能导致智能手机用户面临内存短缺、价格上涨或配置缩水[19][20]
马斯克,最新预测!
证券时报· 2025-11-02 13:07
埃隆·马斯克近日参加了知名主持人乔·罗根的播客节目,讨论了他对未来智能手机的愿景。他谈到,未来的手 机将是一个用于AI推理的边缘节点,带有一些无线连接功能。通过服务器端的AI与个人手机的AI进行通信, 可以实时生成任何内容。未来,不会有操作系统或应用程序,设备只是一个用于显示画面和播放音频的终端, AI能力将尽可能集成在手机设备上。 马斯克认为,未来的智能手机没有内置应用和操作系统,AI将在一两秒内生成你所需的任何工具应用。例 如,如果用户需要一张数字地图来导航,设备上的AI资源将瞬间生成界面、后端库及其他所需资源。 在这些技术背景下,智能手机将仅仅作为视觉与音频内容的消费终端,以及本地AI资源的运行平台。这一愿 景似乎并不遥远,马斯克称,未来的5至6年内,人类消费的数字内容将主要由AI生成。 马斯克认为,未来五到六年内,人类所消费的数字内容都将由AI生成。 版权声明 证券时报各平台所有原创内容,未经书面授权,任何单位及个人不得转载。我社保留追 究相关 行 为主体 法律责任的权利。 转载与合作可联系证券时报小助理,微信ID:SecuritiesTimes 点击关键字可查看 潜望系列深度报道丨 股事会专栏 丨 ...
存储技术迭代无止境?巨头纷纷押注HBF
财联社· 2025-11-01 11:21
AI推理市场驱动存储行业变革 - AI推理市场快速增长 推动存储容量需求激增至数百EB级别[4] - 多模态AI模型发展 需要处理比纯文本多得多的数据 催生对海量存储容量的需求[3] - AI基础设施建置重心偏向推理服务 预计2026年企业级固态硬盘供应将吃紧 需求热潮延续至2027年[4] HBF(高带宽闪存)技术发展与前景 - HBF是一种通过堆叠NAND闪存制成的产品 结构类似HBM 提供约10倍于DRAM的容量[2] - 闪迪于2025年2月首次提出HBF概念 定位为结合3D NAND容量和HBM带宽的创新产品[2] - SK海力士与闪迪合作 计划2026年下半年推出首批HBF内存样品 首批采用HBF的AI推理设备样品预计2027年初上市[2] - 预计到2030年 HBF市场规模将达到120亿美元 约占同年HBM市场规模(1170亿美元)的10% 将与HBM形成互补[2] - HBF被评估为“辅助内存” 用于弥补HBM容量不足 特性为“轻速度 重容量”[3] 存储巨头技术布局与竞争 - 三星、SK海力士、闪迪等存储厂商正纷纷投入HBF技术的研发[1] - SK海力士在2025 OCP全球峰会推出包含HBF的“AIN系列”新产品线 并与闪迪签署谅解备忘录共同制定HBF技术规范[1] - 三星已启动其自有HBF产品的早期概念设计工作[2] 存储行业“超级周期”与市场趋势 - 存储行业正处于“超级周期” AI推理应用推升对实时存取、高速处理海量数据的需求[4] - 超大规模数据中心客户开始从高度依赖HDD转向基于大容量QLC的企业级固态硬盘[4] - 因CSP建置动能回温 DDR5产品需求持续增强 2026年CSP的DRAM采购需求有望大幅成长[4] - 由于海外原厂产能限制 2025年第四季度存储涨价趋势预计持续[4]
他们抛弃了HBM!
半导体行业观察· 2025-11-01 09:07
AI驱动存储市场进入超级繁荣周期 - AI浪潮推动存储市场进入前所未有的超级繁荣周期,HBM成为AI服务器关键组件,通过堆叠多层DRAM与GPU结合提供更快数据通道[2] - 全球三大存储巨头业绩爆发:三星电子第三季度净利润同比增长21%,SK海力士创公司史上最高季度利润,美光科技净利同比增长三倍[2] - SK海力士2025年前的HBM产能已被客户预订一空,传统DRAM和NAND芯片因存储厂集中扩产HBM导致产能趋紧,市场供需再平衡[2] - 亚马逊、谷歌、Meta等数据中心巨头为扩充AI推理与云服务能力大规模采购传统DRAM,AI推理阶段普通内存仍发挥不可替代作用[2] 芯片巨头转向LPDDR技术路线 - 高通发布AI200和AI250数据中心加速器,预计2026年和2027年上市,采用专为数据中心AI工作负载定制的Hexagon NPU[4] - AI200机架级解决方案配备768GB LPDDR内存,使用PCIe互连和以太网扩展,采用直接液冷技术,机架功率达160kW[7] - AI250保留相同架构但增加近内存计算架构,有效内存带宽提升10倍以上,支持分解推理功能实现计算和内存资源动态共享[7] - 英伟达下一代Vera Rubin超级芯片在其88核Vera CPU周围采用SOCAMM2模块搭载LPDDR内存,尽管GPU仍配备八个HBM4内存堆栈[8] - 英特尔发布代号"Crescent Island"的数据中心GPU,配备160GB LPDDR5X内存,针对风冷企业服务器优化,预计2026年下半年客户采样[9] LPDDR方案的技术优势与应用场景 - 到2030年推理工作负载数量将是训练工作负载的100倍,AI推理工作负载越来越受内存限制而非计算限制[11] - LPDDR内存性价比比HBM高出13倍,使得大型语言模型推理工作负载可直接在内存中运行无需频繁数据混洗[13] - 高通Cloud AI 100 Ultra架构在某些推理工作负载下比同类英伟达配置功耗低20到35倍[13] - 训练场景需要极致内存带宽处理海量数据反向传播,HBM不可替代,而推理场景模型参数已固定,重点是大容量存储和高效读取[13] - LPDDR存在内存带宽较低、延迟较高及服务器环境可靠性未充分验证等问题,但容量和成本优势远超带宽劣势[13] LPDDR6技术标准与性能突破 - JEDEC正式发布LPDDR6标准,核心架构从双通道演进为四个24位子通道,实现更高并行度与更低访问延迟[19] - LPDDR6数据速率达10,667至14,400 MT/s,有效带宽约28.5至38.4 GB/s,超越DDR5-12054超频纪录[22] - Synopsys完成基于台积电N2P工艺节点的LPDDR6 IP硅验证,带宽可达86 GB/s,JEDEC标准理论峰值甚至达115 GB/s[23] - LPDDR6预计明年进入量产阶段,可能取代LPDDR5成为智能手机标配,但售价可能大幅上涨[23] 供应链影响与市场格局变化 - 单个AI推理机架配备LPDDR内存量级惊人,高通AI200单个机架总内存容量可达数十TB,相当于数十万至百万部智能手机用量[16] - 当高通、英特尔、英伟达等公司在2026-2027年大规模量产LPDDR方案时,对LPDDR需求将呈指数级增长[16] - LPDDR产能主要由三星、SK海力士和美光控制,数据中心客户采购量大、利润率高、订单稳定,可能挤占消费电子份额[16] - 手机厂商面临LPDDR采购成本上升、交货周期延长,可能导致中高端手机在内存配置上妥协或大幅提高售价[16] - AI硬件市场呈现明显分层结构:训练市场HBM不可替代,英伟达/AMD主导;推理市场LPDDR有望异军突起[27]
高通正面“叫板”英伟达,入局AI芯片能否打破市场格局
华夏时报· 2025-10-31 11:39
华夏时报记者 石飞月 北京报道 AI芯片这块蛋糕,正引得越来越多的人垂涎。10月28日,高通宣布推出面向数据中心的下一代AI推理 优化解决方案——基于AI200与AI250芯片的加速卡及机架系统,这也意味着该公司正式入局AI芯片领 域,这一领域的"垄断者"英伟达也迎来又一家巨头对手。 高通的AI芯片蓝图既是主动出击,也是形势所迫,随着联发科在高端手机芯片市场占据越来越多的份 额,再加上自身面临的市场监管风险,以及AI芯片市场极具潜力的红利诱惑,高通只能将AI芯片视为 通往未来的新船票。 然而,面对英伟达这个先行者和龙头,以及AMD、英特尔等一众觊觎AI芯片这块蛋糕的竞争者,高通 必须展现出足够出色的差异化优势才能从中分一杯羹。在业内人士看来,高通在手机芯片领域深耕所积 累的能效优势,倒是能为其切入AI芯片市场奠定一定的基础。 入局AI芯片 AI200与AI250预计将分别于2026年和2027年实现商用。高通还宣布,未来每年都会推出一款新的算力 芯片来进行迭代。 据介绍,AI200带来专为机架级AI推理打造的解决方案,旨在为大语言模型(LLM)与多模态模型 (LMM)推理及其他AI工作负载提供低总体拥有成本与 ...
10倍带宽突破、市值暴涨200亿美元,高通能否「分食」千亿级AI推理市场?
雷峰网· 2025-10-30 16:06
高通进军AI推理芯片市场 - 公司宣布推出针对数据中心场景的AI推理优化解决方案,包括Qualcomm AI200、AI250云端AI芯片及对应的加速卡、机架等组件 [2] - 此举使公司在资本市场获得积极反馈,股价在交易时段内最高上涨22%,收盘上涨11%,报187.68美元/股,公司市值单日增加近200亿美元,达到约2025亿美元 [2] - 行业观点认为,公司凭借在端侧芯片的经验和技术积累进军AI推理芯片,可为公司带来新的业务增量,且市场不希望看到英伟达一家独大 [3] AI推理芯片市场竞争格局 - 英伟达在AI推理芯片领域具备很大优势,其迭代能力极强,从Blackwell到新一代Rubin,迭代速度不断加快 [4] - 英伟达Rubin CPX支持百万级Token处理,GDDR7内存让成本大降,投资回报率达30-50倍,Vera Rubin NVL144平台算力较前代提升3.3倍,单位Token成本进一步摊薄 [4] - 高通主打行业最低总拥有成本(TCO)的概念,但其高能效和内存处理能力的竞争优势仍需在实际场景中验证 [4] 高通产品合作与市场定位 - 公司宣布与沙特AI公司HUMAIN合作,从2026年起部署高通AI200、AI250机架解决方案,总规模达200兆瓦,双方还将联合开发尖端AI数据中心 [5] - 通过定制化模式可以精准匹配客户特定需求,实现深度性能优化,高通在成本管理及端侧NPU领域积累的经验能为这种模式提供支撑 [5] - 聚焦AI推理赛道是公司面对英伟达的最优选,2024年全球推理AI芯片市场规模约为142.1亿美元,预计2031年将达到690.1亿美元,2025-2031期间年复合增长率为25.7% [5] AI推理芯片技术特点与需求 - AI推理包含Prefill和Decode两个阶段,与模型训练相比更看重显存带宽的稳定性、适配性以及充足的显存容量,追求高效能效比与低延迟 [6] - 存力需要以更大的带宽、更低的时延将数据搬移到算力集群中计算,影响整个计算单元的算力利用率,检查点的保存时间耗时越短,计算过程被中断的时间便越少 [7] - 推理Token用量每个月都在大幅上涨,高通的推理卡显存非常大,单卡可以支持768GB,相当于单卡可以跑完整的DeepSeek,是当前所有卡中显存最大的,方便私有化部署 [7] 高通与英伟达产品规格对比 - 英伟达Rubin计划2026年底上市,内存容量128GB GDDR7,内存带宽2TB/s,算力30 Peta FLOPS(NV FP4精度),采用分离式推理架构,散热方案为风冷升级液冷 [8] - 高通AI200计划2026年上市,支持每卡768GB LPDDR,每芯片算力500 teraFLOPS,基于Hexagon NPU采用异构集成设计,散热方案为直接液冷 [8] - 高通AI250计划2027年上市,内存容量预计768GB LPDDR,内存带宽较AI200提升超10倍,基于Hexagon NPU采用近存储计算架构,支持分解推理功能 [8] 高通软件生态建设 - 公司AI软件栈覆盖从应用层到系统层的端到端链路,针对AI推理场景优化,支持领先的机器学习框架、推理引擎、生成式AI框架及LLM/LMM推理优化技术 [9] - 开发者可以通过相关套件实现模型导入与Hugging Face模型一键部署 [9] - 凭借差异化的硬件设计以及丰富的软件栈,高通的入局具有合理性,后续将其网络芯片集成进去能打造出具有性能优势的产品 [9]
顺网科技20251029
2025-10-30 09:56
行业与公司 * 纪要涉及的公司为顺网科技(盛网科技)[1] * 行业涉及电竞、云计算(边缘算力云、AI云)、网络广告、游戏(端游、主机游戏)[2][4][8][14] 核心财务表现与业务结构 * 公司2025年上半年营收3.24亿元,同比增长52.59%[2] * 公司前三季度收入规模达15亿元,但同比增长速度有所放缓,累计利润达3.24亿元,同比增长52.59%[3] * 收入下降主要因业务结构优化调整,公司战略重心转向高毛利业务[2][3] * 广告业务基于电竞科技服务,采用CPT模式,毛利率水平较高[2][4] * 增值业务中,加速器、租号陪玩等服务及CDK、游戏道具等产品类业务竞争激烈,毛利率较低,公司已缩减此类低毛利业务[2][4][16] * 低毛利增值业务(如道具类、CDK类)毛利率从两位数降至个位数[16] * 三季度主要收入和利润贡献来自网吧广告和增值业务,ChinaJoy展会业务维持微增趋势[9] 核心业务进展与战略方向 * 公司未来重点发展基于自身流量入口的高毛利广告业务[2][7] * 公司自2019年起构建算力上云基础设施,目前进入平台深化运营阶段[2][6] * 通过虚拟电竞枢纽打造线上线下互联互通平台,为电竞行业提供高性能机器支持,降低从业门槛[2][6] * 边缘算力云及AI云业务已进入深入商业化运营阶段,客户主要为电竞从业者、网吧、电竞酒店等行业客户,个人游戏玩家也是重要用户群体[4][10] * 公司计划推进AI云电脑项目,为个人开发者及AI团队提供模型训练、推理和微调服务[7] * 计划在2026年加速算力建设与平台运营,提升用户运营深度和服务广度[2][4][7][10] 行业趋势与市场机遇 * 电竞行业自疫情后加速恢复,硬件换机频次增加、价格提高,以及新游戏内容推出推动行业发展[8] * 端游市场呈上行趋势,预计2026年持续增长,广告投放需求增加[4][14] * 主机游戏带来增量空间,对云电竞平台内容支撑及新增用户引入有积极影响[4][14] * 公司通过算力上云技术为从业者降低成本压力,促进整个行业景气度提升[8] 竞争优势与差异化 * 公司边缘算力云与阿里云、百度智能云、腾讯云等公有云不在同一赛道,专注于提供电脑级别算力给电竞游戏玩家[11] * 竞争优势在于依托遍布全国的边缘机房,配置高、时延低,优于中心云模式,并能提供高配置显卡(如4080 Super)[11][12] * 公司依托多年在网吧行业积累的大量内容和服务,为用户提供全面优化体验[11] * 在AI领域走竞合路线,为推理和微调等需求提供高性价比消费级显卡[11] * AI推理已开始应用于边缘算力云,未来将拓展至更多场景[13] 其他重要信息 * 电竞酒店和网吧终端数量提升流量基础,对游戏公司广告投放效果产生正向反馈,间接促进广告业务发展[15] * 公司与B站合作的三国百将牌项目由浮云旗下子公司负责,今年合作深度有所提升[16] * 公司计划通过展示可运营算力规模信息来推动市场认知与投资人关注[2][8][7]
高通AI芯片,大猜想
半导体行业观察· 2025-10-30 09:07
高通与Humain AI的战略合作 - 高通与沙特阿拉伯的Humain AI初创公司签署正式协议,合作开发边缘和数据中心的AI技术,Humain成为高通未来AI加速器的首个客户[2][3][5] - 合作范围包括开发推理AI芯片、搭载骁龙和Dragonwing系统级芯片的边缘设备,以及针对这些SoC调整Humain的阿拉伯语大型语言模型[3] - 谅解备忘录要求高通开发并提供最先进的数据中心CPU和AI解决方案,这意味着高通将重返服务器CPU业务[3] 高通AI加速器产品线与技术演进 - 高通AI 100 XPU于2019年发布,2021年上半年发货,2023年11月推出AI 100 Ultra版本,将四块AI 100芯片互连在一个封装中[5][7] - 2024年10月高通开始发售AI 100的低配版AI 80,并推出PCIe卡形式的AI 100 Ultra,其SRAM容量从每芯片126 MB提升至144 MB[7] - 未来路线图包括2026年推出的AI 200 Ultra(采用3纳米工艺,128个AI核心,1,024 MB片上SRAM)和2027年初的AI 250 Ultra(采用2纳米工艺,192个AI核心,1,536 MB片上SRAM)[11][12] - AI 200 Ultra将配备768 GB的LPDDR5主内存,使用PCIe 5.0 x16实现机架内扩展,以太网实现跨机架扩展,功耗为250瓦[11][12] - AI加速器架构基于智能手机CPU中的Hexagon神经网络处理器,在同一核心上集成标量、矢量和张量单元,张量单元拥有8,192个INT8乘法累加器阵列和4,096个FP16乘法累加器阵列[14][15] 性能基准与能效对比 - 加州大学圣地亚哥分校基准测试显示,在GPT-2和Granite 3.2测试中,单个AI 100 Ultra(4个高通芯片)比4个Nvidia A100 GPU的单位功耗少60%[8] - 在部分模型上,相同数量的高通显卡比相同数量的英伟达显卡单位功耗表现更佳,例如在GPT-2模型上,高通AI 100 Ultra的每瓦令牌数为5.7368,而Nvidia A100为2.1685[9] - 计算密度方面,需要1到4个高通加速器机架(假设每5U服务器放16张卡)才能匹配4个或8个Nvidia A100 GPU的性能[10] 市场机遇与财务影响 - 高通已赢得200兆瓦的部署,假设每张AI 200 Ultra卡功耗250瓦,需要80万张卡,总计1,250个机架(每机架512台设备)[19] - 以每张卡4,000美元计算,AI加速器部分价值32亿美元,加上机架等基础设施总价值可能达52亿美元[19] - 在FP4精度下,高通AI 200 Ultra机架计算能力达983 petaflops,每petaflops成本2,604美元,每千瓦每petaflops为16.30美元,相比Nvidia B300 NVL72方案有约35%的每瓦功耗优势[19][20] 高通重返服务器CPU业务 - 高通曾于2017年推出48核Arm服务器CPU"Amberwing" Centriq 2400,但项目于2018年搁置,2021年收购Nuvia获得其"Phoenix"(现Oryon)内核[17] - 与Humain的合作明确高通将再次开发数据中心服务器CPU,未来AI 200和AI 250设备可能在封装中集成服务器级Oryon Arm内核[18] - AI 250将采用近内存计算创新内存架构,提供超过10倍的有效内存带宽和更低功耗[18]
288亿独角兽!复旦女学霸创业3年,被黄仁勋和苏妈同时押注
深思SenseAI· 2025-10-30 09:04
3年时间,年收入达2.8亿美元,估值40亿美元。这是AI推理赛道跑出的最快独角兽。 2025年10月28日,Fireworks AI宣布完成2.54亿美元C轮融资 ,由Lightspeed、Index Ventures和Evantic领投,英伟达、AMD、红杉资本、Databricks等跟投。 创始人乔琳是PyTorch框架的核心创建者、复旦大 学计算机系校友。 她的核心洞察是,训练是科研的浪漫,推理才是产业的现金流。Fireworks 定位很清晰, 目前已服务超过10,000家企业客户,每 天处理超10万亿tokens。Cursor、Notion、Uber、Samsung、Shopify等明星产品背后的AI推理引擎,都是Fireworks。 当AI进入工业化阶段,推 理层正在从成本中心变成利润中心。 Fireworks AI 公司概要 01. 从PyTorc h到Fire works,训练与推理的分岔口 #PyTorc h的哲学 :简单性是可扩展的 Fireworks的故事,起点在Meta的PyTorch团队。乔琳在复旦毕业后,远赴加州大学圣巴巴拉分校攻读计算机博士学位。她的职业生涯始于IBM研究 职位,随 ...