公司动态与业务发布 - Auddia Inc 宣布其关联公司 LT350 发布了首份白皮书,题为《面向推理经济的分布式、能源自主AI基础设施》[2] - 该白皮书详细阐述了 LT350 的模块化顶棚架构,可将现有停车场改造为能源自主、延迟优化的AI推理节点[2] - 白皮书已在 LT350 网站发布[3] - LT350 是三个新业务之一,若 Auddia 与 Thramann Holdings 宣布的业务合并完成,这些业务将与 Auddia 一同并入新的 McCarthy Finney 控股公司[3] 行业背景与市场机遇 - 随着AI工作负载加速,全球数据中心生态系统在电力供应、土地稀缺和电网互联延迟方面面临前所未有的限制[4] - 国际能源署、FERC、麦肯锡、CBRE、仲量联行等行业分析均指出,传统数据中心开发无法跟上AI训练和推理需求爆炸式增长的步伐[4] - AI正从集中式训练转向普及的、实时的推理,推理需要计算资源靠近数据产生地,如医院、金融机构、生物科技园区、交通枢纽和零售中心[5] LT350 技术方案与架构 - LT350 平台引入了一种根本不同的AI基础设施方法:分布式、能源自主、模块化的AI顶棚,可直接部署在现有停车场上[5] - 每个顶棚集成了:用于模块化热插拔计算的GPU卡匣、为KV缓存卸载和长上下文推理优化的内存卡匣、用于表后存储和削峰填谷的电池卡匣、安装在顶棚屋顶的太阳能发电装置、用于高带宽连接的本地光纤回程,以及为医疗、金融和国防相关负载提供的物理隔离[10] - 该架构旨在将AI推理节点的部署时间从数年缩短至数周或数月,同时避免土地获取、分区摩擦和互联延迟等制约传统数据中心的问题[5] 核心竞争优势 - 能源自主性:采用太阳能加储能的混合模式,提供可预测的电力成本、抗限电能力并减轻电网互联负担,在AI驱动电力需求加速的背景下,表后架构变得至关重要[6] - 贴近高价值场景部署:部署模型允许顶棚安装在距离医院、金融机构、国防设施和自动驾驶车辆枢纽仅数十至数百英尺的范围内,这实现了确定性低延迟、本地数据主权、专用硬件以及简化受监管工作负载的合规性[7][11] - 专为推理层设计的可扩展架构:其内存增强架构支持下一代推理工作负载,包括长上下文模型、智能体系统和高带宽自动驾驶数据流,通过卸载KV缓存和减少跨GPU通信瓶颈,将自身定位为专业的推理架构,而不仅仅是GPU主机[8] 公司概况与专利情况 - LT350 是一家分布式AI数据中心公司,拥有13项已授权专利和3项待批专利,覆盖其专有的太阳能停车场顶棚基础设施平台[12] - 该平台将模块化电池存储和GPU卡匣集成到顶棚天花板,旨在通过利用未充分利用的停车场空间并加强当地公用事业现有电力基础设施,构建最安全、延迟最低、最具成本效益且可快速部署的边缘分布式AI数据中心网络[12]
LT350 Releases Whitepaper Detailing Distributed, Power‑Sovereign AI Infrastructure for the Inference Economy