Taalas HC1芯片
搜索文档
AI发展驶入“回归商业本质”阶段 国产芯片迎“推理机遇”
上海证券报· 2026-02-27 01:59
OpenAI资本支出调整与行业影响 - OpenAI将2030年前AI基础设施支出目标从1.4万亿美元下调至6000亿美元,新目标为聚焦芯片采购与租赁的纯算力专项支出 [2][3] - 业界认为此举并非预算削减,而是从“8年广义基建”口径调整为“5年算力专项”,是行业从烧钱增长转向“投入产出匹配”的理性回归,标志着产业发展进入更务实阶段 [2][3] - 高盛等机构认为,6000亿美元资本支出与OpenAI“2030年营收2800亿美元”的目标更契合,有助于其融资推进,该支出仍是全球最大算力投入,显示增长动能澎湃 [3] - OpenAI提出到2030年实现消费者业务与企业业务收入基本持平,摩根士丹利认为这是其跑通商业模式的表现 [4] 算力产业链持续高景气 - 北美云厂商与AI企业继续大力投资,Meta与英伟达达成价值数十亿美元的芯片采购协议,将采购数百万片英伟达最新AI加速芯片,并大规模部署英伟达CPU [2][5] - 业界认为OpenAI调整支出短期情绪上可能利空英伟达产业链,但长期看订单确定性更强,有助于AI推理规模化部署及产业链景气度持续 [3] - 国内AI ASIC龙头企业芯原股份截至2025年末在手订单金额达50.75亿元,较三季度末的32.86亿元大幅提升54.45%,且已连续九个季度保持高位 [8] AI应用商业化加速与投资机遇 - 在“盈利优先”背景下,AI应用商业化落地正在加速,行业正从“算力军备竞赛”迈入“商业化验证期” [5] - 千问在春节假期用户“一句话下单”近2亿次,2月7日其日活跃用户数达7352万,接近豆包的7871万,仅用3个月达到后者3年的用户规模 [5] - 算力利用率高、盈利性强的AI公司有望率先收获红利,建议重点关注“AI+医疗”、“AI+营销”、“AI+企服”、“AI+编程”、“AI+娱乐”等细分赛道 [6] - AI大模型正从“单一超大模型”向“多模型+专用模型+MoE”演进,以降低对高端算力依赖并提升能效比,具备细分赛道模型及应用并跑通商业模式的公司值得关注 [6] - 生成式引擎优化作为AI应用率先落地方向,市场规模迅速提升 [6] - 利欧集团在数字营销领域打造专属AI智能体矩阵,在泵与系统领域推出数据中心冷却系统解决方案 [6] AI推理算力成为新风口 - 随着AI发展重心转向应用,算力需求由“重训练”转向“训练+推理并重”,AI推理需求成为新风口,增长速度和规模将远超AI训练 [7] - 云天励飞董事长预计,2026年是AI发展核心推动力由训练转向推理的转折之年,到2030年全球AI训练算力市场达1万亿美元,而AI推理市场规模将达4万亿美元至5万亿美元 [7] - AI推理更讲究性价比,需要在成本、效率和系统能力上建立优势,让定制化AI芯片脱颖而出 [7] - 初创公司Taalas发布首款ASIC产品Taalas HC1芯片,专为Llama 3.1 8B模型优化,采用30芯片集群时实现每秒12000 tokens推理速度,较传统GPU方案提升50倍能效,成本降低至1/20,功耗降低至1/10 [7] 国产AI芯片发展态势 - AI推理需求爆发,国产AI算力芯片正借助ASIC、全栈优化等技术在该赛道建立竞争优势 [8] - 寒武纪、摩尔线程、沐曦股份已登陆科创板,壁仞科技、天数智芯已登陆港交所,燧原科技在冲刺IPO,百度计划分拆昆仑芯在港上市 [8] - 海光信息同时具有“DCU+CPU”芯片,并与中科曙光合作形成产业链优势 [8]
“邪修”AI芯片的Taalas,成色如何?|AGI焦点
钛媒体APP· 2026-02-23 21:51
公司及产品概览 - 加拿大初创公司Taalas于2023年成立,2024年2月20日发布首款产品HC1芯片,专为Meta Llama 3.1 8B模型优化 [2] - 公司由曾任AMD架构师的业界传奇人物柳比沙·巴伊奇(Ljubiša Bajić)创立,联合创始人包括其妻子莱拉·巴伊奇及德拉贡·伊格纳托维奇,核心工程师团队20余人多来自AMD、苹果、谷歌、英伟达等公司 [6][7] - 公司已完成三轮融资,累计融资额达2.19亿美元,其中首轮融资5000万美元 [2][8] 技术路线与核心创新 - 采用“结构化ASIC”技术,将特定大模型直接转化为定制芯片,实现“模型即计算机”(The Model is The Computer)的范式转变,宣称无需传统软件编译 [8] - 该技术路径旨在消除“内存墙”,数据几乎无需在内存和计算单元间移动,从而提升速度并降低成本 [9] - 将芯片定制周期缩短至两个月,客户提供模型后,公司可在一周内完成电路设计转化,并通过台积电代工交付 [11] 产品性能宣称 - HC1芯片在采用30芯片集群时,为Llama 3.1 8B模型实现每秒12000 tokens的推理速度,较传统GPU方案提升50倍能效 [2] - 公司宣称峰值推理速度接近每秒17000 tokens,比市场最先进技术快近10倍,构建成本降至原来的1/20,功耗降至原来的1/10 [2] - 公司测试数据显示,HC1在Llama 3.1 8B上的性能是英伟达H200(230 tokens/秒)和B200(353 tokens/秒)的48倍,是独立分析平台测出的Cerebras最高值(1981 tokens/秒)的约11倍 [3] 市场定位与潜在应用 - 公司致力于解决AI推理的“高延迟”和“高算力成本”两大障碍,目标为“单芯片性能超越小型GPU数据中心” [8] - 有分析认为,得益于低延迟、低功耗特性,其真正用武之地可能在于边缘推理场景,如机器人、自动驾驶汽车、高端智能手机等设备 [20] - 行业预测ASIC芯片总出货量可能在2026年首次超过GPU,大多数芯片初创公司选择了ASIC路线 [6] 面临的挑战与质疑 - 产品目前仅针对Llama 3.1 8B这一较小参数模型优化,其能否适用更先进、大规模的模型(如70B、405B参数版本)存在疑问 [13] - 有用户反馈HC1芯片在测试中“幻觉严重”、“答案明显错误”,推理质量受到质疑 [15] - 技术路线存在“模型锁定”风险,芯片专为特定模型定制,可能难以跟上大模型的快速迭代周期(顶尖模型领先窗口仅月余,而芯片交付需至少两个月) [17][18] - 有质疑指出,其高速性能可能仅限于内置答案的特定问题,在通用场景下能力存疑 [17] 行业观点与未来发展 - 支持观点认为,这种“硬连线”模式是未来芯片发展趋势,Taalas芯片的更新成本(仅需更改设计中的两层金属)相对于高达数十亿美元的模型训练成本微不足道 [19] - 有行业人士认为,待大模型迭代速度放缓、趋于稳定后,此类定制化芯片将拥有更大舞台 [18] - 公司计划在2024年春季推出一款适用中等规模推理模型的产品,并在冬季推出第二代HC2产品,具备更快的执行速度和更强性能 [14][21]