大语言模型
搜索文档
理想用四组数学公式分享对自动驾驶芯片软硬协同设计的理解|能看懂
理想TOP2· 2026-03-01 16:36
论文核心观点与目标 - 论文提出了一套基于Roofline建模的数学框架,用于在给定的自动驾驶芯片上,为端侧大语言模型找到最优的架构设计方案[1] - 该框架旨在解决在芯片算力、内存及数据搬运速度有限的情况下,如何设计出既智能(低错误率)又反应快(低时延)的模型的问题[1] - 核心方法是通过数学公式预测最优模型架构,避免了训练成百上千个模型进行对比的高成本,实现了硬件特性与模型架构参数的协同优化[1][2] 硬件协同设计方法论 - 协同设计的两方是AI模型的架构参数(如层数、宽度、稀疏度)和芯片的硬件特性(如峰值算力、内存带宽、总内存),而非传统的软件与硬件团队[2] - 核心工作是将硬件的物理约束(时延、内存)用数学公式表达,并在这些约束下搜索最优的模型架构[2] - 在NVIDIA Jetson Orin平台上,通过评估1,942个候选架构并实际训练170个代表性模型(每个训练100亿个token),拟合出了Scaling Laws[2] - 最终在与Qwen2.5-0.5B相同时延条件下,协同设计出的架构将模型困惑度降低了19.42%[2] 优化问题的数学表述(公式1) - 优化目标是在满足严格时延和内存约束的前提下,最小化模型的损失函数(即错误率)[4][5] - 损失函数 \(L(\theta)\) 取决于模型架构参数集合 \(\theta = (l, d, d_m, r, \rho)\),分别代表层数、宽度、KV缓存维度、FFN扩展比和专家激活率[6][8] - 约束条件包括:推理时延 \(T(\theta, \Pi, C) \leq T_{\text{max}}\) 和内存占用 \(M(\theta, \Pi, C) \leq M_{\text{max}}\),其中 \(\Pi\) 为硬件参数,\(C\) 为工作负载配置[9] 模型性能预测器(公式2) - 公式 \(\hat{L}(\theta)\) 是一个预测器,允许工程师在不实际训练的情况下,通过代入架构参数快速估算模型的最终错误率,极大加速架构搜索[11][12] - 预测公式由五项相加组成,分别代表不同架构因素对错误率的贡献[13] - 深度贡献项:与层数 \(l\) 的 \(\alpha_l\) 次方成反比(\(\alpha_l \approx 0.34\)),层数越多,错误率贡献越低[13] - 宽度与稀疏度交互贡献项:涉及宽度 \(d\)、稀疏度 \(\rho\) 及拟合系数(\(\kappa_\rho=500, \alpha_\rho=0.73, \beta_1=0.51\)),揭示了二者复杂的耦合关系需要协同调整[13] - FFN扩展比与宽度联合贡献项:与 \(r \cdot d^{\beta_2}\) 成反比(\(\beta_2 \approx 0.28\)),FFN越宽、模型越宽,错误率越低[13][15] - KV缓存维度贡献项:系数 \(\kappa_{md}\) 极小(0.05),表明其对模型精度影响微弱,但对内存占用影响大,需谨慎权衡[15] - 基础错误项 \(L_\infty\):代表由数据噪声和任务内在不确定性决定的理论错误下限[16] 时延上限模型(公式3) - 公式3基于Roofline模型,用于估算模型在特定芯片上的推理时延上限,是连接模型架构与硬件特性的核心桥梁[17][18] - 时延 \(T_{\text{roofline}}\) 由计算时间 \( \text{FLOPs}(\theta, C) / F_{\text{peak}} \) 和数据搬运时间 \( \text{Bytes}(\theta, C) / B_{\text{width}} \) 中的最大值决定,反映了计算与访存的瓶颈[19][20][21] - 论文指出,在当前边缘计算芯片上,大语言模型推理大多处于访存瓶颈状态,即内存带宽是主要限制因素[22] 架构设计指导法则(公式4) - 公式4推导出在内存受限的边缘设备上,模型宽度与稀疏度的最优配比法则:\(\rho^{*}\propto d^{\frac{\beta_{1}-\beta_{2}}{\alpha_{\rho}}}\)[23][25] - 代入拟合系数(\(\beta_1=0.51, \beta_2=0.28, \alpha_\rho=0.73\))后,指数约为 -0.315,表明模型设计得越宽,其最佳稀疏度应越高(即激活的专家比例越低)[26] - 量化指导:当模型宽度 \(d\) 翻倍时,最优激活率 \(\rho^*\) 应降低约2.3倍[26] - 这一反直觉的结论指出,在内存预算有限时,应通过增加总专家数但降低激活率(使用更稀疏的MoE)来换取更高模型容量,而非单纯增加宽度[24] 对马赫100芯片的推断 - 马赫100芯片采用数据流架构,从底层为AI大模型推理设计,重点优化内存带宽,追求有效算力而非峰值算力[27] - 基于Roofline模型,在边缘设备上运行大模型时,内存带宽 \(B_{\text{width}}\) 常是瓶颈,峰值算力 \(F_{\text{peak}}\) 难以完全发挥[27] - 公司声称马赫100跑VLA大模型时有效算力是英伟达Thor-U的3倍,这暗示其通过优化内存带宽、片上缓存和数据通路,实现了远高于通用芯片的硬件利用率(马赫100峰值算力1280 TOPS vs Thor-U约700 TOPS)[27] - 自研编译器是软硬协同的技术中枢,负责调度数据驱动逻辑并定义芯片功能模块,实现了将高级AI模型代码最优化映射到数据流硬件上,支持灵活集成如3D ViT等新型计算模块[28]
OpenClaw多平台部署与投研应用
广发证券· 2026-02-28 22:45
量化模型与构建方式 本报告主要介绍AI智能体OpenClaw的部署与应用,并未涉及传统意义上的量化模型或量化因子构建。报告内容聚焦于如何利用OpenClaw这一工具平台,通过安装和调用特定的“技能”(Skills)来执行金融投研任务[3][48]。报告本身未提出新的量化模型或因子,而是展示了使用该工具实现数据获取、条件选股、技术分析等功能的流程。 量化因子与构建方式 本报告未提出或构建新的量化因子。 OpenClaw 技能与构建方式 报告详细介绍了如何利用OpenClaw平台安装和使用多种投研相关的“技能”(Skills),这些技能可以视为实现特定量化分析功能的工具模块。 1. **技能名称:Stock Watcher** * **技能构建思路**:该技能旨在通过自然语言指令,实现对自选股的实时行情监控与数据获取[58]。 * **技能具体构建过程**:该技能并非由报告作者构建,而是从OpenClaw官方技能生态社区ClawHub获取并安装[52]。用户通过与OpenClaw对话,下达指令“请帮我安装并启用这个技能:https://clawhub.ai/Robin797860/stock-watcher”,即可完成安装[58]。安装后,技能自动加载到OpenClaw工作区,用户可通过自然语言对话调用其功能,如添加自选股、查看行情、获取涨跌幅等[58][63]。当默认数据源(如同花顺)出现问题时,OpenClaw会灵活地自动切换至备用数据源(如新浪)以完成指令[62]。 2. **技能名称:Technical Analyst** * **技能构建思路**:该技能旨在对K线图进行自动化技术分析,并生成详细的分析报告[75]。 * **技能具体构建过程**:该技能同样从ClawHub社区获取。用户通过指令调用该技能分析指定的K线图文件(如“k线图.png”)[77]。技能执行后,会输出包含趋势判断、强度评估、关键位置、情景分析概率分布等要点的分析结果,并将完整分析报告保存至本地指定路径[77]。 3. **技能名称:read_file(基础系统技能)** * **技能构建思路**:作为OpenClaw的基础系统技能,用于演示其“技能”模块如何通过标准化接口,让大语言模型安全地操作本地系统[51]。 * **技能具体构建过程**:该技能体现了OpenClaw技能的双层架构设计[51]: * **接口声明层**:面向大语言模型,通过OpenAPI规范定义技能功能(如读取文件)和必填参数(如文件路径`file_path`)。大模型在需要时会输出包含这些参数的结构化指令[57]。 * **物理执行层**:面向宿主机,OpenClaw核心调度器接收并解析结构化指令,将其转化为宿主机环境(如Python)下的真实I/O操作,执行读取文件等动作[57]。 * **反馈闭环**:执行结果(文件内容或错误信息)作为“观察结果”反馈给大模型,驱动其进行后续决策[57]。 4. **复合技能应用:条件选股与回测** * **应用构建思路**:结合数据获取与数据处理能力,通过自然语言指令实现多条件选股并对结果进行简单回测[65]。 * **应用具体构建过程**:用户在安装数据类技能(如Stock Watcher)后,可直接向OpenClaw下达复合指令。例如:“选择合适的数据源,获取最新数据对自选股列表进行条件选股:总市值小于1000亿元,市盈率为正且小于100倍。并回测所选个股的等权组合在过去20个交易日的收益率”[65]。OpenClaw会解析该指令,调用相应技能获取数据,执行筛选逻辑,并计算回测收益率。 5. **复合技能应用:财报分析** * **应用构建思路**:利用OpenClaw自动选择并调用合适的工具(如文档解析技能)来读取和分析本地财务文档[71]。 * **应用具体构建过程**:用户下达指令如“用合适的工具读取目录下的‘某公司财报.pdf’文件,并客观总结”[71]。OpenClaw会自动选择合适的技能(可能是内置或已安装的文档处理技能)来读取PDF文件,并调用大模型对内容进行总结。 6. **复合技能应用:复杂代码工程** * **应用构建思路**:利用OpenClaw的文件管理和大模型代码生成能力,根据需求文档构建结构化的量化因子计算代码工程[74]。 * **应用具体构建过程**:用户通过指令指定任务,例如:“基于目录下的‘cne-6公式.pdf’文件,编写barra cne6因子的python实现代码。我希望所有代码文件保存在新建的‘cne6’文件夹中,并实现合理的代码结构和分层级目录...”[74]。OpenClaw会读取参考文档,生成符合要求的、具有分层结构的多个Python脚本文件,并保存到指定目录。 模型与因子的回测效果 本报告未对任何量化模型或因子进行回测,因此没有相关的回测效果指标数据。报告展示的“条件选股与回测”示例,其回测结果(过去20个交易日等权组合收益率)是单次指令执行的输出示例,并非系统性的历史回测绩效指标[65]。
【广发金工】OpenClaw多平台部署与投研应用
广发金融工程研究· 2026-02-28 22:41
文章核心观点 - 文章旨在深入解析新兴的AI智能体OpenClaw在多平台的具体部署方案,并全面展示其在投研场景中的进阶应用,以提升投研效率 [1][2][4] OpenClaw的优势 - **创新的跨平台交互**:允许用户通过飞书、钉钉、WhatsApp、Telegram等主流即时通讯软件实现去中心化的远程控制,降低使用门槛并提高远程可用性 [2][5] - **强大的本地执行力**:具备系统级操作权限,能够自动执行代码审查、文件整理、邮件处理、日程管理等复杂的本地任务,显著提升人机协同生产效率 [2][5] - **坚实的隐私保障**:采用“本地优先”架构,可完全部署在用户的个人硬件设备上,所有敏感信息、配置及交互历史均加密存储在本地物理硬盘,从根本上阻断数据外泄风险 [2][6] - **持久的系统记忆力**:通过在本地生成并维护详细的会话日志与全局配置文件,突破传统大模型上下文丢失的限制,提供连贯且高度个性化的长期智能服务 [2][6] OpenClaw多平台部署 - **Windows平台部署**:建议使用适用于Linux的Windows子系统(WSL2)来满足OpenClaw对类Unix运行环境的底层需求,以规避跨平台适配问题,通过命令行可自动安装 [7][9] - **Mac平台部署**:建议先通过清华源安装包管理工具homebrew,由于MacOS本身为类Unix系统,剩余部署流程与WSL环境基本一致 [30] - **云端平台部署**:除了本地部署,还可以通过腾讯云、阿里云、百度云、火山引擎等云服务器实现快速一键部署 [34] - **模型与通信配置**:OpenClaw作为智能体中枢,可调用云端大模型(如通过SiliconFlow)或本地运行的大模型(如基于Ollama),并通过配置飞书等即时通信软件实现移动端使用 [11][16][18] OpenClaw投研应用 - **整体框架**:OpenClaw是一种高度模块化的智能体架构,以智能体核心为调度中枢,协同管理本地工作区、多模态接入渠道和技能工具箱,通过标准化的函数调用机制安全自主地操控外部系统 [36] - **技能机制**:技能遵循“接口声明层”与“物理执行层”相分离的双层架构设计,用户可通过官方技能生态社区(ClawHub)检索、下载并集成各类定制化进阶技能,或通过自然语言指令直接安装技能 [39][42][45] - **接入金融数据**:通过安装ClawHub上的Stock Watcher技能(使用同花顺等作为数据源),可实现通过自然语言指令添加自选股、查看行情、获取技术分析和资金流向数据等功能 [46][49] - **条件选股**:在接入金融数据后,可通过自然语言指令进行条件选股,例如筛选总市值小于1000亿元、市盈率为正且小于100倍的股票,并对所选组合进行收益率回测 [52][54] - **文件管理**:OpenClaw可以直接参与宿主机环境下的真实文件I/O操作,实现任意的文件创建、搜索、更改、移动、读取等批量文件管理功能 [54][55] - **财报分析**:OpenClaw可自动选择合适的工具读取本地PDF财报文件,并提取关键财务指标进行客观总结,例如展示营业收入、净利润及其同比变化等数据 [56][57] - **复杂代码工程**:结合对本地环境的操作能力,OpenClaw可根据需求文档(如CNE6公式PDF)构建复杂的代码工程,自动生成具有合理分层目录结构和中文注释的多个Python脚本文件 [58][60] - **技术分析**:通过安装Technical Analyst技能,OpenClaw可对K线图图像进行技术分析,生成包括趋势判断、关键位置和情景概率分布在内的详细分析报告 [62][66][67]
大模型能力技术培训:让数据智能像水电 样简单
数巅科技· 2026-02-28 09:20
行业投资评级 - 报告未明确给出具体的行业投资评级 [1] 报告核心观点 - 大语言模型是包含百亿或更多参数的语言模型,其发展经历了基础模型、能力探索和突破发展三个阶段,以2022年11月ChatGPT的发布为标志进入突破发展阶段[3][32][36] - 大语言模型展现出涌现能力,如上下文学习、指令遵循和逐步推理,使其能够以少量样本处理复杂的新任务,并作为基座模型支持多元应用[8][9][11] - 大语言模型通过预训练、有监督微调、奖励建模和强化学习等阶段训练而成,其巨大的参数量(十亿到万亿级)和分布式训练技术是关键支撑[12][59][99] - 该技术对自然语言处理、信息检索、计算机视觉、AI Agent乃至通用人工智能(AGI)的发展产生了深远影响,并催生了以对话为统一入口的全新应用范式[7][10] - 行业已形成开源与闭源模型并存的格局,国内外多家科技公司发布了具有竞争力的大语言模型产品[4][38][39] 语言模型技术发展历程 - **早期发展**:语言模型于上世纪90年代出现,采用统计学方法;2003年首次融入深度学习思想;2018年Transformer架构的提出是关键转折点[4] - **预训练时代**:2018年,BERT和GPT-1开启了预训练语言模型(PLM)时代;2020年,拥有1750亿参数的GPT-3发布,开启大语言模型新时代,并引入了缩放法则,指出模型性能随参数、数据量和计算量的指数增加而线性提高[26][28][33] - **发展三阶段**: - **基础模型阶段(2018-2021)**:研究聚焦于模型结构本身,参数量在10亿以上的模型因微调计算量大,影响力初期受限[32] - **能力探索阶段(2019-2022)**:探索无需任务特定微调即可发挥大模型能力的方法,如语境学习(ICL)、指令微调,并出现了InstructGPT等算法[34][35] - **突破发展阶段(2022年11月起)**:以ChatGPT发布为起点,模型展现出强大的通用对话和任务处理能力,GPT-4进一步具备多模态能力,在基准考试中得分高于88%的应试者[36][37] - **核心模型演进**:从基于n-gram的统计模型,到神经语言模型(NLM),再到基于Transformer的大规模预训练语言模型(PLM),最终发展为参数量巨大的大语言模型[13][23][26] 大语言模型核心特性与能力 - **关键特性**:参数规模巨大(十亿至万亿),采用预训练与微调范式,具有上下文感知、多语言与多模态支持能力,但同时也面临生成有害内容、隐私、幻觉等伦理与风险问题[12] - **涌现能力**:包括上下文学习(ICL)、指令遵循和逐步推理(思维链),这些能力使其成为全新的AI范式,能够缩短具体应用的开发周期并提升效果[8][11] - **基座模型能力**:作为基座模型支持多元化的下游应用开发[9] - **统一入口能力**:支持以对话作为完成各类任务的统一入口,即Conversation as a Platform[10] 主要大语言模型产品(国内外) - **国外闭源模型**: - **GPT系列(OpenAI)**:GPT-3参数量1750亿,预训练数据量3000亿Token;ChatGPT基于GPT-3.5/GPT-4;GPT-4具备多模态能力,推测参数量达1.8万亿,上下文窗口达128k Token[4][39][43] - **Claude(Anthropic)**:Claude 2上下文窗口扩展到200K Token,擅长长文档处理与结构化数据输出[44] - **PaLM 2(Google)**:PaLM参数量5400亿,PaLM 2是其升级版,已部署于25个Google产品中,其Bard为会话应用[4][45] - **国内闭源模型**: - **文心一言(百度)**:基于参数量达2600亿的文心大模型,具备知识增强、插件机制等特点[4][47][48] - **讯飞星火(科大讯飞)**:3.0版本包含1700亿参数,支持多模态功能,并发布了支持私有化训练的“星火一体机”[4][49] - **通义千问(阿里巴巴)**、**腾讯混元**、**360智脑**等[4][39] - **开源模型**: - **LLaMA系列(Meta)**:参数规模从7B到70B,LLaMA-65B训练消耗超过102万GPU小时,LLaMA 2参数量达700亿[38][51][99] - **ChatGLM(智谱AI/清华)**:GLM3支持32K上下文长度,采用Multi-Query Attention提升推理速度[53] - **通义千问(阿里巴巴)**:开源70亿(7B)和140亿(14B)参数版本[56] - **Baichuan(百川智能)**:开源7B和13B参数模型,Baichuan-13B基于1.4万亿字符训练[57] 大语言模型训练技术 - **训练流程**:主要包含四个阶段:预训练、有监督微调(指令微调)、奖励建模和强化学习[59] - **预训练**: - 使用互联网网页、维基百科、书籍等海量数据,构建数千亿至数万亿单词的语料库,在数千块GPU上耗时数十天完成[61] - 数据需经过严格过滤,例如GPT-3将45TB的Common Crawl数据过滤至570GB使用[63] - **有监督微调(SFT)**:使用包含用户提示和理想输出的高质量小数据集对基座模型进行微调,使模型具备初步的指令理解与泛化能力,此类模型包括Alpaca、Vicuna、ChatGLM-6B等[67][71] - **奖励建模(RM)**:训练一个二分类模型,用于对同一提示下SFT模型的不同输出结果进行质量排序,为强化学习提供奖励信号[72] - **强化学习(RL)**:基于奖励模型,通过强化学习算法(如PPO)进一步优化SFT模型的参数,使模型生成更高奖励的文本,最终得到如ChatGPT、Claude等系统,但该方法存在稳定性挑战[76] - **分布式训练**: - 因模型与数据量巨大,必须采用分布式训练。例如,OPT使用992块A100 GPU训练近2个月;BLOOM使用384块A100 GPU训练3.5个月[64][99] - 并行策略包括数据并行(DP)、流水线并行(PP)和张量并行(TP),大模型训练通常混合使用这些策略[105][106][114] - 采用ZeRO优化器、混合精度训练等技术来优化内存占用,例如1750亿参数模型若使用FP16格式,模型状态需占用120GB内存[117][121] - **长文本建模**:为处理长文本,采用增加上下文窗口微调、改进位置编码(如ALiBi)或插值法来扩展模型的上下文处理能力[151] 大语言模型应用与生态 - **技术影响**:推动自然语言处理(文本理解与生成)、信息检索(智能搜索)、计算机视觉(文生图)、AI Agent(智能助理、数字人)等领域发展,并被视为通用人工智能(AGI)的早期形式[7] - **应用开发框架**:LangChain等框架简化了大语言模型应用开发,提供模型I/O、数据连接、智能体等标准化接口[177][178] - **提示与语境学习**:提示学习(Prompt-based Learning)和语境学习(In-Context Learning, ICL)成为使用大模型的新范式,无需参数更新即可让模型适应新任务[139][143] - **高效微调技术**:如LoRA,通过引入少量可训练参数来高效微调大模型,节省计算资源[149] - **思维链与任务分解**:思维链提示和由少至多提示等策略能显著提升大模型在复杂推理和规划任务上的表现[172][175]
贝索斯豪赌工业AI!旗下“普罗米修斯”启动百亿美元级融资
华尔街见闻· 2026-02-27 21:09
项目概况 - 杰夫·贝索斯旗下人工智能实验室正在推进代号为“普罗米修斯”的项目,计划打造一个专门收购受AI技术影响的工业企业的控股平台,这是押注AI颠覆实体经济的最大规模行动之一 [1] - 该项目已于去年底完成62亿美元融资,此轮融资对应估值约为300亿美元(不含本轮新募资金)[1] - 公司目前正就设立一家新控股公司展开早期融资谈判,该控股公司定位为“制造业转型载体”,计划凭借数百亿美元资金收购传统工业企业 [6] 领导团队与治理 - 杰夫·贝索斯担任公司联席首席执行官,这是他自2021年卸任亚马逊CEO以来首次出任管理职务,并深度参与公司日常运营 [3] - 联合领导团队包括前谷歌高管Vikram Bajaj,联合创始团队还包括前微软研究科学家Christian Bodnar以及前谷歌DeepMind研究员Nal Kalchbrenner [3] - 西雅图ARCH风险合伙公司创始人Robert Nelsen参与了此轮融资并出任董事,他曾预言普罗米修斯将成为“世界上最重要的公司之一” [3] 技术战略与布局 - 公司的技术目标是构建超越大语言模型的新型AI系统,使其具备映射真实物理世界、理解设计与工程原理的能力 [2][4] - 技术应用重点瞄准喷气发动机、计算机芯片等复杂制造工艺,致力于大幅压缩生产周期、降低资源消耗 [4] - 公司已从相关工业领域采集数据用于训练AI系统,并招募工程师为设备零部件建立精准三维模型 [4] - 公司技术路径有别于李飞飞的World Labs和Yann LeCun的AMI Labs所研究的“世界模型”方向 [4] - 公司已完成对初创企业General Agents的收购,并引入了其创始人Sherjil Ozair和William Guss,两人均为前DeepMind及OpenAI研究人员 [4] 运营与人才 - 公司总部位于旧金山,在伦敦和苏黎世设有办公室 [3] - 公司目前已招募逾100名员工,人才来源涵盖OpenAI、谷歌DeepMind及Meta,技术专长横跨大语言模型、计算机视觉、天气预报及物理模拟芯片优化等多个领域 [3] 融资与资本运作 - 将AI技术与传统产业并购相结合的思路并非独创,但普罗米修斯所筹谋的规模远超Thrive Capital、General Catalyst等风险投资机构设立的同类并购工具 [5] - 公司正与包括阿布扎比投资局在内的多家主权财富基金接触,商议对新控股公司的投资事宜 [6] - 贝索斯正与摩根大通首席执行官Jamie Dimon洽谈投资合作,相关资金可能通过该行规模100亿美元的“安全与韧性倡议”基金投入 [6]
别让AI痕迹出卖你:深挖AIGC率检测原理,实测主流“降AI率”方案
新浪财经· 2026-02-27 12:58
行业:AIGC检测与规避技术 - 人工智能文本生成技术飞速发展,AIGC检测器已成为教育、出版和内容平台的标配工具 [2] - 当前主流AIGC检测器主要基于三种技术路线:基于统计特征的分类器、基于水印的技术、基于神经网络的端到端检测 [2][4] - 检测技术面临挑战:短文本(少于300字符)检测准确率显著下降,混合文本(部分人工改写)往往难以准确分类,不同领域、风格文本的检测效果差异明显,最新模型生成的文本可能绕过为旧模型设计的检测器 [4] 公司:降迹灵AI - 降迹灵AI是专业的降AI改写工具,采用多层级文本重构技术,包括语义层分析、认知模式模拟、个性化特征注入和检测器对抗训练 [8] - 实测数据显示,降迹灵AI在OpenAI检测器通过率达93-98%,在GPTZero的AI概率低于15%,在人类评审盲测中极少被识别为AI,核心信息保留度达90-95% [9] - 平台保证AIGC率高于20%会退款,价格只有市场其他工具的30% [9] 行业:降AI率工具市场 - 市场涌现了声称能“降低AI率”的工具,主要分为三大类:基础改写类工具、文体模仿类工具、专业降AI改写工具 [4] - 基础改写类工具(如QuillBot、Wordtune)通过同义词替换、句式重组工作,对基础检测器有效但对先进检测系统效果有限,AI率降低效果一般 [5][6] - 文体模仿类工具(如HIX.AI、AIHumanizer)旨在将文本“翻译”成特定风格以掩盖AI特征,对多数检测器效果明显 [6][7] 行业:应用场景策略 - 针对学术写作与论文,建议优先考虑专业降AI工具(如降迹灵AI)加人工深度编辑,并增加个人研究见解和领域特定“行话” [9] - 针对商业内容与营销文案,建议优先考虑文体模仿工具加品牌声音校准,并强化品牌特有词汇和行业案例 [9] - 针对创意写作与文学创作,建议以人工重写为主、工具辅助为辅,注入个人经历元素并创造独特比喻 [9] - 针对日常沟通与邮件,建议使用基础改写工具加个性化调整,添加收件人特定信息并保持自然语气 [9] 行业:未来发展趋势 - 下一代AIGC检测器可能结合写作过程数据或多模态线索进行判断,对当前降AI工具提出新挑战 [9] - “AI初稿+人工精修”的混合写作模式正成为许多领域的标准工作流,未来工具可能更注重增强人类创造力 [10] - 各行业正在建立AI使用的明确规范,透明标注AI参与程度可能成为新的标准做法 [10] - 个性化AI助手可能崛起,能够学习特定用户的写作习惯和风格,生成更个性化的文本 [10]
中国机器人在跳舞,美国机器人在发论文
远川研究所· 2026-02-26 21:17
文章核心观点 - 中美两国在人形机器人产业发展路径上形成“硬件(中国)与软件(美国)”的默契分工,这一分工模式与先前的新能源汽车产业相似,双方基于各自的产业优势(中国制造、美国计算机科学)展开赛跑,但中国在软件环节的追赶速度正在加快,差距在快速弥合 [9][15][25][26] 中美机器人产业发展路径对比 - **中国主攻硬件**:产业界重点发展机器人硬件,机器人已能完成跳舞、拧螺丝等复杂动作,主机厂通过展示硬件能力“秀肌肉” [9][13] - **美国主攻软件**:产业重心集中在算法、模型等软件环节,致力于攻克机器人对物理规则的理解(空间智能),产品发布会更似学术研讨会 [9][15] - **发展共识与差异**:双方对机器人发展前景有共识,但科技树点向不同方向,中国凭借强大生产制造能力,美国依托深厚的计算机科学产业基础 [9] 人形机器人的核心技术构成 - **硬件是肉身**:硬件是完成一切复杂操作的基础,尤其关节方案决定机器人性能,如髋关节强度决定搬运重量,指尖关节决定操作精度 [13] - **软件是大脑**:软件算法让机器人理解真实世界的物理规则,决定执行动作的力度与方式,例如捏鸡蛋时施加的合适力度 [13] - **两者缺一不可**:硬件与软件共同构成人形机器人,两者既可共同进步,也可互为绊脚石 [13] 新能源汽车产业与人形机器人的关联 - **架构相似性**:两者主体架构均为“AI大脑+执行器”,依赖传感器、算力芯片、模型算法进行决策并驱动执行 [16] - **技术同根同源**:关键零部件技术通用,人形机器人关节是微缩版高性能电机,其电池组、电控技术复用了电动车技术 [16] - **产业跨界延伸**:在电动车上有所建树的公司(如特斯拉、小鹏、理想)均涉足或计划进入机器人/具身智能领域 [18] 供应链的体现与分工 - **中国供应链聚焦硬件**:机器人供应链活跃着汽车产业链公司,如三花智控(传闻拿下Optimus关节订单)、均胜电子(升级为汽车+机器人双轨Tier 1),它们凭借在汽车领域积累的实力为机器人提供核心零部件 [19] - **美国巨头提供软件与芯片支持**:英伟达提供专为机器人设计的算力芯片Jetson Thor(基于自动驾驶芯片Drive Thor架构),Waymo、谷歌等公司将自动驾驶相关技术(激光雷达、摄像头、模型)移植到机器人平台 [20] - **分工模式复刻**:此“中国硬件、美国软件”的供应链分工模式,与特斯拉(上海工厂负责制造、美国负责软件研发)的成功路径相似 [20][21][23] 中美各自的产业优势与人才流动 - **美国优势在软件与人才**:作为计算机科学发源地,在软件、互联网、芯片设计领域拥有巨头公司,吸引并培养全球顶级人才,为前沿技术输送人才预备役 [24] - **中国优势在制造与产业链**:强大的制造业是新兴市场的“前置产业”,为机器人等领域源源不断输送弹药和人才储备,并凭借低成本零部件帮助特斯拉Optimus目标成本降至约20000美元 [24] - **美国公司的战略选择**:美国高科技公司普遍利用软件构筑核心附加值和高利润率,将生产制造交由中国供应链,例如谷歌关闭机器人硬件部门Everyday Robots,全面转向算法研发 [25] 软件环节的竞争与差距变化 - **中国在软件环节加速追赶**:发达的互联网产业为自动驾驶、AI等领域贡献了人才储备,中国公司在软件上的能力正在提升,例如DeepSeek和字节的Seedance2.0引发关注 [25][26] - **关键技术差距快速弥合**:在人形机器人“大脑”的主流VLA技术路线上,中国公司跟进速度快,智元机器人ViLLA和小鹏VLA 2.0在谷歌、OpenAI发布相关技术后不久便落地,并做出了差异化改进 [26] - **未来竞争格局预判**:特斯拉CEO马斯克曾表示,在人形机器人领域,他担心全球前十名中除特斯拉外都将是中国公司,预示未来可能重现特斯拉在电动车领域被中国车企包抄的竞争局面 [26]
天数智芯涨超20%刷新上市新高 通用GPU市场具备广阔发展前景
智通财经· 2026-02-26 14:37
公司股价与市场表现 - 天数智芯股价单日涨幅超过20%,盘中高见287港元,刷新上市新高,收盘报285港元,涨幅19.52% [1] - 当日成交额达到3.7亿港元 [1] 行业背景与市场趋势 - AI发展,特别是大语言模型的兴起,推动算力需求大幅增长 [1] - 中国通用GPU市场快速扩张,2024年出货量达到160万片 [1] - 2022年至2024年,中国通用GPU市场出货量的复合年增长率为72.8% [1] - 预计市场将维持强劲增长,2025年至2029年出货量预计以33.0%的复合年增长率增长 [1] - 随着中国通用GPU公司出货量增速超越国际竞争对手,其国内市场占有率持续攀升 [1] 公司业务与产品 - 天数智芯提供针对不同行业的通用GPU产品及AI算力解决方案 [1] - 公司产品组合主要包括通用GPU芯片及加速卡,以及定制AI算力解决方案(包括通用GPU服务器及集群) [1] - 天数智芯通用GPU产品涵盖天垓及智铠系列,兼容国内外主流AI生态以及各类深度学习框架 [1] 公司战略与技术发展 - 公司于今年1月公布了四代芯片架构路线图,预期于2027年超越英伟达Rubin架构 [1] - 公司同时推出了“彤央”系列边端算力产品 [1]
计算机行业周报:LLaDA2.1实现技术突破,Gemini3.1Pro树立多模态新标准-20260225
华鑫证券· 2026-02-25 18:25
报告行业投资评级 - 行业评级:推荐(维持) [1] 报告核心观点 - AI应用正从辅助工具转向实际商业化落地,下一阶段是行业深度定制,拥有行业数据壁垒的企业能够将通用大模型私有化,构建与业务深度绑定的Agent,从而构筑显著优势 [51] - 基于对AI应用垂直领域板块的看好,报告维持推荐评级,并建议中长期关注在算力、新能源、AI智能文字识别与工业软件等领域的相关公司 [52] 根据相关目录分别总结 1. 算力动态 - **算力租赁价格平稳**:上周(报告期内)算力租赁价格环比无变化。A100-40G配置中,腾讯云(16核+96G)价格为28.64元/时,阿里云(12核+94GiB)为31.58元/时;A800-80G价格为7.50元/时 [22][25] - **LLaDA2.1实现技术突破**:2026年2月,扩散语言模型LLaDA2.1发布,包含160亿参数(Mini版)和1000亿参数(Flash版)两个版本 [23] - **性能表现**:千亿参数版本在HumanEval+复杂编程测试中实现**892 Tokens/秒**的峰值推理速度 [23] - **技术创新**:通过三大技术破解速度与质量平衡难题:1) 可纠错编辑机制(ECE),实现“起草-编辑”逻辑;2) 单模型双模式设计(极速模式与质量模式);3) 首次将强化学习成功应用于百亿参数级扩散模型 [27] - **效率优势**:量化后的**LLaDA2.1-Flash**在HumanEval+基准上峰值速度达**891.74 Tokens/秒**,**LLaDA2.1-Mini**峰值速度高达**1586.93 Tokens/秒**,代码类任务吞吐率表现突出 [29] - **Tokens消耗与市场份额**:报告期内(2026.2.16-2.22)周度token调用量为**14T**,环比增长**7.69%**。市场份额方面,Google以**825B tokens**占据**18.9%** 份额居首,Anthropic以**644B tokens**占**14.8%** 位列第二 [14][15] 2. AI应用动态 - **Gemini访问量增长**:报告期内(2026.2.15-2.21),Gemini周平均访问量为**529.5M**,环比增长**+4.31%**,增速在主要AI应用中位列第一 [33][34] - **Gemini 3.1Pro树立多模态新标准**:2026年2月20日发布,在多个领域实现技术突破 [35] - **推理能力突出**:在ARC-AGI-2测试中取得**77.1%** 的高分,性能提升至上一代3.0Pro的**两倍有余**;在ARC-AGI-1测试中也接近满分,超越ClaudeOpus4.6和GPT-5.2等竞争对手 [35] - **编程与智能体任务领先**:在AAII综合评测中总分领先ClaudeOpus4.6多达**4分**,且API调用成本不到后者一半;在APEX-Agents智能体任务中以**33.5%** 的成绩领先 [36] - **长上下文处理能力强**:支持高达**100万Token**的超长上下文输入,在MRCRv2的128k长上下文测试中取得**84.9%** 高分 [40] - **低幻觉率**:相比前代模型,生成内容的准确性和可靠性有显著改善 [40] - **强大的多模态生成与整合能力**:能够根据文本提示生成SVG动画、整合复杂API接口构建实时数据看板、编写复杂的3D特效代码等 [43][45] 3. AI融资动向 - **WorldLabs完成10亿美元融资**:2026年2月,由李飞飞创立的世界模型企业WorldLabs完成**10亿美元**新一轮融资,投资方包括AMD、英伟达、Autodesk等,其中Autodesk单独出资**2亿美元**。公司此前谈判估值约**50亿美元** [46] - **资金用途**:将全部用于空间智能领域的技术研发与产品落地,加速布局机器人、AR/VR等核心应用赛道 [46] - **核心技术**:聚焦空间智能与大型世界模型,其旗舰产品Marble可多模态生成高保真、可编辑的3D世界,适用于媒体娱乐、机器人训练等场景 [47][48] 4. 投资建议与关注公司 - **行业趋势判断**:AI应用逐步融入并重塑企业核心业务流程,从辅助工具转向商业化落地。下一阶段是行业深度定制,通用大模型正向垂直行业工具渗透 [51] - **看好方向**:维持对AI应用垂直领域板块的看好,认为拥有行业数据壁垒的企业能构建难以被复制的优势 [51] - **建议关注公司**: - **迈信林 (688685.SH)**:加快扩张算力业务的精密零部件龙头 [52] - **唯科科技 (301196.SZ)**:新能源业务高增,并供货科尔摩根等全球电机巨头 [52] - **合合信息 (688615.SH)**:AI智能文字识别与商业大数据领域巨头 [52] - **能科科技 (603859.SH)**:深耕工业AI与软件,长期服务高端装备等领域头部客户 [52] - **公司盈利预测与评级**:报告对四家重点公司均给出“买入”评级,并提供了2024-2026年的EPS与PE预测 [53]
通达海:公司与Harvey AI不存在合作、授权或技术关联
格隆汇· 2026-02-25 15:56
公司澄清与技术定位 - 公司明确澄清与Harvey AI不存在任何形式的合作、授权或技术关联 [1] - 公司“海睿”法律大模型的核心理念是“自主可控、安全合规” [1] 产品技术与能力 - “海睿”法律大模型基于国内领先的通用大语言模型构建 [1] - 模型融合了公司自主研发的法律语义理解引擎与法律知识库 [1] - 模型针对行业用户的具体业务应用场景进行了进一步的精调训练 [1] - 模型具备文书智能生成、证据智能梳理、风险实时预警和类案裁判规则自动归纳等核心能力 [1] 业务覆盖与应用场景 - 产品覆盖执法办案、执法监督、司法办案、司法管理、诉讼服务等核心业务 [1] - 模型向立法、执法、司法、守法环节的相关场景开放智能能力 [1] - 目标用户包括法院、公安、政法委、司法行政、仲裁、纪委监委等行业用户 [1] - 公司正探索在公共法律服务领域的相关应用场景 [1] - 目标是为用户提供全链条、高可信的法律智能化支撑 [1]