量子位
搜索文档
一个指令误导智能模型!北航等首创3D语义攻击框架,成功率暴涨119%
量子位· 2025-10-23 11:52
核心观点 - 北京航空航天大学与中关村实验室团队提出全新框架InSUR,旨在解决人工智能模型安全对齐中的语义约束对抗样本生成问题 [2] - InSUR框架基于指令不确定性约简思想,实现独立于具体任务与模型的对立样本生成,其工作已入选NeurIPS 2025 [2] - 该框架首次实现了3D语义约束对抗样本生成,为自动驾驶、具身智能等安全关键系统生成高逼真度对抗测试场景提供了新思路 [6][45] 技术框架与创新点 - InSUR框架从“采样方法”、“任务建模”、“生成器评估”三个维度突破,实现“可迁移、可适应、高效能验证”的SemanticAE生成 [9] - 针对人类指令中固有的不确定性导致的三大痛点(指称多样性、描述不完整性、边界模糊性),框架提供了相应解决方案 [8][14] - 框架整体采用扩散模型实现,并在对抗采样器、上下文编码和生成器评估上引入新机制 [11] 采样方法创新 - 设计了残差引导的对抗DDIM采样器(ResAdv-DDIM),解决扩散模型对抗采样问题 [12] - 通过“粗预测语言引导的采样过程”,提前锁定对抗优化方向,避免不同采样步骤中对抗特征优化方向反复跳跃 [12][15] - 加入L2范数约束,确保生成样本不偏离指令语义,显著提升对抗迁移能力与鲁棒性 [16][20] 任务建模突破 - 引入任务目标嵌入策略,实现更好的2D语义约束对抗样本生成,并首次实现3D语义约束对抗样本生成 [22] - 在2D生成中,通过差异化引导掩码控制扩散模型生成内容的语义引导空间分布 [23][26] - 在3D生成中,整合可微分渲染管线,包含3D高斯泼溅渲染器、可微渲染器和ResAdv-DDIM嵌入 [27][29][31] 评估体系构建 - 提供自动评估的任务构建方法,利用WordNet分类体系提升抽象层次来重新构建评估标签 [28][32] - 提出非对抗性样本生成子任务,要求生成对抗样本同时生成可被正确分类的“范例”样本 [33] - 定义相对攻击成功率和语义差异度指标,若在两个指标上都获得高分可充分证明生成器性能 [34] 实验结果 - 在2D SemanticAE上,InSUR在4种代理模型和2种任务设置中,所有目标模型至少实现1.19倍平均ASR提升和1.08倍最小ASR提升 [40] - 在3D SemanticAE生成中,InSUR方法攻击成功率达到92.2%,而非对抗性基线仅为45.1% [42] - 可视化结果表明InSUR生成的对抗样本在迁移攻击性、真实性方面展现出显著优越性 [43][44] 应用前景 - InSUR设计与具体模型和任务解耦,展现出良好可扩展性,为测试时的红队评估框架提供新思路 [45] - 可作为高质量对抗训练数据生成器,利用扩散模型生成的“困难样本”反向提升模型鲁棒性 [45] - 未来可与现有3D场景生成管线集成,应用于自动驾驶、具身智能体等安全关键系统 [45][46]
不改模型也能提升推理性能?ICLR投稿提出测试时扩展新范式OTV
量子位· 2025-10-23 08:08
文章核心观点 - 提出一种名为单token验证(OTV)的新机制,旨在不改变原始模型参数的前提下,实现对大语言模型推理过程的实时自主监控[2] - OTV通过利用模型内部的键值缓存(KV Cache)和轻量级的LoRA角色向量,使模型能够边推理边判断自身推理的正确性[8][9] - 该方法在多个模型规模和高难度数学推理数据集上的实验显示,其准确率全面领先于现有主流基线方法,并能显著降低计算开销[14][15][17] 现有主流范式的局限性 - LoRA微调虽参数高效且便于部署,但依赖详细监督数据并可能引发遗忘效应[3] - 后置验证器通过对生成结果进行质量筛选来增强可信度,但纠偏滞后且无法窥探内部推理过程[4] - RLVR(可验证奖励强化学习)节省标注成本,但流程复杂、计算代价高昂,难以普及[6] OTV机制的技术原理 - 核心是利用Transformer架构的键值缓存(KV Cache)作为完整的推理轨迹记录,捕捉模型内部动态最丰富的信息源[9] - 通过插入特殊"ToT"(Token of Truth)token,使其与整个序列的KV缓存进行注意力交互,从而回顾整条推理路径[9][11] - 内部验证器由一个LoRA实现的轻量角色向量和一个轻量回归头构成,输出0~1之间的正确性评分[9][10] OTV的训练与效率 - 训练目标以最终答案正确性为信号,为每个生成token分配启发式伪标签(正确路径得分从0.5线性增至1,错误路径递减至0)[10] - 训练流程高度并行,计算成本与传统LoRA微调相当[10] - 验证一次仅相当于模型多生成一个token的计算量,过程极其高效[9] 实验验证结果 - 在Qwen3-4B、Qwen3-8B、DAPO-Qwen-32B等模型上,使用AIME数据集测试,OTV在加权多数投票设置下稳定超越所有基线[14][15] - 具体表现为:在Qwen3-4B-Instruct-2507模型上,AIME24准确率达83.33%,AIME25达69.32%;在DAPO-Qwen-32B模型上,AIME24达70.83%,AIME25达49.58%[16] - 在高效推理设置下,OTV的"HALF 300"策略在计算量减少近90%的前提下,仍能保持最优或接近最优的准确率[17][19] OTV的优势与潜力 - 评分信号更稳定、真实且具有区分度,能清晰区分正确(红色轨迹稳定上升)与错误(绿色轨迹被压制)的推理路径[20][22][24] - 赋予模型动态控制计算开销的能力,可实时淘汰低质量路径,节省不必要的计算[17] - 未来潜力包括扩展为引入"不确定"状态的三元系统、具备安全控制潜力以终止高风险路径生成,以及推广至不同架构模型[25][26]
Meta AI大裁600人,亚历山大王操刀重点砍向LeCun团队
量子位· 2025-10-23 08:08
公司重组与裁员 - Meta AI部门进行大规模重组,计划从超级智能实验室裁掉600名员工[1] - 由新任首席AI官亚历山大王操刀,旨在解决部门过于官僚化的问题,以创建更敏捷的运营模式[5] - 裁员涉及FAIR实验室、AI产品部门和基础设施部门,而新成立的TBD Lab则毫发无损且仍在招人[1][2] 组织架构与战略调整 - 公司成立新组织TBD Lab,该部门不仅未受裁员影响,还从Thinking Machines和OpenAI等公司积极招募人才[2] - 从2023年初至近期,Llama 2、3和4项目由GenAI组织负责,现已移交至TBD Lab管理[12] - 公司实施新政策,要求FAIR实验室对外发表论文前必须经过TBD Lab审核,若论文价值大则需优先推动成果在产品中落地[9] 关键人物动态与观点 - 公司CEO对AI进展感到焦虑,担心近期未有突破或性能改进[8] - 新任首席AI官对公司的模型训练、计算计划和产品构建表示兴奋,并对迈向超级智能的道路充满信心[8] - FAIR首席科学家Yann LeCun澄清自己与Llama项目无关,仅间接参与Llama-1并推动Llama-2开源,其工作重点在于下一代超越大语言模型的AI系统[12] - 新论文审核政策对坚持学术自由的LeCun造成冲击,有消息称其可能因此辞去FAIR首席科学家职务[9][10]
用激光给芯片散热,摩尔定律天花板盖不住了
量子位· 2025-10-23 08:08
文章核心观点 - 初创公司Maxwell Labs提出了一种革命性的芯片散热技术——光子冷却,该技术利用激光和反斯托克斯荧光原理,将芯片热点处的热能直接转化为光能并移除,从而实现对芯片的精准高效冷却[4][5] - 该技术相比传统风冷、液冷具有显著优势,包括更高的散热功率密度、精准定位热点、有望解决暗硅问题、提升时钟频率、助力3D芯片堆叠散热以及回收废能,预计将在2027年后开始在高性能计算和人工智能领域落地应用[5][7][27][33][34] 光子冷却技术原理 - 技术基础基于**反斯托克斯冷却**物理现象:使用特定波长的激光照射特殊材料,材料吸收低能光子并结合晶格振动(声子)后,发射出更高能量的光子,在此过程中材料自身温度降低[9] - 实现冷却的关键在于确保发射出的高能光(荧光)能迅速逸出材料,避免被重新吸收导致温度回升[10] - Maxwell Labs将这一原理集成到**薄膜芯片级光子冷板**上,该冷板尺寸约为一平方毫米,平铺于芯片基板顶部,用于实现局部热点的光子冷却[11][14] 光子冷板系统构成 - **耦合器**:透镜组件,负责将入射激光聚焦到微制冷区域,并将载热荧光引导出芯片[14] - **微制冷区域**:实际发生反斯托克斯冷却的部位[14] - **背反射器**:防止入射激光和荧光直接照射到CPU或GPU[14] - **传感器**:检测热点的形成,协助将激光引导至热点[14] - 系统工作流程:外部热像仪感应芯片热点,触发激光照射热点旁的光子冷板,激发荧光过程并提取热量[14] - 研究人员正通过多物理场仿真和逆向设计工具优化参数,目标是将冷却功率密度再提高两个数量级[16] 芯片散热行业背景与现有方案 - 芯片散热需求紧迫,源于晶体管密度和功率密度持续上升,过热会严重影响性能、可靠性与寿命[17][18] - 行业现有解决方案主要围绕两个方向:**加快热量导出**与**减少热量产生**[19] - **加快热量导出**:采用高导热材料(如单晶SiC、金刚石)、设计内部热通道增加散热面积[19] - **减少热量产生**:采用动态电压频率调节、功率门控、低功耗设计等技术[19] - 主要厂商动态: - **英特尔**:升级封装技术,采用带垂直通道的连接降低热产出,设计分段式集成热扩散器改善热导出效果[21] - **AMD**:针对嵌入式器件优化热界面材料,建议采用无金属封盖以最小化热阻[21] - **英伟达**:强调系统级液体冷却(如直触芯片/硅片冷却)及散热封装架构设计[23] - **台积电**:聚焦于热界面材料和硅集成微流控等封装解决方案[23] - **微软**:测试将微流体通道直接蚀刻到硅上的冷却系统,测试中可将GPU升温降低65%[24][25] 光子冷却技术的优势与潜在影响 - **散热效率更高**:初代实验装置的散热功率已比空气及液态冷却系统高两倍以上[27] - **解决暗硅问题**:可及时去除热点热量,允许芯片上更多晶体管同时全速运行,预计可激活目前因散热限制而必须关闭的80%芯片单元[27][28] - **提升时钟频率**:可将芯片温度持续保持在50°C以下(传统方式为90-120°C),低温环境有助于实现更高时钟频率,在不增加晶体管密度的情况下提升性能[29][30] - **助力3D芯片集成**:精准的局部冷却能力使得为3D堆栈的每一层添加光子冷板控温成为可能,简化3D芯片的热管理设计[31] - **降低系统能耗**:与空气冷却结合时,可使芯片总体能耗降低50%甚至更多[32] - **回收废能**:通过收集荧光并利用热光伏技术转化为电能,可实现高达60%的能量回收[33] - **应用前景**: - 预计2027年该技术将在高性能计算和人工智能集群中投入实用,使每瓦冷却性能提升一个数量级[33] - 2028至2030年,或完成主流计算中心部署,届时有望将IT能耗降低40%,同时计算能力翻倍,随后推广至边缘计算[34]
让LLM扔块石头,它居然造了个投石机
量子位· 2025-10-22 23:27
研究核心与平台介绍 - 研究团队开发了名为BesiegeField的新平台,作为大模型的“机械工程师训练场”,测试AI从零开始设计并制造可动复杂机器的能力[2] - 平台支持上百次并行实验,结合强化学习后,大模型可实现“自我进化”,从物理反馈中调整策略,学会结构设计的物理逻辑[2] - 核心方法为“组合式机械设计”,将机械结构限定在用标准零件组装范围内,把复杂设计简化为离散结构组合问题[4][5] - 平台运行于Linux集群,能同时进行数百个机械实验,并提供速度、受力、能量变化、投掷距离等完整物理反馈[9] - 模型在设计平台中形成生成→仿真→获取反馈→调整的闭环,即使不更新参数也能优化输出,引入强化学习后可系统性提升能力[11][12] 技术实现与工作流 - 采用类似XML的结构化表示机制,使机械设计变成语言模型擅长的结构生成任务[6] - 研究团队构建了“智能体工作流”,让多个AI角色协作,包括总设计师、结构设计师、审查员、反馈查询员和分析优化员[23][28] - 在多角色分层设计策略下,Gemini 2.5 Pro能根据仿真反馈识别具体结构问题并提出有效修改方案[27] - 对比数据显示,分层设计策略在投石机和小车任务上的平均分和最高分均显著优于单一模型或简单迭代策略[31][32] 性能表现与进化能力 - 人类设计的投石机投掷距离近200米,而大模型设计的产品常低于30米,差距体现在对结构协同和发力效率的理解[19][20] - 引入基于可验证反馈的强化学习策略,利用仿真反馈作为奖励信号指导模型改进[33][34] - 采用Pass@k Training方法对Qwen2.5-14B-Instruct模型进行微调,随着迭代次数增加,模型设计结构和投掷距离持续改善[34][35] - 在冷启动结合强化学习的策略下,模型在小车任务最高分达到45.72,投石机任务的平均分和最高分均为最优[37][38] 行业影响与未来展望 - BesiegeField代表了一种新的“结构创造范式”,将复杂机械设计转变为AI擅长的结构化语言生成任务[39][40] - 平台提供了任务难度可控、流程模块化、结果可定量评估的环境,是观察AI获得空间智能和物理智能的起点[40] - 未来展望AI能制造出可奔跑、搬运、协作的各种复杂结构,使语言模型真正具备创造可动物体的能力[40]
刚拿诺奖就登Nature封面!谷歌“量子回声”算法计算提速13000倍,可重复验证结果
量子位· 2025-10-22 23:27
研究突破核心 - 谷歌量子AI团队提出名为“量子回声”的新算法,该算法能够对量子计算结果进行重复验证,解决了量子计算结果难以确认的关键问题[1] - 该研究成果已发表在顶级期刊《自然》杂志上,并获得封面推荐[1][4] 性能优势与验证 - 在处理特定计算任务时,量子计算机仅用2.1小时即可完成,而经典超级计算机Frontier需要3.2年,量子计算速度提升达13000倍[2] - 量子回声算法在探测原子和粒子的相互作用以及分子结构方面得到验证,其结果与传统核磁共振结果相符,并揭示了通常无法从核磁共振中获得的信息[5][6] 技术原理与实验 - 算法核心是“非时序关联函数”,通过模拟时间倒流将已扩散的量子信息重新聚焦,能长时间观测量子系统细节[11][12][13] - 实验使用超导量子处理器,最多用到65个量子比特,二阶OTOC信号在演化20个周期后仍保持清晰,而传统方法信号在9个周期后几乎无法测量[14] - 实验观测到“大循环干涉”现象,该现象难以被经典计算机模拟,蒙特卡洛等经典模拟方法算出的信号信噪比仅为1.1,远低于量子实验的3.9[16][19] 应用前景 - 该技术被类比为“量子镜”,有望在药物研发领域成为强大工具,助力确定潜在药物如何与其靶点结合[7] - 在材料科学领域,该技术可用于表征聚合物、电池组件乃至量子比特材料等新型材料的分子结构[7] - 算法演示了在实际问题中的应用,如通过“哈密顿量学习”精准反推量子系统的内部作用规律,误差很小[21][23] 硬件基础与未来规划 - 此次突破依赖Willow芯片的硬件优势,其在105个量子比特阵列中实现了顶尖性能:单量子比特门保真度达99.97%,纠缠门保真度达99.88%,读出保真度达99.5%[23] - 谷歌量子团队未来将聚焦研发“长寿命逻辑量子比特”,为构建更大规模、可纠错的实用量子计算机奠定基础[26]
智谱运气是差一点点,视觉Token研究又和DeepSeek撞车了
量子位· 2025-10-22 23:27
行业技术动态 - 智谱AI在DeepSeek发布DeepSeek-OCR后不到一天即开源了自家的视觉Token方案Glyph,显示出行业在视觉压缩技术领域的激烈竞争[1][2] - 视觉Token技术正成为AI领域的新趋势,截至10月22日,抱抱脸上最受欢迎的前四个模型全部支持OCR功能[70] 长上下文处理的技术挑战 - 随着大语言模型能力提升,用户和厂商对长上下文的需求日益迫切,但扩充上下文会导致算力消耗呈指数级增长,例如从50K扩展到100K,算力消耗约为原来的四倍[8][9] - 单纯增加Token数量并不能保证模型表现线性提升,输入过长可能导致模型受到噪声干扰和信息过载[12][13][14] - 当前主流解决方案包括扩展位置编码、改造注意力机制和检索增强RAG,但各自存在推理成本高、效率提升有限或响应速度慢等局限性[15][18][21][23] Glyph技术方案的核心创新 - Glyph采用将文本渲染成图像的新范式,利用图像更高的信息密度实现Token压缩,仅需一个视觉Token就能容纳原先需要好几个文本Token的内容[25][26][30] - 该方案使固定上下文的视觉语言模型能够处理超长文本,例如将240K文本Token的《简·爱》压缩至约80K视觉Token,让128K上下文的模型可以处理完整内容[32][34][36] - 训练流程分为持续预训练、LLM驱动的渲染搜索和后训练三个阶段,通过遗传算法优化渲染参数,并在SFT和RL阶段加入辅助OCR对齐任务[37][39][43][44] 技术性能表现 - Glyph在多项长上下文基准测试中实现了3-4倍的Token压缩率,同时保持与主流模型相当的准确度[49] - 该技术带来约4倍的prefill与解码速度提升,以及约2倍的SFT训练加速,显著减轻算力负担[51] - 在极端压缩情况下,128K上下文的视觉语言模型能够应对相当于百万Token级的文本任务[60] 视觉Token的行业影响 - 视觉Token技术大幅提升处理效率,DeepSeek-OCR仅用100个视觉Token就能在原本需要800个文本Token的文档上取得97.3%的准确率[72] - 效率提升显著降低AI应用门槛,单张NVIDIA A100-40G GPU每天可处理超过20万页文档,仅需一百多张卡即可完成一次完整的模型预训练[74][75] - 视觉Token可能从底层重塑大语言模型的信息处理方式,未来像素可能取代文本成为下一代AI的基本信息单元[76][77]
清华联手英伟达打造扩散模型新蒸馏范式!视频生成提速50倍,4步出片不穿模
量子位· 2025-10-22 17:12
技术突破:分数正则化连续时间一致性模型 (rCM) - 清华大学与NVIDIA联合提出全新大规模扩散模型蒸馏范式,即分数正则化连续时间一致性模型 (rCM) [3][5] - 该方法首次将连续时间一致性蒸馏成功扩展至百亿参数级别的文生图和文生视频模型,解决了现有方法在真实应用场景中的瓶颈 [3] - 通过引入前向-反向散度联合优化框架,rCM在大幅提升推理速度的同时,兼顾了生成结果的高质量与高多样性 [4] 性能表现:推理速度与生成质量 - rCM将教师模型上百步的采样过程压缩至1-4步,实现了15-50倍的推理加速 [20] - 在T2I任务的GenEval评测和T2V任务的VBench评测中,4步采样的rCM模型在多个指标上追平甚至超越了需要数百步采样的教师模型 [21] - 即便在1-2步的极限采样设置下,rCM依然能产出高质量、细节丰富的图像和视频,对于简单的图像提示词只需1步生成,复杂的图像和视频则需2-4步 [31] 模型对比与实验数据 - 在Wan2.1 T2V 1.3B模型上,4步采样的rCM模型总得分(Total Score)为84.43,质量得分(Quality Score)为85.38,语义得分(Semantic Score)为80.63,与教师模型(50步采样,总得分83.02)相比性能更优 [23] - 在Wan2.1 T2V 14B模型上,2步采样的rCM模型总得分达到85.05,质量得分85.57,语义得分82.95,超越了50步采样的教师模型(总得分83.58) [23] - 在Cosmos-Predict2 TI2V 2B模型上,4步采样的rCM模型T2V得分为84.40,相比教师模型(83.03)有所提升,同时吞吐量从0.32 FPS提升至4.6 FPS [23] 技术原理与优势 - rCM在连续时间一致性模型(sCM)的基础上,引入了基于分数蒸馏的反向散度作为正则项,构建前向-反向联合蒸馏框架 [18] - 前向散度保证生成结果的高多样性,反向散度强制模型聚焦于高质量数据区域以提升生成质量,联合优化实现了质量与多样性的“双赢” [19][22] - 相较于先前的SOTA蒸馏方法DMD2,rCM生成的视频内容展现出明显更高的多样性,有效避免了“模式坍缩”问题 [25] 工程实现与应用前景 - 团队通过自研FlashAttention-2 JVP CUDA算子并兼容序列并行等分布式训练策略,成功将连续时间一致性蒸馏应用到Cosmos和Wan2.1等业界领先的大模型上 [13] - rCM提供了一个无需多阶段训练与复杂超参搜索的高效蒸馏方案,揭示了结合前向与反向散度是提升生成模型性能的统一范式 [33] - 该方法未来将被更广泛地应用在NVIDIA的Cosmos系列世界模型中 [34]
KTransformers入选计算机系统顶会、与主流框架合作,趋境&清华让「异构」成为推理新范式
量子位· 2025-10-22 17:12
项目概述 - KTransformers是由趋境科技与清华大学KVCacheAI团队联合研发的高性能异构推理框架,专注于大模型推理阶段的系统创新[2] - 该项目论文入选计算机系统领域顶级会议SOSP 2025,获得全球系统学术界的最高背书[2][4] - 项目旨在通过创新的异构推理架构,充分释放底层硬件算力资源,实现更普惠、更高效的大模型部署与应用[8] 技术创新与性能突破 - 采用CPU+GPU异构架构,让GPU负责注意力和主干网络的高并行计算,CPU承担稀疏专家模块的推理任务,实现高效协同执行[10] - 引入Expert Deferral(专家延迟机制),打破传统MoE推理的串行依赖,使CPU与GPU负载动态重叠,模型吞吐提升约1.45倍,单卡decode速度最高超过30+ tokens/s,模型精度变化低于0.5%[13][15] - 通过针对Intel AMX指令集开发的高吞吐计算核,在单路Xeon上实现PyTorch近4倍的提速,极大释放CPU在专家计算中的性能[12] - 在一台RTX 4080+双路Xeon的单机环境中成功运行DeepSeek-V3-671B模型,单路性能接近多卡GPU集群水准[16] 生态合作与行业影响 - 与主流推理框架SGLang合作,双方架构合入同一分支,实现全GPU推理与异构推理的融合[5] - GitHub Star数已突破15.2K,成为全球Star数排名前列的大模型推理框架[24] - 获得Qwen、Kimi、智谱AI等多个主流大模型在发布首日推荐作为推理引擎支持,工程实践与兼容性被多家一体机产品线采纳[24] - 趋境科技作为核心推动者,已与多个国产CPU、GPU硬件平台合作,共同推进全国产高性价比方案,为数十家行业开发伙伴提供算力底座[28] 未来发展方向 - 研究团队已在内部试水微调,计划在不扩卡、不改架构的前提下实现轻量调优,从"能跑"向"能调"演进[30] - 目标让大模型推理不再专属于高端算力,让AI能力也不再专属于少数企业,逐步实现算力普惠[29]
人工智能年度榜单火热报名中!五大奖项,寻找AI+时代的先锋力量
量子位· 2025-10-22 17:12
组委会 发自 凹非寺 量子位|公众号 QbitAI 为了让更多从业者感受智能浪潮的跃迁,也为了给予更多同行同路人掌声与鼓舞,我们将正式启动 「2025人工智能年度榜单」评选报名 。 本次评选将从 企业 、 产品 、 人物 三大维度,设立五类奖项。欢迎企业踊跃报名! 让我们共同见证年度之星,点亮未来的方向。 企业榜 产品榜 人物榜 2025 人工智能年度 焦点人物 详细评选标准及报名方式如下。 聚焦于中国人工智能领域创新创业力量,将评选出最具投资价值和发展潜力的AI创业公司, 参选条件 : 评选标准 : 2025 人工智能年度领航企业 将面向中国人工智能领域,评选出最具综合实力的企业, 参选条件 : 2025 人工智能年度 领航企业 2025 人工智能年度 潜力创业公司 2025 人工智能年度 杰出产品 2025 人工智能年度 杰出解决方案 1、注册地在中国,或主营业务主要面向中国市场; 2、主营业务属于人工智能及相关产业,或已将人工智能广泛应用于主营业务,并在细分领域居于行业领先地位; 评选标准 : 2025 人工智能年度潜力创业公司 3、具备成熟的产品或服务,已获得实际客户应用及市场认可; 4、近一年在技术 ...