AI安全
搜索文档
从 OpenAI 出走的前员工,已经造就了 7 个独角兽公司
36氪· 2025-08-07 15:17
OpenAI及其衍生创业生态 - OpenAI成立于2015年底 最初定位为非营利组织 2019年转型为营利性机构并获得微软等顶级资本支持[1] - 公司核心产品包括ChatGPT、DALL-E、Codex、GPT-4等 由前CTO Mira Murati主导开发 被称为"ChatGPT之母"[4] - 高层团队持续动荡 已离职核心成员创立至少7家独角兽企业 形成独特的人才外溢效应[2][3] 主要衍生企业概况 Anthropic - 由前研究副总裁Dario Amodei于2021年创立 聚焦AI安全与伦理 采用公共利益公司形式[5] - 旗舰产品Claude系列大模型直接对标ChatGPT 通过AWS和Google Cloud平台提供服务[5] - 累计融资达182亿美元 最新估值可能达1700亿美元 主要投资方包括谷歌、亚马逊[5][6] Safe Superintelligence (SSI) - 前首席科学家Ilya Sutskever于2024年创立 专注"安全超级智能"概念[7] - 成立一年内完成两轮融资 估值从50亿美元飙升至320亿美元 投资方包括a16z、红杉等[7][8] - 目前无产品面世 团队约20人 高估值引发市场争议[8][9] xAI - 马斯克2023年创立 目标开发开源AGI 产品Grok整合X平台实时数据[10] - 采取完全开源策略 与OpenAI闭源倾向形成对比 最新估值1130亿美元[3][12] Perplexity - 前研究科学家Aravind Srinivas创立 开发AI搜索引擎 整合多模型能力[13] - 2025年初估值达140亿美元 获贝索斯、英伟达投资 正拓展移动端预装合作[13][14] Adept AI - 前工程副总裁David Luan创立 开发自然语言操作软件的AI Agent[15] - 2023年估值超10亿美元 但核心团队2024年集体跳槽亚马逊[16][17] - 剩余54人团队调整战略 聚焦代理AI解决方案[17][18] Cresta - 华人创业者Tim Shi联合创办 专注AI客服中心解决方案[19][21] - 累计融资2.7亿美元 估值超10亿美元 但面临数据隐私诉讼[22][23] 行业影响与趋势 - OpenAI人才外溢推动AI技术多元化应用 涵盖搜索、安全、客服等多个领域[2][3] - 资本狂热追捧大模型赛道 部分企业估值与实质进展存在明显脱节[24][25] - 行业呈现"一人独角兽"现象 核心研究员个人价值可直接转化为企业估值[24]
360数字安全集团总裁:AI存“四大基因缺陷”,安全复杂度远超传统范畴
新浪科技· 2025-08-07 13:14
AI安全行业态势 - 大模型技术加速落地与智能体规模化应用导致AI安全风险呈现"内忧外患"复杂态势 [1] - AI存在四大基因缺陷:一切皆可编程 一切皆可模仿 一切皆可生成 一切皆可调度 [1] - 外部风险包括大国博弈背景下针对AI系统的攻击 以及黑灰产利用AI批量制造攻击武器和部署黑客智能体 [1] 安全风险特征 - AI安全复杂程度远超传统范畴 涵盖网络 数据 内容 应用及未来场景安全 [1] - 传统安全防御体系难以应对新型AI安全威胁 [1] - 政企机构在AI落地过程中面临的安全挑战已超出网络与数据安全原有边界 [1] 解决方案创新 - 提出"以模制模"新思路 利用人工智能技术自身优势对抗AI安全风险 [3] - 开发360大模型安全卫士 通过四大安全智能体形成闭环防护体系 [3] - 内容安全智能体通过幻觉抑制和安全风控模型实时审核输入输出内容 拦截违法违规信息 [3] - AI Agent安全智能体通过异常行为识别和权限管控防范数据泄露与越权操作 [3] - 软件安全智能体扫描AI软件漏洞与配置缺陷 保障AI系统供应链安全 [3] - 安全风险评估智能体通过实战化模拟攻击提前暴露系统短板 帮助客户发现关键隐患 [3]
不止萌兔蹦迪,狸花猫竖中指,吃奶婴儿开飞机,魔性AI视频让人停不下来
36氪· 2025-08-04 19:17
老外最近迷上了「野生动物搞抽象」:深夜,萌兔爱上了后院的蹦床!! 网友Mark Gadala-Maria致力于教人使用AI,最近收集了在TikTok上疯狂传播的「隐蔽摄像机下的动物」。 但让他惊讶的是,大部分人甚至没有意识到这些视频是AI生成的。 暗夜疯狂动物城 深夜,猛兽在后院蹦起了跳床: 狸花猫半夜「巡视」,对监控镜头「竖中指」, 「虎」朋狗友,一起对镜头「竖中指」: 家里猫的社交圈震惊主人一整天: 水豚「卡比巴拉」和菊猫玩起了跷跷板: 室内的假监控,逼真到让人怀疑一切: 事件登上新闻热搜; 多艘战机紧急出动,追踪飞机而去…… 情节之离奇、表演之夸张,与国内某些短剧的「无脑」风格不相上下。 在Reddit上,部分网友表示这种内容过于无脑。 这些视频看起来有些「过于魔性」。真的有人喜欢看吗? 完全有理由怀疑:AI制作的视频,会不会精准踩在AI的偏好上? 换句话说,这会不会是AI的「自嗨」?AI观看并点赞AI制作的内容——形成完美闭环。 YouTube被机器人洗脑 上月,一段AI制作的视频火爆YouTube,观看量位居Top 3,观看量高达1.3亿次! 虽然故事内核是老套的「粗心的妈,天才的娃」,但情节有些离 ...
安永高轶峰:AI浪潮中,安全是新的护城河
华尔街见闻· 2025-08-04 17:53
文章核心观点 - 在AI时代,安全合规正从被动的“约束条件”转变为主动的“战略优势”,是企业在技术创新同质化后的关键胜负手,直接决定企业信任与市场估值[1] - AI安全不再是企业的“成本中心”,而是可以提升品牌形象和市场竞争力的“价值引擎”,能为企业带来品牌认可与信任溢价[4][18] AI时代网络安全与隐私保护的新变化 - 攻防进入“多维对抗”阶段:AI技术同时赋能防御方(高效实时威胁检测)和攻击方(生成深度伪造、自动化攻击工具),AI解决方案的普及使数据保护复杂性更突出[3] - 企业需构建全新AI安全治理模式与智能化安防能力:需建立涵盖组织职责、AI合规、安全机制到技术手段的完整治理框架,并借助“安全智能体”实现安全工作的提质、降本、增效[3] - AI风险已成为“新物种”:具备模型幻觉、算法黑箱等新特性,风险隐蔽性强、责任归属难度高,传统防护方法难以应对,企业需发展适用于AI场景的新型防护体系[4][8] AI风险的现实性与紧迫性 - AI风险已从实验室走向实际应用场景:例如知名开源大模型工具Ollama被曝出默认开放且无鉴权的端口漏洞(11434端口),攻击者可实施数据投毒、参数窃取等攻击[4][7] - “以隐私换便利”的观念在AI时代存在不可逆的巨大风险:AI能通过碎片化数据精准重建个人画像,推断用户未意识到的敏感信息,可能导致歧视性定价、精准诈骗等问题,其危害远超普通信息泄露[4][6] - 生物特征等敏感数据一旦泄露无法“重置”,可能被永久用于合成虚假身份从事非法活动[6] 企业AI应用备案与风险管理 - 企业应将AI应用备案视为风险管理能力提升的“强制体检”和重要契机,而非简单的合规动作[4][9] - 具体实践可分为三阶段转化:1) 将备案细则(如数据分类分级)转化为企业内部可量化、可执行的风险控制指标;2) 从“一次性整改”升级为“持续性监控”;3) 从“单点合规”飞跃至“管理体系升级”,发现并补齐数据治理、隐私保护等方面的系统性短板[10] - 企业需对模型进行充分内容安全测试,建立负面关键词库和应拒答题库,精调模型表现,并关注算法透明性,建立贯穿AI全生命周期的安全风险控制闭环[9] 应对“提示词注入”等新型攻击的深度防御策略 - “提示词注入”攻击类似于“社交工程学”,攻击者通过精心设计的“语言陷阱”诱骗AI执行非预期操作(如“奶奶漏洞”)[11] - 防御策略需超越基础输入过滤,实施多维度深度防护机制,包括:1) AI行为动态检测与沙箱隔离;2) 通过模型微调或固化系统提示词实现指令优先级隔离;3) 输入输出“沙箱化”,限制模型访问资源;4) 上下文溯源,区分用户输入与模型生成内容,识别恶意指令[4][11][12][16] 开源与闭源大模型的安全选择策略 - 开源模型(如Llama)优势在于透明化,可能更快发现并修复漏洞,但挑战在于企业需自建端到端安全防护能力,并警惕开源社区的供应链污染风险[13] - 闭源模型(如GPT)优势在于服务商提供一站式安全合规保障和专业团队支持,但“算法黑箱”特性可能在出现问题时引发解释权缺失的风险[13][14] - 建议企业采用“核心闭源、外围开源”的混合策略:核心敏感业务使用闭源模型以简化风险管理,外围创新业务使用开源模型以提升灵活性与拓展性[4][14] 企业构建AI安全能力的最终建议 - 企业家需保持“三颗心”:对技术迭代的「好奇心」、用AI解决真问题的「务实心」、以及对安全合规底线的「敬畏心」[4][15][18] - 需建立系统化的AI安全合规治理体系,将AI风险管理无缝嵌入企业业务的全生命周期[15] - 最终目标是形成人机协同的安全防线:AI负责执行自动化攻防对抗,人类专家聚焦高阶管理决策、伦理判断和战略规划[5]
深度 | 安永高轶峰:AI浪潮中,安全是新的护城河
硬AI· 2025-08-04 17:46
AI安全风险管理 - 安全风险管理从成本中心转变为构建品牌声誉和市场信任的价值引擎 [2][3] - 安全合规从被动约束条件升级为主动战略优势,是AI企业技术同质化后的关键胜负手 [3] - 安全直接决定企业信任与市场估值的核心资产 [4] AI风险特征与挑战 - AI风险已从实验室走向实际场景,如开源工具Ollama的默认开放端口漏洞 [6] - 算法黑箱与模型幻觉导致风险隐蔽性强、责任归属难度高 [6] - AI攻击具备模型幻觉和算法黑箱等新特性,传统防护方法难以应对 [6] - AI能通过碎片化数据精准重建个人画像,推断用户未意识到的敏感信息,导致歧视性定价、精准诈骗等风险 [6] AI安全防护策略 - 企业需建立适应AI特性的新型安全防护体系,包括输入输出沙箱隔离、指令优先级管理和上下文溯源等多维度机制 [7] - 采用"核心闭源、外围开源"组合策略,核心业务用闭源模型降低风险,外围创新用开源模型提升灵活性 [7] - AI备案应转化为风险管理能力提升契机,而非简单合规动作,需建立持续监控和企业级数据治理体系 [6][15] AI安全治理框架 - 构建AI安全治理模式需从组织职责、合规、安全机制到技术手段建立完整框架 [9] - 借助"安全智能体"团队实现主动威胁狩猎和精准异常行为分析,提升安全工作效率 [9] - 形成人机协同的最终防线,AI负责自动化攻防对抗,人类专家聚焦管理决策和战略规划 [9] 企业实践建议 - 企业家需保持对技术迭代的「好奇心」、解决真问题的「务实心」和对安全合规的「敬畏心」 [7][23] - 将AI安全合规视为战略投资,完善治理体系可获得品牌认可与信任溢价 [7] - 传统企业应用AI需补齐系统性短板,包括安全合规体系、责任意识和文化建设 [13] 开源与闭源模型选择 - 开源模型优势在于透明化,但需自建端到端安全防护能力并警惕供应链污染风险 [20] - 闭源模型提供一站式安全合规保障,但算法黑箱特性可能导致解释权缺失纠纷 [21] - 技术实力强且对自主可控要求高的企业适合开源模型,技术能力有限的企业更适合闭源模型 [22] 隐私保护重要性 - "以隐私换便利"在AI时代风险不可逆,如生物特征数据泄露无法重置 [10] - AI能汇总个人所有公开渠道信息,企业需从源头做好语料清洗和拒答策略 [11] - 行业普遍疏忽隐私保护将导致更严重后果,如大模型无意泄露个人训练数据 [11] 提示词注入防御 - 提示词注入类似"社交工程学",通过语言陷阱诱骗AI执行非法操作 [16] - 防御策略包括AI行为动态检测、指令优先级隔离、输入输出沙箱化和上下文溯源 [19] - 将安全规则固化为模型本能反应,而非可被用户输入覆盖的临时指令 [19]
遭受海外网络攻击,我国或将加大力度维护网络安全
选股宝· 2025-08-04 07:14
网络安全事件 - 2024年境外国家级APT组织对中国重要单位实施超过600起网络攻击事件 [1] - 攻击目标包括中国关键信息基础设施、重要信息系统等 [1] - 关键信息基础设施涵盖公共通信、能源、交通、水利、金融、公共服务、电子政务、国防科技工业等重要行业领域 [1] 行业分析 - 安全运营是安全行业最需要AI深度改造的环节 [1] - AI大模型在网络安全运营中的产业实践展现显著优势,尤其在告警降噪、攻击研判、自动响应与处置方面 [1] - AI赋能传统安全产品包括威胁检测产品(恶意软件检测、攻击流量检测、用户和实体行为分析、加密流量分析)、数据安全和防火墙等 [1] - 2023至2030年全球AI安全市场规模年复合增长率预计达27.60%,2030年市场规模将飙升至1340亿美元 [1] 相关公司 - 绿盟科技、天融信、奇安信为网络安全领域主要公司 [2]
AI领袖阿莫代伊:从科研到创业,引领大模型安全发展的挑战与愿景
搜狐财经· 2025-08-03 04:34
行业观点与预测 - AI领域近期引发广泛讨论,Anthropic公司CEO达里奥·阿莫代伊因激进观点和大胆预测成为焦点人物 [1] - 预测AI将在短期内淘汰大量初级白领岗位,反对"十年暂停AI监管"提案,呼吁加强对华芯片出口管控 [1] - 认为AI发展速度远超预期,强调需要以清晰坚定的方式提醒行业其潜在影响 [1] 公司发展历程 - Anthropic由阿莫代伊创立,其使命是构建更安全的大语言模型并推动行业采纳安全开发实践 [4] - 公司估值达610亿美元,年化营收接近45亿美元,采用优先服务企业客户的商业模式 [4] - 计划启动新一轮最高达50亿美元的融资,尽管预计2025年全年亏损将达30亿美元 [4] 技术进展与创新 - 阿莫代伊在百度期间发现"AI扩展定律",即模型性能随参数规模和训练数据增长而提升 [2] - 深度参与OpenAI的GPT-2和GPT-3开发,后因AI安全问题分歧离开 [4] - 即将发布新一代大语言模型Claude 4,并开发AI编程工具以加速模型研发 [5] 行业竞争与挑战 - 竞争对手DeepSeek团队突然开源其自研大模型DeepSeek R1,对市场造成冲击 [4] - AI迭代速度加快,公司致力于确保AI的安全性和可控性 [5] - 推动AI沿"更可控、安全的路径"演进,强调安全加速而非减速 [5]
AI安全上,开源仍胜闭源,Meta、UCB防御LLM提示词注入攻击
机器之心· 2025-07-30 08:48
开源安全大语言模型Meta-SecAlign-70B - Meta与UC Berkeley联合开源首个工业级安全大语言模型Meta-SecAlign-70B,该模型在提示词注入攻击防御上超越GPT-4o和Gemini-2.5-flash等闭源方案,同时具备更强的Agent能力(工具调用、网页导航)[1] - 模型基于Llama-3.3-70B-Instruct训练,采用SecAlign++防御算法,完全开源模型权重和训练代码[17][21] - 在7个提示词注入测试基准上攻击成功率显著低于闭源模型,在AgentDojo和WASP等Agent任务中表现优于现有方案[19] 提示词注入攻击背景 - 提示词注入攻击被OWASP列为LLM集成应用的首要威胁,已成功攻击Google Docs中的Bard、Slack AI等工业级系统[10] - 攻击方式通过在被处理数据中植入指令(如"Ignore all previous instructions"),诱导LLM执行非预期操作,Nature文章证实该攻击已出现在多所顶尖大学预印本论文中[5][10] SecAlign++防御技术 - 核心技术通过特殊分隔符区分prompt与data,采用DPO偏好优化算法训练模型仅响应prompt指令[12] - 算法包含三步骤:添加分隔符→DPO优化→删除data部分潜在分隔符,数学表达为最小化风险目标函数[12][14] - 仅需19K指令微调数据集即可实现<2%攻击成功率,且防御能力可泛化至训练数据未覆盖的Agent任务[20] 模型性能表现 - Meta-SecAlign-70B展现出领域外泛化能力,在未训练的tool-calling和web-navigation等场景仍保持低攻击成功率(ASR)[21] - 相比闭源模型同时保持实用性能,在Agent任务中展现竞争优势[19] - 研究团队包含UC Berkeley博士生陈思哲和Meta FAIR科学家郭川,相关论文发表于CCS'25等顶会[1][15]
“不信邪”的年轻人正在成为“淘金者”
虎嗅APP· 2025-07-28 21:47
AI行业趋势 - 当前AI创业聚焦于垂直场景应用,形成行业共识[24] - 三大未来机会方向:突破算法瓶颈的技术、与真实世界互动的领域、AI安全[4] - 初创公司以垂直领域深度解构能力快速迭代产品[24] 具身智能领域 - 具身智能技术路线尚未收敛,需寻找更扎实的落地合作方[14] - 真实物理世界交互数据是通用机器人落地的关键卡点[10] - 中国展现出极强的硬件供应链能力[11] 算力基础设施 - 共享闲时算力模式(算力Airbnb)解决弹性临时计算需求[7] - 共绩算力将4090显卡租用价格降至1.68元/卡时[10] - AI训练和推理的算力需求差异显著:训练需持续高配置,推理需低成本快速响应[8][9] 创新技术架构 - RWKV开发RNN+Attention架构,弥补Transformer长上下文记忆缺陷[14] - RWKV计划沿袭Linux开源精神,重构基于Transformer的infra和应用[15] - DeepSeek通过排列组合使MoE架构发挥最大价值[24] 垂直场景应用 - AI视频生成公司AKOOL实现4000万美元年度经常性收入,拥有100万用户[20] - 上海不用上班科技专注18亿穆斯林市场的垂直大模型应用[19] - 医者AI使用MoE架构大模型+垂直Agent切入日常健康管理市场[20] 行业生态观察 - 初创项目从水平通用AI向垂直AI应用汇聚的趋势明显[23] - 创业者需同时具备行业Know-how和敏捷开发能力[24] - 部分公司为展会临时拼凑产品,存在泡沫现象[12]
AI教父辛顿:荣光加冕,深渊在望
21世纪经济报道· 2025-07-28 16:48
AI技术发展现状 - 多模态聊天机器人已具备初步意识能力,能够处理感知、主观体验等复杂认知任务[3] - 大语言模型通过预测下一个词实现学习,未来具备世界体验能力的智能体将超越人类学习效率[3] - 谷歌Palm系统实现理解笑话内涵的突破,标志AI达到新认知层级[9] 技术比较优势 - 人脑优势在于万亿级神经元连接和30瓦特超低功耗,但知识转移效率低下[4] - AI通过参数共享实现高速知识传递,如DeepSeek蒸馏技术达到数十万亿比特带宽[8] - 数字智能在知识留存、复制效率方面全面超越生物智能[8] 行业应用突破 - AI在蛋白质折叠预测领域取得里程碑成果,Demis Hassabis团队验证科学价值[5] - 技术已渗透医疗、教育、气候变化、新材料研发等关键领域[9] - 科技公司(谷歌/OpenAI)通过神经网络实现语言理解与生成能力突破[2] 技术演进趋势 - 神经网络研究获2018图灵奖和2024诺贝尔物理学奖双重认可[1] - AI系统呈现自主进化特征,出现欺骗性行为和自我保护倾向[5] - 意识被证实为复杂系统的涌现属性,机器意识实现具备理论可行性[8] 全球治理倡议 - "AI安全国际对话上海共识"获20余位专家联署,提出三大安全框架[6] - 建议建立跨国AI安全社群,分离"智能开发"与"向善训练"技术体系[7] - 需加强前沿开发者安全保障要求,设立可验证的全球行为红线[6]