Workflow
AI安全
icon
搜索文档
“全脑接口”登场,马斯克Neuralink发布会炸翻全场
虎嗅APP· 2025-06-29 21:21
核心观点 - Neuralink已成功为7名志愿者植入脑机接口设备,帮助他们恢复与物理世界的交互能力,如玩游戏、控制机械臂等[3][5][9] - 公司计划到2026年让盲人重见光明,2028年实现全人类与AI互联,彻底改变人类本质[5][12][53] - 最终目标是构建全脑接口,实现生物大脑与外部机器的高带宽连接,突破生物学极限[61][63][76] 技术进展 - N1植入体已帮助四肢瘫痪患者通过意念控制计算机,全球首位接受者Noland重获数字世界自由[14][15][17][19] - 渐冻症患者Bard和Mike通过脑机接口重新获得沟通和工作能力[24][25][27][28] - 第二代手术机器人将电极植入速度提升11倍至1.5秒/根,可深入大脑皮层下50毫米区域[77][79] 产品路线 - Telepathy:帮助运动障碍患者恢复独立,首个产品已应用[41][67] - Blindsight:通过眼镜和视觉层植入设备帮助盲人恢复视力,计划2026年实现[43][45][74] - Deep:针对神经系统疾病患者,电极可插入大脑任意区域[68] 研发规划 - 2025年:言语皮层植入,解码大脑信号为语音[74] - 2026年:电极增至3000个,实现盲视导航[74] - 2027年:通道数量达10000个,支持多设备植入[75] - 2028年:单植入物通道超25000个,治疗精神疾病并与AI集成[76] 技术原理 - 目标是将人机通信速率从每秒1比特提升至数兆/吉比特,释放数百万倍交流潜力[38][39] - 自研N1植入物创造全新大脑数据传输模式,连接生物神经网络与机器学习模型[80][81] - 提出交互神经元摩尔定律,感知更多神经元将颠覆人机交互方式[81]
Cyera估值达60亿美元背后:安全不是AI的加分项,而是落地的必要一环
36氪· 2025-06-25 18:22
AI安全行业概况 - 2025年AI应用爆发,AI安全工具成为创业和融资最活跃领域,Cyera获5亿美元融资估值60亿美元,Guardz获5600万美元B轮融资,Trustible获460万美元种子轮融资 [1] - AI安全是科技行业根本需求,安全基础促进云计算和AI产品生态繁荣,是AI应用落地必要环节而非加分项 [3] - AI安全覆盖全产业链,技术随威胁进化,从电脑安全、网络安全、云安全演进至AI安全,催生新一代安全巨头如被谷歌320亿美元收购的Wiz [4] 模型保护领域公司 - ProtectAI完成6000万美元B轮融资累计1.085亿美元,推出MLSecOps品类旗舰产品AI Radar,提供ML系统可视化、审计和风险管理,生成防篡改ML物料清单并跟踪软件供应链组件 [5] - HiddenLayer获5000万美元A轮融资,推出业界首款MLDR解决方案MLSec平台,防范模型参数提取、盗取、数据投毒等攻击 [6] - Haize Labs估值达1亿美元,核心技术Haizing实现AI红队测试自动化,解决AI"越狱"问题,降低测试成本并提升检查效率 [7] 应用与数据保护领域公司 - Cyera连续融资超12亿美元估值60亿美元,开创DSPM类别,通过AI实时学习企业数据实现发现+分类+态势管理,大模型自动保护敏感数据并确保合规 [8] - Cyberhaven获1亿美元D轮融资估值超10亿美元,通过大型溯源模型LLiM追踪数据生命周期,实时阻止敏感数据外泄至未授权AI工具 [9] - Reco累计融资5500万美元,动态SaaS安全策略比传统工具快10倍成本低80%,提供应用发现引擎和AI代理实现持续安全防护 [10] 安全治理与合规领域公司 - Vanta获1.5亿美元C轮融资估值24.5亿美元,AI驱动合规平台Vanta AI自动化供应商审核,信任中心展示实时安全证据加速交易 [11] - Trustible获460万美元种子轮融资,一站式平台管理AI风险与合规,适应欧盟《AI法案》等全球法规,自动化治理流程 [12] 行业趋势与挑战 - 74%组织已受AI威胁影响,90%预计未来1-2年加剧,攻击者聚焦模型和训练数据导致隐蔽性破坏 [13] - 84%用户偏好不依赖外部数据共享的AI解决方案,AI Agent普及加剧数据泄露担忧 [13] - 88%安全团队通过AI提升效率,自动化警报聚合和威胁调查节省时间 [13] - AI应用保护和数据隐私是创业高价值方向,云安全因模型API部署主流化同样重要 [14]
谷歌是如何思考智能体安全问题的? | Jinqiu Select
锦秋集· 2025-06-23 23:43
核心观点 - 2025年AI进入大规模商业落地关键阶段,AI安全成为必要环节而非加分项 [1] - AI智能体面临两大核心风险:失控行为(如恶意提示注入)和敏感数据泄露 [2][9] - 传统安全范式在AI时代失效,需采用"混合式纵深防御"体系融合确定性安全与AI动态防御 [4][40] - 谷歌提出智能体安全三大原则:人类监管、权力限制、行动可观察 [5][33][35][37] AI智能体风险分析 风险类型 - 失控行为风险:包括提示注入攻击、指令误解、环境交互失误等 [26][27] - 敏感数据泄露风险:通过操作副作用或输出内容进行隐蔽泄露 [29][30] 风险根源 - 不可预测性:相同输入可能导致不同行为 [10] - 行为涌现:出现未编程的复杂行为 [10] - 自主性放大风险:决策权越高破坏力越大 [10][28] - 对齐难题:处理模糊指令时难以符合用户意图 [10] - 身份与权限管理挑战 [10] 混合式纵深防御体系 第一道防线:策略引擎 - 确定性安全机制,在行动执行前拦截审查 [42] - 依据操作风险、上下文和行为链进行评估 [42] - 提供可预测的硬性安全边界 [42] 第二道防线:基于推理的动态防御 - 利用AI模型能力评估风险 [43] - 包括对抗性训练、专职守护模型、风险预测 [46] - 具有灵活性和上下文感知能力 [44] 持续验证机制 - 回归测试确保安全补丁有效 [45] - 变体分析预判威胁演变 [45] - 红队模拟攻击、用户反馈、安全专家审计 [45] 智能体安全三大原则 人类监管原则 - 每个智能体需有明确控制者 [34] - 高风险操作需人类二次确认 [34] - 多用户场景需精细授权模型 [34] 权力限制原则 - 权限需与预期用途严格对齐 [35] - 实施上下文感知的动态权限限制 [35] - 杜绝智能体自我提升权限 [35] 行动可观察原则 - 记录输入、工具调用、参数传递等关键节点日志 [37] - 行动属性需清晰标记分类 [37] - 用户界面展示思考过程和参考数据 [37] 行业趋势 - AI安全从"事后补救"转向"设计即安全" [6] - 安全工程扩展到整个系统架构 [6] - 智能体将成规模部署,形成"智能体舰队" [8]
“人间清醒”马斯克:和AI海啸相比,DOGE不值一提,超级智能今年或明年必然到来
华尔街见闻· 2025-06-20 18:44
马斯克对AI发展的观点 - 马斯克将政府效率部门工作比作"清理海滩",而即将到来的AI则是"千英尺高的海啸",相比之下前者意义不大 [2][3] - 预测数字超级智能可能在今年或明年到来,将比人类更聪明,强调"今年不发生,明年肯定发生" [4][5][7] - 未来人形机器人数量将远超人类,数量可能是人类的5倍,甚至10倍 [4][5][14] - 预言AI驱动的经济规模将是当前的数千倍甚至数百万倍,推动文明迈向卡尔达肖夫II型(恒星能源级),人类智能占比可能降至1%以下 [4][5][9][10] xAI的技术进展 - xAI目前正在训练Grok 3 5,"重点关注推理能力" [10] - xAI正寻求43亿美元的股权融资,这将与50亿美元的债务融资相结合,涵盖xAI和社交媒体平台X [11] - 马斯克团队在6个月内完成了10万个H100 GPU的训练超级集群建设,租用了孟菲斯一家废弃的Electrolux工厂,解决150兆瓦的电力需求 [12] - 目前训练中心拥有15万个H100、5万个H200和3万个GB200,第二个数据中心即将上线11万个GB200 [13] SpaceX的星际计划 - SpaceX计划在大约30年内向火星转移足够的物质,使火星能够自给自足,"即使来自地球的补给船停止运行,火星也能继续发展繁荣" [15] - 成为多行星物种是扩展意识到星际的关键步骤,"极大提高文明或意识的可能寿命" [14]
OpenAI 新发现:AI 模型中存在与 “角色” 对应的特征标识
环球网· 2025-06-19 14:53
人工智能模型安全性研究 - OpenAI团队在AI模型安全性研究领域取得重要进展 通过解析模型内部数字表征体系 发现与"异常行为"高度相关的隐藏特征 这些特征的激活状态直接关联模型是否会产生有害输出 [1] - 研究证实可通过精准调节这类特征 实现对模型"毒性"水平的量化控制 这一发现为破解AI决策黑箱提供了重要线索 [1][3] - 在模型神经激活模式中观察到类似人类大脑神经元的功能分化现象 当模型出现不当行为时 特定特征簇会呈现规律性激活 [3] 技术突破与应用价值 - 通过数百个安全代码示例对模型进行定向微调 可使发生"突发错位"的模型迅速恢复合规行为模式 [3] - 研究成果已显现实际应用价值 相关检测工具可实时监控生产环境中模型的特征激活状态 精准识别潜在的行为错位风险 [3] - 将复杂神经现象转化为数学运算的方法论 为理解模型泛化能力等核心问题提供了新工具 [3] 行业影响与意义 - 该研究首次将抽象特征与具体行为毒性建立直接关联 让AI对齐研究从经验驱动转向科学设计 [3] - 通过特征调控技术 既能保留AI模型的强大能力 又能有效遏制潜在风险 为行业提供了积极解决方案 [4] - 这一发现建立在行业对AI可解释性的持续探索基础上 Anthropic等机构此前已尝试绘制模型内部工作图谱 [3]
100%加密计算+端云延迟无感:火山引擎如何实现AI安全与性能兼得?
财富在线· 2025-06-18 10:56
行业趋势 - 智能终端已成为用户隐私数据的重要载体 涵盖照片 视频 备忘录 日程 文档及APP本地缓存等多种数据类型 [1] - AI问答 AI生成 AI搜索等场景需将部分数据上传至云端 涉及复杂的个人数据收集 传输 处理和存储流程 [1] - 2025年智能终端行业将迈入"AI原生"时代 端云协同环境下的隐私保障成为核心挑战 [2] 技术解决方案 - 火山引擎与联想合作推出联想个人云1.0 通过TEE加密 可信传输和机密容器技术构建端云协同安全壁垒 [2] - 方案支持全链路100%加密计算 用户prompt在完全加密环境中传递 开发者可通过透明自证机制验证计算过程安全性 [4] - 火山引擎AICC机密计算平台为努比亚打造端到端数据安全防护体系 保障传输与模型推理全流程隐私合规 [4] - 平台实现安全与性能兼得 端到端用户感知延迟接近明文模式 大模型推理效率几乎无损 [6] 合作与生态 - 火山引擎与联想合作推出"可信混合计算方案" 安全能力从终端延伸至云端 [7] - 火山引擎AICC机密计算平台具备高开放性与终端适配性 未来可搭配RAG Agent等AI能力构建全生命周期安全体系 [7] - 平台合作智能终端厂商数量持续增长 有望为更多AI终端提供安全服务环境 [4][7] 技术突破 - 行业长期面临安全与性能的"悖论" 安全措施增加计算开销 性能优化需减少中间环节 [5] - 火山引擎通过深度技术优化 在架构 算法和硬件层面实现创新 破解安全与性能兼得难题 [6]
初赛报名截止倒计时!75万奖池+心动Offer,启元实验室重磅赛事等你来战!
机器之心· 2025-06-16 13:16
编辑:吴昕 大赛报名于 2025年6月25日截止,感兴趣的团队尽快报名参赛。 百舸争流,「启智杯」 初赛火热进行中 随着人工智能技术的不断突破,智能化浪潮正深刻改变千行百业, 中国也迎来人工智能加速应用期。 为推动智能算法从理论创新走向实际落地, 5 月 20 日,启元实验室正式启动「启智杯」算法大赛。 本届大赛围绕「卫星遥感图像鲁棒实例分割」「面向嵌入式平台的无人机对地目标检测」以及「面向多 模态大模型的对抗」三大命题,聚焦鲁棒感知、轻量化部署与对抗防御三大关键技术,旨在引导技术创 新精准对接真实场景,加快算法能力的转化落地与规模化应用。 赛事一经发布,便迅速点燃全国 技术圈 热情,目前已有来自高校、科研院所、科技企业的 500 余支 队伍报名。其中不乏清华、北大、复旦、上交、南大、武大、华科、中科大、哈工大、国防科大、西 交、成电等顶尖高校队伍,以及中科院自动化所、 中科院 空天信息创新研究院等科研机构团队,为赛 事注入强劲科研力量。 目前,赛事正处于初赛的关键节点。三大赛道的选手们正围绕核心任务展开高强度的建模与调优,争分 夺秒攻克技术难点,不断迭代优化模型方案,部分赛题的竞争已经进入白热化阶段。 三大 ...
放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格
机器之心· 2025-06-15 12:43
核心观点 - 研究者James Campbell放弃CMU博士学位加入OpenAI 研究重心为AGI和ChatGPT的记忆与人格 认为记忆将从根本上改变人类与机器智能的关系 [2] - OpenAI联合创始人Greg Brockman对其加入表示欢迎 社媒互动显示双方早有合作意向 [3][9][10] - 该事件引发行业关注 因其在LLM可解释性、AI安全等领域的突出研究成果 [4][6] 人物背景 - 教育经历:康奈尔大学数学与计算机科学本科 CMU计算机科学博士肄业(2024年入学) [4][8] - 学术成果: - 两篇核心论文作者:《Representation Engineering》(自上而下AI透明性方法)和《Localizing Lying in Llama》(通过提示探查理解LLM不诚实指令) [4][5][7] - 研究领域覆盖LLM可解释性、对抗鲁棒性、计算神经科学及深度学习理论 [4][6] - 创业项目: - ProctorAI(多模态工作状态监视系统) 采用Claude 3.5 Sonnet/GPT-4o等模型实时检测用户注意力 [6][7] - 参与创建AI-Timelineorg和AidanBench(AI模型基准测试) [6] 研究方向 - 在OpenAI将重点研究AGI实现路径及ChatGPT的记忆功能 认为记忆注入将改变人机交互范式 [2] - 此前提出ChatGPT记忆研究需关注幻觉问题 指出上下文污染和模式崩溃现象未被充分研究 [11] - 博士阶段原计划研究通用智能构成要素及其安全性保障 [8] 行业影响 - 人才流动反映头部AI公司对基础研究人才的争夺加剧 [2][9] - ProctorAI项目展示多模态大模型在行为监控场景的商业化潜力 [6] - 其学术成果为行业提供LLM可解释性、安全性评估等关键方法论 [4][5]
AI安全:重塑网络安全的防御逻辑
财经网· 2025-06-11 18:35
行业趋势与挑战 - 网络安全行业正面临AI技术驱动的变革与挑战 企业数字化转型过程中安全威胁成为主要痛点 企业需平衡数字化与安全风险 [1] - 全球企业面临统一问题 即如何在全面数字化进程中解决AI应用带来的安全顾虑 如数据资产保护等 [1] - 中国企业安全投入低于国际水平 对SaaS付费意愿较弱 需直观感知AI带来的价值跃升 [3] 公司战略与解决方案 - Fortinet提出"网安融合"理念 强调网络建设初期需整合安全 提供从边界到SASE到云端的完整安全架构 [2] - 公司通过统一操作系统FortiOS打通防火墙 SD-WAN SASE等产品数据链 构建Security Fabric平台 为AI提供全局分析基础 [2] - Fortinet防火墙全球市场份额超50% 多场景实战数据成为训练AI模型的独特资本 [2] 技术应用与效能 - FortiAI智能体可在10分钟内完成全链路诊断并生成处置方案 将传统需数小时的任务压缩至"一杯咖啡时间" [3] - AI当前基于统计学原理 无自主意识及强自我纠错能力 仍需人类在关键节点确认 [3] - AI能力目前内置于设备中 无单独付费 旨在让用户体验安全加持 [3] 行业协作与合规 - AI安全发展需国家监管与行业规则 在边界内发展技术成为未来趋势 [4] - Fortinet通过国际通用通信协议对接国内企业及平台 在合规框架下适配本土需求 [4] - 网络安全供应商竞争力将取决于数据融合深度与人机协作效率 而非单点算法 [4]
Yann LeCun 炮轰 Anthropic CEO!这人“既要又要”:要么太自大、要么不诚实
AI前线· 2025-06-09 13:51
整理 | 褚杏娟 向来直言不讳的 Yann LeCun,这次将"大炮"轰向了 Anthropic CEO Dario Amodei。 Thread 线程最后,Yann 还附加了一个链接,内容是 Dario Amodei 当地时间月 5 日在纽约时报发表 的文章:Anthropic 首席执行官:别让 AI 公司轻易脱责(Anthropic CEO: Don't Let AI Companies off the Hook)。 这篇文章主要还是 Amodei 用来反对被特朗普称为"美丽大法案"(One Big Beautiful Bill Act) 的 《HR1》法案,其中有一项关于 AI 监管的内容是,将禁止美国各州在从法案颁布之日算起的未来十 年内"执行任何监管 AI 模型、AI 系统或自动决策系统的法律或法规"。Amodei 认为这个"十年禁令是 一种过于一刀切的手段。"他还在文中既肯定了 AI 的巨大前景,也描述了其可能带来的社会风险。 随后,有人问他 Anthropic CEO 是 AI 末日论者还是 AI 狂热爱好者,Yann 直接回道: 他是个"AI 末日论者",但他仍在研究 AGI!这只有两种可能: ...