Workflow
AGI安全
icon
搜索文档
马斯克、奥特曼新口水战又曝新瓜,马斯克认定OpenAI必死才离开?!奥特曼:你不能翻篇吗?
AI前线· 2025-11-03 15:08
特斯拉Roadster交付争议 - 山姆·奥特曼于2018年7月支付4.5万美元预订特斯拉Roadster,但等待7年半后仍未交付,并于2024年10月底尝试联系退款5万美元未果[2] - 第二代Roadster于2017年11月发布,宣称将成为有史以来最快量产车,但交付一再推迟,马斯克最近表示新版本将于今年年底推出[3] - 知名YouTube博主MKBHD因等待时间过长取消了Roadster预定[3] - 马斯克回应称奥特曼在24小时内已收到退款,并指责其存在“选择性失忆”[3] 马斯克与奥特曼及OpenAI的矛盾根源 - 马斯克指控奥特曼“偷了一家非营利组织”,并称OpenAI应改名为“闭源逐利AI”,封闭程度堪比诺克斯堡,一心追求最大利润[3][10] - 马斯克声称OpenAI的开源是“装样子”,其开源模型根本无法使用,只是开源了一个残缺失效的版本[7][10] - 马斯克表示OpenAI成立初衷是作为开源非营利组织以制衡谷歌,公司章程明确规定高管和创始成员不能从公司获得经济利益,但OpenAI完全违背了这些原则[10] - 奥特曼反驳称其将马斯克认定“没救了”的组织变成了可能是有史以来最大的非营利组织,并指出马斯克曾希望特斯拉收购OpenAI且不搞非营利组织,并预测OpenAI成功可能性为0%[5] OpenAI创立与马斯克退出历史 - OpenAI于2015年由马斯克、奥特曼、Peter Thiel、Reid Hoffman等人共同创立,马斯克当时公开表示AI是“人类面临的最大生存威胁”[11] - 马斯克于2018年退出OpenAI董事会,官方理由是为避免与特斯拉潜在利益冲突,但知情人士称其撤回了承诺的后续资金,并提出由他单独掌管OpenAI被拒后撤资离开[11] - 2019年马斯克解释离开原因包括需专注于特斯拉和SpaceX的工程制造难题,以及不同意OpenAI团队的一些事情[12] 法律纠纷与近期冲突 - 2024年3月,马斯克正式起诉OpenAI及奥特曼,指控其背叛创立初心,违反非营利协议[15] - OpenAI反击并公开邮件,显示马斯克在2018年前就提出要全面控制OpenAI,并建议将其变为营利机构,与特斯拉深度整合,被拒后撤资[15] - 2024年11月,马斯克修正诉讼,将微软及Reid Hoffman加入被告,指控OpenAI与微软的合作是“事实上的合并”并存在反竞争行为[16] - 2025年2月,马斯克带领投资者出价974亿美元收购OpenAI控制权遭董事会否决[17] - 首次审判定于2026年3月30日进行,法官已斥责双方的“游戏策略”和“过多的法庭文件”[17] 马斯克对X(原推特)与公司治理的评论 - 马斯克收购推特后发现巨大浪费,一栋楼全空,另一栋入住率仅5%,一顿午餐实际成本400美元,且存在大量未使用的SaaS软件付费[21][22] - 当前团队正逐步删除原推特的遗留算法规则,计划采用混合模式并增加“精选关注”标签,由Grok筛选内容[22] - Grok每天读取平台上约1亿条内容(可能只是英文),先处理最热门的1000万条,该功能背后需要约5万台H100显卡服务器[22] - 马斯克批评上市公司治理问题,指出约一半股市被被动指数基金控制,投票权外包给咨询公司ISS和Glass Lewis,称其为“企业ISIS”[23] - 马斯克表示其寻求在特斯拉的投票权是为了保证在打造Optimus机器人时不会因政治原因被解雇,从而确保机器人安全性[23] 特斯拉自动驾驶测试进展 - 特斯拉在奥斯汀的自动驾驶测试已进行三四个月,总体顺利,团队主要在完善车队管理软件和网约车软件[23] - 团队正在扩大测试车队规模,计划在年底前于湾区部署上千辆测试车,奥斯汀地区至少500辆[23] - 目标是在2025年12月前,使奥斯汀的测试车实现无安全监控员行驶[23] Grok与Grokipedia项目 - 马斯克发布“Grokipedia”,声称其比Wikipedia更中立、更准确,信息量是Wikipedia的五到六倍,且完全无监督训练,使用完全合成的数据[20] - Grok被训练用于追求最大真实性、擅长逻辑分析,能分解论点、评估前提合理性和结论逻辑性[20] - 团队计划使用Grok Imagine生成解释性视频[20]
瑞莱智慧CEO:大模型形成强生产力关键在把智能体组织起来,安全可控是核心前置门槛 | 中国AIGC产业峰会
量子位· 2025-05-06 17:08
核心观点 - 大模型在金融、医疗等关键领域的渗透使得安全可控性成为产业落地的先决条件[1] - AI在落地过程中面临大量安全问题,包括模型自身缺陷、滥用风险及伦理合规挑战[6][8] - 安全可控是垂类大模型形成强生产力的核心前置门槛[20][26] AI安全问题分类 - **模型自身缺陷**:包括大模型易受欺骗(如"奶奶漏洞"导致数据泄露)、价值观对齐偏差、模型幻觉等[8][12] - **滥用风险**:AIGC合成内容被用于造谣(如伪造地震视频)、诈骗(AI换脸骗取资金)等[8][9][15] - **伦理与社会影响**:错误答案出现在儿童产品中可能造成深远危害[8] 大模型安全解决方案 - **技术加固**:通过红队模型自动生成威胁性测试案例发现隐患[17],采用后训练框架提升模型安全能力(如安全增强版DeepSeek)[18][19] - **检测工具**:推出DeepReal平台检测AIGC合成内容(图片/视频/音频/文本),支持实时主动警示[19] - **系统级防护**:人脸AI防火墙RealGuard已服务超半数国内头部银行,防范注入攻击[16] 垂类大模型落地三阶段 - **初级问答工作流**:客服/信息咨询等低耦合场景[21] - **工作辅助流**:人机协同完成报告撰写等任务,人工二次校验保障安全[21] - **深度重构关键任务流**:人机深度协同重构行业工作流程,释放最大价值[21][25] 安全可控实施路径 - **模型层面**:训练推理阶段加固、有害内容风险提示[22] - **系统层面**:利用Agent技术调用可信工具提升可控性(如复杂算术题场景)[23] - **组织层面**:通过智能体协同与流程重构实现生产力跃升,类比人类社会发展[24][25] 行业实践数据 - 人脸AI防火墙RealGuard覆盖国内50%以上头部银行[16] - AIGC检测平台DeepReal支持多模态内容识别,实时防护AI诈骗[19] - 安全增强版DeepSeek在保持通用能力前提下安全性达国际闭源模型最优水平[19]