AI前线
搜索文档
GPT-5.1曝光挽差评?救场背后,OpenAI 员工痛批Meta系的人正在“搞垮”公司!
AI前线· 2025-10-27 15:29
GPT-5.1 mini模型信息泄露 - 开发者在OpenAI官方"openai-agents-js" GitHub仓库中发现新模型GPT-5.1 mini的提及[2] - 代码库中的单元测试显示GPT-5系列模型命名规则,包括gpt-5-1-mini和gpt-5-pro等[3] - 尽管部分提及信息已被移除,但相关代码提交记录仍可公开访问[3] GPT-5 mini性能表现 - GPT-5 mini是GPT-5的精简版本,专为轻量级推理任务设计,具有更低延迟和成本[6] - 用户反馈显示GPT-5 mini在速度方面表现不佳,相比GPT-4.1 mini延迟更高[7] - 有开发者指出GPT-5 mini在代码编写和组织能力上不如GPT-4.1,回答质量类似早期GPT-3版本[13] - 但部分用户认为GPT-5 mini在单文件代码修改任务中表现良好,速度令人满意[8] 模型应用场景对比 - GitHub Copilot团队建议使用GPT-5或Sonnet 4.5进行规划,再转向GPT-5 mini执行计划[14] - 有开发者将GPT-5 mini与Grok Code Fast1对比,发现后者在代码解释和编写方面更优[13] - 企业账户可能使用GPT-5 mini为"内部知识库"功能提供支持[4] OpenAI战略转型 - 公司内部将用户参与度作为研发团队的关键KPI,员工担忧公司过度重视产品增长指标[15] - 约20%员工(630人)具有Meta工作背景,公司内部设立专门Slack频道容纳前Meta员工[16] - 员工发起内部调查,关注公司文化是否过于接近"大型科技公司"[18] 商业化方向调整 - CEO Sam Altman对广告态度转变,从"万不得已的选择"变为"并非完全不可接受"[21] - 公司正在研究基于ChatGPT"记忆"功能展示广告的可行性[21] - 产品团队推出新功能旨在将月活用户转化为周活甚至日活用户[23] 内部管理变化 - 前Meta高管Kevin Weil加入后提出将ChatGPT每周活跃用户数推至十亿的目标[19] - 部分高管对单纯强调"增长用户数"而非"打造优质产品"的策略表示不满[19] - 研究团队虽保持独立性,但商业化趋势仍对研究方向产生影响[23] 财务表现 - 公司规模在两年内从约800人扩张至约3000人[16][23] - 上半年营收达到43亿美元[23]
比小说还“野”!宿舍副业 AI 项目征服全美高校,俩20岁辍学大学生年赚千万,大批融资找上门全拒
AI前线· 2025-10-27 15:29
公司概况与业绩表现 - 公司由两名20岁的大学辍学生Rudy Arora与Sarthak Dhawan联合创办,其AI笔记工具Turbo AI用户量已激增至500万,年经常性收入突破八位数(即超过1000万美元)[2][3] - 公司始终保持盈利状态,且每天新增2万用户,自成立以来仅筹集了75万美元资金,但现金流始终为正[2][7][9] - 公司团队规模为15人,总部位于洛杉矶,目前正专注于与高校学生及创作者群体保持紧密联系[11] 产品开发与核心功能 - 产品灵感源于大学课堂难题,旨在解决学生无法同时兼顾听课和记笔记的问题,最初功能为录制课程并自动生成笔记、闪卡和测验题[3] - 产品在“录制-转录-总结”流程基础上,增加了AI生成的互动功能,包括学习笔记、测验题、闪卡以及可解释关键术语的聊天助手[3] - 由于大型教室录制时背景噪音问题,团队新增功能允许用户上传PDF、课程材料、YouTube视频或阅读文档替代录音,该功能已成为比实时课堂录制更常用的使用场景[4] 用户增长与市场拓展 - 产品最初在杜克大学和西北大学的学生间传播,短短几个月内渗透到哈佛大学、麻省理工学院等全美高校,成为全美高校学生的首选AI学习工具[6] - 产品影响力突破学术界,职场人士如顾问、律师、医生及高盛和麦肯锡的分析师也开始使用该工具,例如上传报告生成摘要或转化为播客[6][7] - 为覆盖更广泛的使用场景,产品从侧重学习功能的“Turbolearn”更名为“Turbo AI”,强调其AI笔记与学习辅助功能[7] 商业模式与竞争策略 - 公司向学生用户收取每月约20美元的费用,同时通过A/B测试实验调整定价以应对学生群体的价格敏感度[9] - 产品的竞争定位介于“手动工具”(如谷歌文档)与“全自动笔记工具”(如Otter、Fireflies)之间,用户既可以让AI全权处理任务,也能与AI协同操作[9] - 公司对过早筹集大量资金持谨慎态度,尽管有很多投资意向找上门,但并不急于推进融资[10] 创始团队背景与成功因素 - 两位创始人中学时期相识,曾合作多个项目,其中Dhawan开发的自我提升类应用UMax曾登顶App Store排行榜,积累2000万用户,年营收达600万美元[8] - Arora擅长社交媒体增长策略,能为产品带来数百万自然流量,而Turbo AI被视为具备可持续性的商业模式,足以让两人毅然辍学全力投入[8] - 公司的成功证明即使没有募集巨额融资,只要产品与市场需求高度匹配,依然有可能实现爆发式增长,为“风投驱动”的传统创业模式提供了替代方案[11]
传月之暗面将完成数亿美元融资;田渊栋揭露Meta乱象;OpenAI研究团队关键KPI向流量看齐 | AI周报
AI前线· 2025-10-26 13:32
AI大模型与创业公司动态 - 月之暗面将完成新一轮数亿美元融资 此前在2024年8月完成约3亿美元融资 [2] - OpenAI研究团队考核KPI转向用户参与度等增长指标 并采取措施研发可生成音乐的人工智能 [3] - 夸克上线AI对话助手 打造"搜索+对话"的新一代AI入口 被业界解读为对标字节跳动的豆包 [12] - 夸克AI眼镜开启预售 88VIP会员到手价3699元 普通消费者为3999元 搭载双旗舰芯片并开发近眼导航等功能 [13] - AI原生内容创作平台LiblibAI完成1.3亿美元B轮融资 刷新2025年国内AI应用领域融资纪录 [21] - LiblibAI在2024年内完成三轮融资 累计金额达数亿元人民币 投资方包括源码资本、高榕创投等 [22] 科技公司战略与组织调整 - 阿里午休时间引内部讨论 有员工称被要求13:30开始上班 不同BU的午休时间可能不同 [4] - 拼多多十周年庆为员工赠送金制品礼 入职满10年员工获赠100克金砖 较去年增加40克 [5] - Meta的AI部门裁员约600人 公司支付16周遣散费 工龄每满一年再加两周薪资 [6] - 华人AI科学家田渊栋证实被裁 指出团队曾被强制调去支援GenAI项目 但最后被裁掉的却是他们 [7] - 英特尔在过去不到两年内共裁员约35,500人 重组成本超10亿美元 年度研发预算减少8亿美元 [15] - 奔驰约4000名员工接受遣散方案离职 资深管理人员最高可获得50万欧元补偿金 集团希望到2027年每年节省约50亿欧元 [16] - 苹果iPhone Air在中国市场首日反响平平 据悉苹果削减了该产线订单 [19] - 苹果基础模型团队处于分崩离析状态 失去了领导者和创始成员 还有十几名顶尖AI研究人员 [20] AI技术与产品发布 - 鸿蒙6正式发布 首批80多个鸿蒙应用智能体上线 覆盖教育医疗、娱乐互动等领域 [27] - 腾讯混元世界模型1.1版本发布并开源 支持多视图及视频输入 单卡即可部署秒级创造3D世界 [28] - DeepSeek团队开源DeepSeek-OCR模型 参数量为3B 利用视觉模态压缩长文本上下文 [29] - DeepSeek-OCR在OmniDocBench测试中使用100个视觉token就超过GOT-OCR2.0 在单块A100显卡上每天可生成超过20万页训练数据 [30] - 宇树科技发布Unitree H2人形机器人 身高180cm 重70kg 配备31个关节并首次拥有拟人仿生脸 [31][33] - 字节跳动Seed团队推出3D生成大模型Seed3D 1.0 实现从单张图像到高质量仿真级3D模型的端到端生成 [35] - 快手StreamLake发布AI Coding产品矩阵 其KAT-Coder-Pro V1在SWE-bench测试中以73.4%解决率超越GPT-5 [36] - OpenAI正式推出桌面浏览器ChatGPT Atlas 具备智能体模式可接管网页完成复杂任务 目前已在全球上线macOS版本 [37] - 百川智能发布循证增强医疗大模型Baichuan-M2 Plus 医疗幻觉率较通用大模型显著降低 [38] 行业合作与市场拓展 - 抖音因默认允许作品被AI二创引争议 平台致歉并表示将优化功能 [21] - 日本Telexistence公司在东京逾300家便利店部署AI机器人 由远在菲律宾的VR操作员远程操控 [24] - 萝卜快跑与瑞士邮政巴士达成战略合作 计划12月在瑞士启动自动驾驶车队测试 [41] - 京东科技与Rokid乐奇达成战略协议 购物智能体JoyGlance将于11月在Rokid眼镜上亮相 [41] - 美国外卖平台DoorDash与Waymo达成合作 在菲尼克斯大都会区推出无人驾驶外送服务 [41] 企业伦理与战略定位 - 微软AI主管明确表示不会开发情色类AI服务 与OpenAI在此问题上的立场划清界限 [17] - 微软为其Copilot推出名为Mico的AI伴侣功能 强调设计初衷是增强情感陪伴与生产力支持而非娱乐化 [18]
AI 编程工具在大型企业“遇冷”?网易 CodeWave 升级研发模式,不只关注“代码生成”
AI前线· 2025-10-26 13:32
AI编程行业发展现状 - AI对软件开发领域的渗透不断加深,从2022年编程辅助工具兴起,到2023年自主智能体Devin引发关注,再到2024年以Cursor为代表的产品重新定义IDE形态[2] - 自然语言编程已成为AI编程产品的主流形态,越来越多的工具开始尝试通过自然语言直接对接开发需求[2] - 在C端个人用户和独立开发者群体中,通用AI coding工具表现出色,能够快速生成轻量级应用代码,显著提升开发效率[3] - 根据Stack Overflow发布的《2025开发者调查报告》,国内企业级市场的AI技术渗透率仍然较低,目前主要集中在头部互联网公司,而大量国有企业及传统企业仍处于观望阶段[3] 企业级AI编程面临的挑战 - 通用AI coding工具落地到企业级复杂应用开发时暴露出三大问题:代码质量不可控、可维护性差、业务理解泛化[5][6] - 企业级应用如ERP模块、供应链系统等往往需要6-7人团队开发半年以上,业务逻辑复杂[5] - 国有企业对代码安全和架构规范性要求极高,而通用AI工具生成的代码多适配国外主流技术栈,与国内企业的技术规范脱节[5] - 通用工具一次可能生成数百行代码,但开发人员需要理解代码逻辑才能进行后续迭代,这比接手"他人代码"更困难[5] - AI生成的代码缺乏业务上下文,多人协作时难以对齐需求,后续调试、修改成本极高[5] - 国内KA企业的AI coding采购渗透率低,并非企业不认可AI价值,而是通用工具无法解决"复杂应用+规范管控"的核心需求[7] 通用AI工具的水土不服问题 - 模型表现与技术栈脱节:国内主流AI编程IDE依赖Google Gemini、GPT-4等国外模型时效果较好,但适配国内自主模型后代码生成质量明显下降[9] - 自然语言无法描述复杂逻辑:企业级应用的业务逻辑错综复杂,而自然语言本身存在"歧义性",难以精准传递需求[9] - 代码采纳率与提效预期不符:业内不少企业称AI生成代码采纳率为60%-80%,但网易内部代码库的实际采纳率仅20%-30%[9] - AI生成的代码仍需开发者大量补充和修改,并未真正降低开发门槛[9] - 多数客户采购Copilot类产品后,都未达到规模化落地的预期[9] CodeWave的解决方案与定位 - CodeWave专注于企业级复杂应用开发场景,目标客户包括拥有上百甚至上千名研发人员的大型企业以及依赖软件开发服务商进行定制开发的企业[4] - 提出"可控的AI coding"定位:不做通用C端工具,而是将AI能力与原有开发底座融合,聚焦企业级复杂应用,实现"提效"与"可控"的平衡[8] - 采用可视化与AI融合的开发方式,支持从需求梳理、产品构思、开发部署、迭代等全流程研发智能化[10] - 保留人工布局与精细调整的空间,打造更可控、更规范、更落地的智能开发模式[10] CodeWave的技术演进与能力建设 - 从2023年开始布局AI能力,经历四个关键阶段,核心思路是以低代码为底座约束AI的"不可控",同时借AI弥补低代码的"灵活性"短板[12] - 定义统一的领域特定语言NASL作为Web应用开发的"高级抽象层",涵盖页面逻辑、数据定义、数据查询等核心概念[13] - 建立完整的数据驱动模型迭代体系,构建场景化Benchmark评测体系,设立准确率、展示率、留存率等核心指标[14] - 通过"原开发时长-AI辅助后时长""修改成本占比"等维度构建可量化的提效公式[14] - 实现非技术人员通过自然语言描述需求生成复杂前端组件,组件开发成本从0.5天降至0.5小时,降幅超过60%[15] - 针对游戏、营销等高度个性化场景,实现将PSD设计稿直接转换为可持续调优的页面,将营销页面开发周期从"数天"缩短至"1天"[15] 产品特性对比 - 传统Vibe Coding采用自然语言对话->AI生成代码->人工调试的交互模式,而CodeWave采用步进式人机协同:AI生成一步->人确认/干预一步->可视化预览调整[11] - 传统工具输出代码文件或代码行,CodeWave输出所见即所得的可视化应用模型、可导出的源码、可直接部署的应用镜像[11] - CodeWave内置企业级开发规范,如组件模板、数据模型、业务流程、代码规范,支持资产沉淀与复用[11] - 传统工具只覆盖开发环节提效,CodeWave覆盖"构思-需求-原型-开发-部署-迭代"全流程,支持一键部署与源码导出[11] 未来发展方向 - 随着项目量级增大,AI生成内容越多,开发者的维护难度就越高,企业级复杂应用需要实现"需求与实现对齐"和"多人协作规范"[19] - 计划将企业级开发实践与AI深度整合,推出Spectrum规范驱动开发模式,核心是"规范先行"[19] - 具体包括将用户"混乱的需求文档"转化为AI友好的"规范需求",在AI辅助下由架构师基于规范需求拆解开发任务[19] - 通过规范文档实时对齐需求与实现,避免"需求失真",确保所有AI生成内容都基于规范[19]
LangChain 彻底重写:从开源副业到独角兽,一次“核心迁移”干到 12.5 亿估值
AI前线· 2025-10-25 13:32
LangChain 1.0 版本重写概述 - LangChain 宣布完成1.25亿美元融资,投后估值达12.5亿美元,成为独角兽公司 [3] - 经过3年迭代,LangChain 1.0正式发布,这是一次从零开始的重写,旨在使框架更精简、灵活和强大 [3][4] - 重写后的框架围绕循环内的工具调用Agent架构构建,模型无关性是其核心优势之一 [4] 公司发展历程 - LangChain 于2022年10月由机器学习工程师Harrison Chase作为副业发起,最初是一个约800行代码的单文件Python包 [5] - 项目灵感来源于Stable Diffusion发布后、ChatGPT问世前的时期,旨在解决工具碎片化和抽象不足的问题 [6] - 2023年4月公司正式成立,先后完成由Benchmark领投的1000万美元种子轮和由红杉领投的2500万美元A轮融资,A轮后估值达2亿美元 [7] - 目前是增长最快的开源项目之一,每月下载量高达8000万次,拥有118k GitHub star和19.4k个分支 [3] 产品架构与核心功能 - LangChain核心是一个"情境感知的推理型应用框架",包含组件与模块层以及端到端的链与应用层 [9] - 框架整合了超过700个不同的集成,涵盖10大类组件,每类有30到100个集成,支持Python和TypeScript两种版本 [10] - 坚持"模型与基础设施中立"路线,支持主流大模型和80种向量数据库,定位为连接不同技术触点的"粘合剂" [10] - 提供高层级接口,使开发者仅用5行代码就能开始使用RAG、SQL问答、提取等功能 [6] 重写背景与挑战 - 在高速集成阶段,项目积累了约2500个未解决问题和300-400个待处理PR,团队在2023年夏天收到大量负面反馈 [11] - 用户反馈的主要痛点包括易用性牺牲了定制化能力,高层级接口成为开发者推向生产环境时的阻碍 [11] - 为解决定制化需求,团队于2023年夏天开始开发LangGraph,并在2024年初正式推出,允许开发者以更底层的方式编排智能体逻辑 [12] LangChain 1.0 关键技术升级 - 以LangGraph为底座进行彻底架构重构,原生支持持久化、检查点恢复、人类在环与有状态交互等生产级需求 [18][27] - 引入统一的`create_agent`抽象,平衡强可控性与低门槛,让开发者用少量代码即可搭建经典的"模型-工具调用"循环 [19] - 新增中间件概念,允许在核心智能体循环的任意位置插入额外逻辑,支持动态提示词、动态工具和动态模型选择 [23][25][26] - 引入更规范的content blocks以统一不同模型的输入/输出结构,并精简代理选项以降低选择与调参成本 [27][30] 产品线与发展重点 - 公司目前有三条主要产品线:LangChain开源框架、LangGraph和闭源工具LangSmith [13] - LangChain开源框架的核心工作是生态系统的规模化管理,需要与大量合作伙伴协作 [13] - LangGraph当前聚焦于可扩展性、智能体集成开发环境与调试能力的提升 [13] - LangSmith作为公司主要收入来源,专注于LLM运维领域的可观察性和监控功能,团队正致力于推进其可扩展性 [12][13]
HAMi × NVIDIA:GPU 拓扑感知调度实现详解
AI前线· 2025-10-25 13:32
核心观点 - HAMi v2.7.0版本正式推出针对NVIDIA GPU的拓扑感知调度功能,旨在解决高性能计算和AI大模型训练场景下的多卡通信瓶颈问题 [2] - 该功能通过智能调度,将计算任务精确部署到物理连接最紧密、通信速度最快的GPU组合上,以最大化加速计算任务并提升集群整体的算力效能 [2] - 其设计哲学是用动态发现代替静态配置,用远见决策代替短视分配,构成了一套成熟、高效的GPU调度方案 [27] 核心特性总览 - 核心设计思想是先在节点本地将复杂的物理拓扑精确量化为设备间的“通信分数”,然后调度器基于这些分数做出最优选择 [5] - 具备动态计算拓扑分数特性,Device Plugin能够通过NVML动态探测节点上GPU间的物理连接拓扑(如NVLink、PCIe),并将其量化为通信分数 [6] - 采用双策略防碎片调度,Fit函数内置寻优算法,针对多卡任务和单卡任务自动采用“最佳匹配”与“最小破坏”策略 [6] 实现原理:拓扑注册与调度决策 - 拓扑注册阶段的目标是将GPU物理连接转化为调度逻辑可理解的标准化的数字分数 [9] - 信息探测环节通过NVIDIA的NVML获取所有GPU两两之间的物理连接类型(NVLink或PCIe) [11] - 数据建模与量化环节首先在内存中构建完整的GPU拓扑图,然后根据预设规则将连接关系计算转换为具体的通信分数 [11] - 最终产物是一个记录了每个GPU的UUID以及它与其他所有GPU之间通信分数的“设备分数表”,并被注册到节点的Annotation中 [11] - 调度决策阶段,Fit函数会先过滤掉不满足基本资源需求的GPU,然后基于设备分数表执行考虑了最佳匹配和最小破坏原则的寻优算法 [11] 代码深度解析:拓扑发现与分数计算 - 拓扑信息的发现与量化在Device Plugin本地完成,并最终生成可供上报的分数表 [13] - 构建拓扑图逻辑由`build()`函数完成,它初始化设备列表后,通过双重循环遍历所有GPU对,聚合连接信息,构建包含丰富连接信息的完整拓扑图 [15] - 量化为分数由`calculateGPUScore`函数完成,它会检查两个GPU之间的所有连接并根据详细的switch语句进行评分,最终分数是所有连接分数的总和 [15] 代码深度解析:设备端调度决策 - 调度决策核心逻辑位于设备端的`Fit()`函数中,该函数会根据请求的GPU数量自动切换寻优策略 [14] - 对于多卡任务(请求多于1个GPU),采用“最佳匹配”原则,目标是寻找内部通信总分最高的GPU组合 [19] - 具体实现是找出所有满足资源需求的空闲GPU,生成所有可能组合,计算每个组合内部所有设备对的分数总和,并选择分数总和最高的组合 [20][23] - 对于单卡任务(只请求1个GPU),采用“最小破坏”原则,目标是选择与其他可用GPU连接最“疏远”的卡 [22] - 具体实现是遍历所有可用单个GPU,计算每个GPU与其他所有可用GPU的分数总和,并选择总分最低的GPU,以保护拓扑完整性 [22] 使用方式 - 用户只需一个Annotation即可启用拓扑感知调度,调度器会根据任务请求的GPU数量自动应用相应的策略 [25] - 启用方式为在Pod的metadata annotations中添加`hami.io/gpu-scheduler-policy: "topology-aware"` [26]
微软深夜送出程序员节最“离谱”的礼物:让Mico接管你的Copilot
AI前线· 2025-10-24 12:07
核心观点 - 微软发布Copilot秋季更新,将其从“生产力工具插件”升级为跨设备、跨场景的“情境AI基础设施”,体现了“以人为本的AI”理念 [2] - 此次发布围绕三个关键词:协作、个性化、连接,共推出12项关键功能 [2][3] - 新虚拟角色Mico的推出是本次更新的亮点,标志着微软在人机交互领域长达三十年探索的延续,旨在将AI从“工具”转变为“伙伴” [5][18] 关键功能更新 - **小组(Groups)**:支持最多32人共享Copilot会议,在同一工作空间进行头脑风暴和共同创作,Copilot负责维持上下文、自动汇总决策 [3] - **Imagine**:作为协作中心,用于在企业环境中快速创建和混合AI生成的视觉素材、营销草稿或培训材料原型 [3] - **真实对话(Real Talk)**:旨在摒弃AI模型过度讨好的行为,采用更可信的对话方式,如苏格拉底式问答,以提供更具技术协作价值的反馈 [7] - **记忆与个性化(Memory & Personalisation)**:使Copilot具备长期情境记忆能力,可按用户指示记住关键细节并提供个性化建议 [7] - **连接器(Connectors)**:与OneDrive、Outlook、Gmail、Google Drive、Google日历集成,实现跨账户的自然语言搜索 [7] - **主动行动(Active Actions,预览)**:基于用户最近活动与上下文,以“下一步建议”的形式主动提出可行操作 [7] - **Copilot for Health**:基于可靠医疗来源提供健康信息,并支持用户查找和比较医生 [7] - **实时学习(Live Learning)**:提供通过问题、视觉效果、白板的苏格拉底式、语音驱动辅导体验 [7] - **Edge中的Copilot模式**:将Microsoft Edge浏览器转换为“AI浏览器”,用户可通过语音总结、比较网页内容并执行操作 [7] - **Windows上的Copilot**:通过“Hey Copilot”激活,与Windows 11深度集成,引入Copilot Vision并通过摄像头/屏幕识别理解视觉内容 [7] - **Copilot Pages和Coppilot Search**:Pages为协作文件画布,Search将AI生成答案与标准网络搜索结果相结合 [7] 虚拟角色Mico - Mico是Microsoft和Copilot的组合名,以可爱、不规则圆点造型作为新的角色标识出现在用户界面 [3][5] - Mico能实时变换表情和颜色以反映情绪和反馈,定位为跨模态、统一的用户体验层 [3][15] - 该角色是微软对1997年推出的Office助手“大眼夹”(Clippy)理念的延续,旨在探索“情感化计算”和“亲和式交互” [5][6][10] - 微软AI部门高管表示,Mico拥有固定形象、独立空间以及“成长”过程,是公司“人本主义人工智能”愿景的具体化体现 [10][15][16] 行业意义与市场反应 - 外媒评论此举是微软将其生产力体验与生成式AI能力更深整合的一次重大举措 [3] - 此次更新标志着AI技术从“工具”迈向“伙伴”,旨在让人与电脑的关系从命令与响应转变为对话与理解 [18] - Mico亮相后在社交媒体引发讨论,有用户称赞其可爱、有活力,并包含将Mico变为Clippy的彩蛋功能 [20][21] - 有观点认为,Mico在市场上面临挑战,因为科技公司对赋予AI个性持谨慎态度,此前Clippy因技术受限和交互生硬而失败 [5][21]
1000 行 Java 代码手搓 OpenAI gpt-oss 推理引擎
AI前线· 2025-10-24 12:07
Java 实现推理引擎 概 述 要从 0 到 1 用 Java 打造一个推理引擎,就需要 port gpt-oss 原生的 PyTorch 实现 model.py。gpt-oss 之所以被称为 open-weight model,就是开源了这 个模型架构的 model.py 以及公开了模型参数。至于训练细节和数据没有披露(如果再公开这些才能叫做真正的 open-source,例如 OLMo 2)。 作者 | 张旭 2025 年 8 月,OpenAI 发布了 gpt-oss,作为继 GPT-2 之后再次开源的 open-weights model,提供了 120b 和 20b 两个 reasoning models。一经推出, 迅速获得 AWS、GCP 等云厂商,以及 Ollama、LM Studio、vLLM、Transformers 和 TensorRT-LLM 等推理引擎的广泛支持。出于对 LLM 底层的好 奇,并受到 llama.cpp,llama2.c 等聚焦在 edge device 上做 inference 项目的灵感激发,我尝试使用 Java 移植(port)gpt-oss 推理引擎在 CPU ...
Meta大裁员,华人大佬田渊栋被裁了?!Alexandr Wang “嫡系”部门还在重金招聘
AI前线· 2025-10-23 12:12
Meta 首席 AI 官 Alexandr Wang 在备忘录中写道:"通过缩减团队规模,决策所需的沟通会更少,每个人都会承担更多责任,拥有更大的发挥空间和影 响力。" Wang 表示,美国员工将在太平洋时间早上 7 点前得知是否受影响。公司鼓励被裁员工申请内部其他职位,并预计其中大部分人能够在 Meta 内部重新 上岗。"这是一群极具天赋的同事,我们在公司其他部门仍然非常需要他们的能力。" 随后,华人 AI 科学家田渊栋在推特上发帖称,"今天,我和我的几位团队成员都受到了此次裁员的影响。欢迎联系我们 :)" 整理 | 褚杏娟 据 Axios 报道,Meta 内部人士透露,Meta 正在从其 AI 部门裁撤数百个岗位。 此次,Meta 将在其"超级智能实验室"内裁减大约 600 个岗位,该实验室目前共有数千名员工。裁员将涉及 FAIR(Fundamental AI Research)研究部 门、与产品相关的 AI 团队,以及 AI 基础设施团队,但不会波及新成立的 TBD Lab,甚至仍在积极招聘。 根据内部备忘录,Meta 认为其长期以来的 AI 团队已经变得过于官僚,希望通过这次组织调整,让团队运转更加高 ...
倒计时 3 天!AI 新“蜀”光如何点亮西部科创高地?GTLC 成都站揭秘>>
AI前线· 2025-10-23 12:12
GTLC 全球科技领导力大会,是由 TGO 鲲鹏会主办的顶级领导者大会,始于 2016 年,已经在北京、上海、深圳、杭州、南京、成都、硅谷、新加坡等 十余个 TGO 鲲鹏会学员城市举办。据不完全统计,超过半数的参会者为科技公司技术一号位。 2025 年 10 月 25 日,GTLC 全球科技领导力大会·成都站即将在成都·菁蓉汇盛大开幕! 本次大会以"AI 新'蜀'光"为主题,聚焦"AI 应用生态",邀请 20 余位各领域顶级前沿观察者和实践者,与现场参会者共同开放协作、深度交流,以集体智 慧迎接这一全新的技术周期。 GTLC 全球科技领导力大会·成都站 大会主题:AI 新"蜀"光 大会时间:2025 年 10 月 25 日 参会地点:成都 · 菁蓉汇 GTLC 全球科技领导力大会·成都站,大会当天除了有多场高质量主题演讲之外,还有 7 场午餐闭门会,3 场午餐饭团,2 场主题闭门会,让您可以更好 地与大咖讲师和诸位科技领导者深度、私密交流。 这场筹划已久的科技领导者盛宴,让众多行业大咖即将齐聚成都!在此,TGO 鲲鹏会特别献上一份 GTLC 参会指南,带您快速掌握会议信息,更好地 玩转此次大会! GTLC 上 ...