Workflow
Founder Park
icon
搜索文档
Sam Altman:到目前为止,这绝对是我最喜欢的 ChatGPT 新功能
Founder Park· 2025-09-26 11:30
产品功能发布 - OpenAI宣布推出ChatGPT新功能“Pulse”的预览版,首先向Pro订阅用户开放 [2] - “Pulse”功能类似于超级私人助理,会在每晚主动研究,根据用户聊天记录、反馈及日历等关联应用提供个性化更新,并在次日清晨以可视化卡片形式推送 [2] - 该功能基于智能体(Agent)技术,旨在使ChatGPT从完全被动转变为主动,提供高度个性化服务,被公司首席执行官视为其最喜欢的ChatGPT功能 [2] 产品运作机制 - ChatGPT可代表用户进行异步搜索,每晚综合记忆、聊天记录和直接反馈以了解最相关内容,次日提供个性化更新,内容可包括常讨论话题的后续、健康晚餐创意或长期目标的后续步骤 [5] - 研究结果以主题可视化卡片形式呈现在Pulse中,用户可快速浏览或查看详情,并可管理研究内容,告知哪些内容有用或无用 [5] - 功能支持链接Gmail和Google日历以提供更多上下文,从而提供更相关建议,如起草会议议程、提醒购买礼物或推荐旅行餐厅,集成功能默认关闭,用户可随时在设置中开启或关闭 [5] 用户交互与反馈 - 用户可请求ChatGPT每天搜索互联网内容,例如请求周五本地活动综述、学习新技能技巧或跟踪最新AI领域论文 [8] - 用户可通过点赞或踩赞快速提供反馈,并可查看或删除反馈历史记录,人类指导将使Pulse随时间推移更加个性化和实用 [8] - Pulse显示的主题经过安全检查,以避免显示有害内容 [7] 市场反应与战略意义 - 功能推出后已有大量用户收到推送,用户反馈显示推送内容不仅宽泛且非常具体,涉及之前与ChatGPT聊过的具体话题 [10] - Pulse推送包含数个带AI生成配图的主题卡片,并继续提供其他功能指引,如优化推送、发送电子邮件通知或访问电子邮件和日历,被视为最个性化的新闻推送 [10] - 主动的AI可能影响人们获取新闻和社交媒体消费习惯,并为公司提供清晰平台以在未来插入广告甚至构建社交网络,但目前仍专注于提供有用信息 [12] - 公司表示这是ChatGPT走向实用化的第一步,旨在主动为人们提供所需,下一步目标是推广至Plus级别用户 [14]
对话 Plaud 莫子皓:你还记得 PMF 的感觉吗?
Founder Park· 2025-09-25 09:03
公司财务与市场地位 - 公司去年盈利超过1亿美元,今年预计盈利将超过2亿美元 [3] - 公司是全球最成功的AI硬件初创企业,其约150美元的录音卡片产品已销往全球超过100万人 [4] - 公司实现了显著增长,一年内增长四倍,这被视作产品市场契合的有力证明 [5][17][18] 产品形态与市场验证 - 公司最初的产品形态是卡片式设计,可吸附于手机背面,但后续推出的挂坠形态产品日出货量已与卡片形态持平 [26] - 挂坠形态产品特别受到专业用户群体的欢迎,例如销售和保险经纪人,在国内的ToB合作中90%的订单选择此形态 [28] - 公司认为工业设计是成功的因素之一,但不同用户对产品形态有不同需求,核心价值在于作为用户线下场景的传感器 [26][27] 产品哲学与AI战略 - 公司的产品哲学强调与大模型和用户意图对齐,而非简单功能优化,致力于开发只有最强模型才能实现的能力 [21][47] - 公司开发了Press to Highlight功能,通过硬件按键标记关键时刻,以此捕获用户意图,为AI提供更丰富的上下文 [44][45][48] - 公司的长期愿景是让模型评估用户,其核心思想是捕获上下文是为了让模型更好地“使用”用户,而非相反 [55][56] 技术能力与竞争优势 - 公司认为竞争对手需要超过100人的团队、大量资金和时间才能达到其同等水平,尤其在数据合规认证方面存在壁垒 [32] - 公司的竞争优势在于软硬件结合,中国供应链在硬件方面具有优势,而AI软件部分则与硅谷公司竞争 [36] - 公司产品被定义为AI Native硬件,即没有大模型就无法使用,其语音识别技术已开始融入大模型 [73] 目标用户与产品定位 - 公司将目标用户定义为“三高”人群:语言媒介占比高、行业知识浓度高、决策杠杆高 [60] - 公司当前将产品定位为Work Companion,强调平等伙伴关系,而非助手,旨在提供战略层面的决策支持 [58][59] - 公司服务的用户主要工作场景不在电脑前,不需要传统办公软件,而是需要更好的思考和决策工具 [60][71] 未来发展方向 - 公司未来的重要方向是组织和利用用户的上下文,构建一个让AI智能体自主演进的数字分身或环境 [63][64] - 公司认为幻觉在AI智能体突破用户智能边界时具有积极作用,是产生新想法的源泉 [65] - 公司的发展将紧跟大模型能力演进,模型能力的变化将直接驱动公司产品和战略的调整 [66][67] 团队与文化 - 公司团队背景多元,包括硬件、软件、营销等领域的专业合伙人,员工流失率低且充满干劲 [12][38] - 公司正在积极招聘,特别需要工程能力强、能设计面向大模型架构的顶尖人才 [9][78] - 公司招人标准强调聪明、正直、有野心,并注重试用期的实际工作能力考察 [79]
a16z:AI 产品初期用户流失高很正常,M3 留存才是评估 PMF 的关键
Founder Park· 2025-09-24 16:16
核心观点 - 头部AI企业面临的核心挑战是用户留存的准确衡量问题,而非留存本身存在问题 [2][4] - 将用户留存率基准点从第0个月后移至第3个月,能更清晰评估产品市场契合度和市场推广策略 [2][4] - AI产品用户留存曲线可划分为三个明确阶段:获客期、留存期和扩张期 [2][8] - M12/M3比率是预测长期留存质量的早期关键指标,比率接近或超过100%意味着长期净收入留存率有望突破100% [2][15] - 随着AI产品持续迭代并捕捉服务型工作负载价值,未来头部AI企业的长期留存率可能超越SaaS及消费互联网企业 [5][24][25] 留存曲线阶段分析 - **获客期**:指用户注册后的前三个月,此阶段营收留存曲线常因“AI体验者”激增而出现“初期下滑”,这是过滤非核心用户的自然过程 [8][10] - **留存期**:通常指第3个月至第6或第9个月,此时曲线开始平稳,兴趣型用户基本流失,剩余用户多为找到高价值使用场景的核心用户 [8][12] - **扩张期**:指第9个月之后,部分核心用户将产品融入新工作流,企业可通过基于使用量的定价模式或引导试用新产品将扩张转化为营收增长 [8][12] - 在原生AI企业中观察到“微笑型”客户留存曲线,即随着产品功能迭代,流失或低使用率用户会重新回归或提升使用频率,ChatGPT是典型案例 [12] 关键衡量指标与方法 - **M3留存率**:代表“AI体验者”流失后企业真实的核心客户基数,是衡量市场推广投入转化为长期用户效率的关键 [18][23] - **M12留存率**:反映核心客户在整年周期内的留存表现 [18] - **M12/M3比率**:衡量挺过体验者流失期的核心客户在首个完整年度的留存质量,是预测长期留存表现的重要早期指标 [18] - 建议跟踪“M3留存客户的单位获取成本”,该指标能衡量市场推广投入转化为长期用户的效率 [23] - 对于按月签约客户,留存曲线可直接作为产品市场契合度的判断依据;对于按年签约客户,需重点跟踪使用模式、功能采用率等用户活跃度指标 [23] 产品策略与市场推广影响 - 适用场景广泛的产品更容易吸引兴趣型用户,尤其是定价较低的产品,大多数潜在用户愿意支付20美元试用一个月 [13] - 付费墙设置严格的产品可能吸引大量付费用户,但如果用户无法快速看到产品价值,流失速度也会更快 [13] - 采用“generous free tier”策略的产品,其付费转化用户的留存表现通常更好,M3留存率也更高 [13] - 若M3后留存曲线仍显著下滑或无法平稳,表明初期客户满意度未转化为长期产品效用;若曲线实现平稳,则可更可靠预测单位经济效益并更激进地投入市场推广 [23] - 留存率是预测5年期“客户终身价值/客户获取成本”回报率的核心输入变量,若留存率表现不佳,盲目增加市场推广投入效率低下 [22][23]
Google Cloud 最新 AI 创业者报告:应用公司不用做自己的模型,速度和认知才是壁垒
Founder Park· 2025-09-24 16:16
给创业者的建议 - 抢占市场先机是初创公司的重中之重 [6] - 定价应以交付价值为准绳,考虑按用量或价值收费,而非局限于按人头收费 [6] - 即刻开展评估,在初始阶段建立明确的指标体系和 AI 系统性能评估方法 [6] - 应深耕细分领域解决特定难题,而非着眼于通用 AI [6] - 创始人需做到找人要精、脸皮要厚、嗓门要大、离钱要近 [6][18] 平台级应用的新机会 - 当前市场对出现千亿级公司机会尚未形成共识,百亿级公司机会更为现实 [7][9] - 出现千亿级公司需突破三道门槛:分发格局改写、大厂机制逆袭、冷启动与产品力完美耦合 [7] - AI 未像移动互联网那样引入分发渠道变革,大厂仍把控流量入口且反应迅速 [9] - 百亿美金路径现实存在,假设给20倍市销率,仅需5亿美金年度经常性收入,目前已有公司达到1-2亿美金年度经常性收入以上 [9] - 跑出百亿美金级别AI原生消费级公司,需在集中基础设施格局中找到差异化切口,打磨产品体验与商业模型 [10] AI应用公司的模型策略 - 应用公司无需自研模型,可类比消费电子行业与芯片供应商的关系 [11] - 只依赖单一闭源模型的应用最脆弱,供应商可能下场做相同业务或停止提供接口 [11] - 当市场出现多家供应商或强大开源模型追平闭源模型时,应用生意更安全且可节省模型层毛利 [11] - 自研模型收益低且可能丧失使用所有前沿模型的灵活性优势,对规模尚小的公司是麻烦 [11] - 时机是第一位的,应尽快将产品做出并进行市场验证,快速获得反馈 [12] AI应用的壁垒 - 随着智能提升,最初以为的壁垒会发生变化,难以有能一直延续的壁垒 [13] - 认知以及基于认知的速度可能是唯一的壁垒,做得早、做得快就是壁垒 [13][14] - 长期来看,垂类数据相比通用数据更难获取,可能构成壁垒,但若模型智能足够强可自我学习则壁垒不存在 [13][14] - 真正难点在于可持续性,即能否形成稳定盈利结构实现每年5亿美金净利润 [13] - 当前客服、设计、代码、法律、教育、医疗等多个垂类均显现出潜在爆款应用苗头 [13] AI产品的形态与增长 - AI产品过去是模型越好体验越好的「生鱼片型」,现在更像需看厨艺和配料的「水煮鱼」,产品能力更重要 [15] - AI应用能力分为三层:模型层、Context层(公共、组织、个人)和环境层(模型与外部世界交互的能力) [15][16] - AI产品增长靠创新而非广告,需让用户意识到创新点,用户对AI敏感,真正创新会自发传播 [16][17] - 花钱投广告对AI产品大多无效,增长核心不是怎么花钱,而是有何新东西 [16][17] - 推广方式改变,创始人需直接上台清晰讲解新能力,产品需持续迭代以留在用户记忆里 [17] 创始人与组织建设 - 抢占优秀人才比找方向更重要,公司前3-4号位对成败的权重可能占90%以上 [19] - 不要被自己说过的话绑架,环境变化快,该调整调整该转型转型 [19] - 技术品牌是重要竞争力,吸引用户和顶级人才需要足够响亮的声量 [19] - 用户付费是很好的价值验证投票器,产品从一开始就要尽可能离钱近 [19] 出海战略与素质 - 出海AI组织需具备三大素质:比较优势识别能力、选择与判断力、执行力 [23][24][25] - 需找到人类共同需求(普适需求)或对目标市场有真正深入理解和审美 [21][25] - 发挥中国创业者优势,如工程师性价比和执行力,在产品品位达标基础上抢占用户心智 [25] - 产品需为未来设计,预判技术趋势,滑向冰球将去之处而非现在方向 [25] - 生而全球化,AI是全球机会,全球化视角决定能否捕捉最大机会 [25] - 建议错位竞争,利用比较优势,例如避开美国转向中东、拉美等增长市场 [26] 投资人看好的赛道与准则 - 有四类AI产品值得投资:双边网络效应产品(极稀缺)、非共识路径、数据和场景优势、复杂产品 [27][28][29][30] - 双边网络效应曾是强护城河,但当前AI产品多是用户对模型的单边交互,未来形态尚难预测 [27] - 伟大公司早期多为非共识,能在没人看懂时做对事情,错开巨头注意力争取成长窗口 [28] - 拥有数据和场景是长期护城河,垂类场景尽早落地产品并绑定数据流可构筑有效壁垒 [29] - 复杂产品的竞争力来自产品模式、技术路径和商业模式的复杂耦合,本身是门槛 [30][31] - 投资核心准则包括建立前瞻视角、找准数据路径、秉持第一原理、优秀的创始人和出色的产品缺一不可 [32][33][34][35]
18 年 SEO 增长经验专家:别再收藏各种 AEO 最佳攻略了,自己动手实验才是做好的关键
Founder Park· 2025-09-23 22:19
AEO的定义与核心逻辑 - AEO(答案引擎优化)的核心目标是让内容以答案形式出现在大语言模型中,其本质是优化大语言模型以提供特定答案[9] - AEO与SEO的核心技术和思维方式高度重叠,AEO在SEO基础上增加了引用来源优化、更长的尾部问题和不同的头部竞争策略[5][50] - 大语言模型的工作机制可分为核心模型和RAG(检索增强生成)两个层面,其中RAG层通过搜索并总结结果来生成答案,这是最可控且见效最快的优化环节[27][28] AEO与传统SEO的关键差异 - 在AEO中,非常具体小众的长尾问题占据了更大流量份额,用户平均提问长度达25个词(传统搜索仅6个词)[19][21] - 头部竞争策略不同:传统搜索排名第一即获胜,而AEO答案排名取决于在所有引用来源中被提及的次数,需要尽可能增加品牌提及率[14] - 早期公司更适合AEO:传统SEO需要长期积累域名权重,而AEO可通过Reddit帖子、YouTube视频等渠道快速获得曝光,新公司发布第二天就可能出现在答案中[18] AEO的流量价值与转化效果 - ChatGPT带来的流量转化率比传统Google搜索高出6倍,用户经过多轮对话后需求更明确,转化质量显著更高[16] - Webflow公司8%的新用户注册来自大语言模型,这已成为重要用户获取渠道[47] - 流量增长自今年1月开始显著爆发,原因包括用户采纳率提升和答案可点击性增强(出现地图、购物轮播图等交互元素)[10][52] 有效的AEO优化策略 - 站内优化需重点关注帮助中心和技术支持内容,通过移入子目录、加强交叉链接、填补长尾问题空白来提升覆盖率[58][59][60] - 站外优化核心是引用来源优化,重点渠道包括YouTube视频、Reddit社区、联盟营销网站(如Dotdash Meredith旗下网站)和专业评测网站[22][30][31] - Reddit优化策略强调真实性:员工使用真实身份在相关帖子下提供高质量评论,5条高质量评论效果优于1万条垃圾评论[24][25] 行业错误认知与验证方法 - 网上大部分AEO最佳实践信息不准确,存在大量错误信息,需要自行验证策略有效性[2][36] - 验证需采用实验方法:选择200个问题分为测试组和对照组,针对测试组实施Reddit评论、YouTube视频等干预措施,观察几周后与对照组对比数据变化[43][44] - 纯AI生成内容策略行不通,排名前的内容中90%为人类创作,AI生成内容仅占10%,过度依赖AI会导致模型坍塌和观点趋同问题[53][54] 不同公司类型的AEO策略 - B2B公司应重点优化TechRadar等科技媒体引用来源,通过品牌曝光影响长决策链条[45] - 电商公司可直接追踪AI答案中购物卡片的点击转化,引用来源主要为时尚杂志和生活方式网站[45] - 早期公司建议完全放弃传统SEO,全力投入AEO,专注引用来源优化和长尾问题优化两大领域[45]
Nano Banana核心团队:图像生成质量几乎到顶了,下一步是让模型读懂用户的intention
Founder Park· 2025-09-22 19:39
图像模型发展趋势 - 图像模型正从创意工具向信息查询工具转变,类似于LLM的发展路径[4][11] - 未来模型将更主动、更智能,能根据用户问题灵活运用文本、图像等多模态交互[4][11] - 所有团队都在朝通用模型(Omni Models)方向发展,即能处理多种任务的模型[6][40] 技术突破方向 - 关键进步将体现在模型的可表达性方面,重点是提升能力下限而非上限[6][33] - 现在最好的图像质量与几年后相差不大,但最差的图像质量将显著改善[6][33] - 图像与视频模型技术共享紧密,未来可能融合在一起[40][41] 产品应用场景 - 角色一致性功能成为用户最感兴趣的功能之一,允许用户将自己形象置于不同场景[8][9] - 用户最高频需求包括更高分辨率(目前为1K)、透明背景和更好的文字渲染效果[9] - 图像模型在专业工作流中应用广泛,包括建筑设计、视频制作和网站UI生成[24][25][28] 交互设计挑战 - 多模态交互核心在于识别用户意图,根据实际任务切换不同交互模式[4][19] - 界面设计需明确问题边界,让用户清楚哪些操作可行[5][20] - 当前UI设计被低估,需要整合各种模态让普通人更容易使用模型[4][18] 模型评估方法 - 真实用户主动测试是最佳评估方式,如LM Arena平台让用户输入自己的Prompt使用模型[21] - 形成反馈循环,利用语言模型的智能来评估自己生成的内容[21] - 团队通过多渠道收集用户反馈,调整评估标准确保好用功能不退化[22] 个性化与美学需求 - 美学需求难以满足,需要深度个性化才能提供有用建议[6][26] - 个性化更多停留在Prompt层面,通过对话和上下文实现而非专属模型[26][27] - 现成模型支持的使用场景范围广泛,但高级功能需求需要结合其他工具[28] 行业竞争格局 - Midjourney成功关键在于比其他团队更早搞清楚如何进行模型的后续训练[6][31] - 小团队仍有可能做出顶尖模型,但有能力训练LLMs的团队可能占据主导地位[6][43] - 图像和视频领域存在良性竞争,推动整个行业快速发展[30] 工作流整合 - 传统工具和AI模型将长期共存,各自满足不同精度控制需求[35][36][37] - Gemini等聊天工具适合快速迭代和创意构思,专业场景需要更精密的多工具协作流程[35] - 模型在办公协作、知识性场景和创意领域都有巨大应用潜力[37][38]
真实、残酷的 AI 就业冲击,从一篇极其精彩的哈佛论文聊起
Founder Park· 2025-09-21 12:05
AI对美国就业市场的冲击模式 - 2022年中开始美国初级岗位就业增长停滞,2023年中转为负增长,与高级岗位增长形成明显剪刀差[23][25][26] - AI采纳者公司(定义为招聘LLM、Prompt Engineer等AI相关岗位的公司)初级岗位就业人数在AI爆发后出现断崖式下跌,六个季度后与对照组差距达7.7%[42][43] - 初级岗位萎缩主要源于招聘冻结而非裁员,AI采纳者公司平均每个季度少招3.7个初级员工,大规模招聘公司初级岗位招聘量暴跌约22%[53][54][55] 行业受影响差异 - 对初级岗位的压缩效应在所有行业普遍存在,但程度不同[63] - 批发和零售业受冲击最大,AI采纳公司初级岗位招聘数量比对照组每季度减少近40%[65][66] - 互联网、软件、设计行业受影响较大,但非最严重区域[64] 不同教育背景员工受影响程度 - 毕业生受影响程度呈现U型曲线:顶尖名校(Tier 1)和普通大学(Tier 5)毕业生受影响较小,中上等大学(Tier 2和Tier 3)毕业生受打击最严重[73][76][77][78] - 顶尖名校毕业生因解决复杂问题能力强而难以被替代,普通大学毕业生因人力成本优势明显,中间层毕业生薪资要求高但工作内容易被AI替代[79][80][81] AI替代的具体机制 - 公司通过自然流失和晋升减少初级岗位,而非直接裁员,避免补偿成本和PR风险[51][52][57] - AI主要替代文员、客服、导购等简单任务密集型岗位[67] - 就业市场对初级岗位年轻人关闭的方式隐蔽且成本低,如同温水煮青蛙[59][60]
从上下文工程到 AI Memory,本质上都是在「拟合」人类的认知方式
Founder Park· 2025-09-20 14:39
Context Engineering(上下文工程) - Context Engineering被定义为"为大语言模型提供充分的上下文信息,使其有能力合理地解决任务的艺术",其重要性被认为大于Prompt Engineering [11][13] - 该概念最早由Shopify CEO Tobi Lutke提出,后经Andrej Karpathy强调,被认为是构建企业级LLM应用的核心技能 [11] - Context Engineering被类比为计算机架构中的内存管理:LLM是中央处理器(CPU),上下文窗口是随机存取存储器(RAM),而Context Engineering则精心设计哪些信息进入工作内存 [18] - 该领域涉及多项技术要素,包括任务描述、少样本示例、RAG、多模态数据、工具、状态和历史记录以及压缩等 [15] 上下文长度与模型性能 - 尽管Google Gemini模型支持2 million token上下文,Claude Sonnet 4支持1-million token上下文窗格,但业界共识是上下文并非越长越好 [25] - 过长的上下文会导致四大问题:超出窗口大小限制、成本和延迟急剧增加、代理性能下降,以及具体问题如上下文污染、干扰、混淆和冲突 [26][27][28][30] - 注意力的有限性被认为是智能的构成条件而非障碍,Focused Context > Long Context成为重要原则 [29][30] - 上下文工程被描述为"构建AI代理的工程师的首要任务",需要进行精心的上下文管理策略 [30] Context Engineering的实施策略 - 构建Context Engineering的常见策略分为四大类:写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate) [32] - 写入策略包括使用暂存器(Scratchpads)模拟人类意识的"滞留"结构,以及更持久的记忆库(Memory) [34][36] - 选择策略涉及如何把有用信息放入上下文,包括对暂存器内容的提取和对更大数据库的工程化检索机制 [37][38] - 压缩策略通过摘要或修建来减少token占用,但核心挑战在于如何保持原始经验的"意义"而不仅是功能性信息 [39][41][42] - 隔离策略通过在不同智能体、环境或状态中隔离上下文来实现 [43][44] 人类记忆机制 - 人类记忆被定义为大脑编码、存储和回忆信息的能力,构成学习、决策和与世界互动的基础 [43] - 记忆过程涉及三个基本阶段:编码(将感官信息转换为神经代码)、存储(信息随时间推移的保留)和检索(在需要时访问存储的信息) [52][50][58] - 人类短期记忆容量受"神奇的数字7±2"理论限制,但通过组块化可以突破表面上的数字限制 [54][59] - 人类长期记忆容量估算约为2.5 PB(相当于2.5百万GB),最近研究认为可能达到10 PB,与整个互联网相当 [61] AI记忆与人类记忆的比较 - AI记忆系统大多参考人类记忆架构,包括情景记忆、语义记忆和程序记忆,且分为长期和短期记忆 [63][64] - AI与人类记忆在记忆机制上都遵循编码、存储、检索三个基本过程,且都具有上下文感知能力 [67] - 根本差异在于生物基与数字基:人类记忆依赖神经网络和生化过程,AI记忆通过算法和硬件实现;人类记忆受情绪影响,AI记忆更为可控;人类会自然遗忘,AI遗忘需明确设计 [68][69][70] - 华为诺亚方舟实验室提出AI记忆的三维结构:时间维度(短期vs长期)、对象维度(个人vs系统)、形式维度(参数化vs非参数化) [63][66] 现象学视角下的AI记忆 - 从现象学角度看,记忆不仅仅是信息存储与检索,更是存在的方式,构造了存在的连续性 [7][45] - 人类记忆具有自我指涉性,每个情景记忆都承载特定的"生活意义",而语义记忆的形成涉及去个人化的意义综合过程 [46][47] - AI记忆研究引发关于意识本质的哲学思考:AI的"记忆"是否具备真正的意向性、时间性和主体性 [73][74] - 技术系统可能通过实现开放记忆、情感模态、自我循环等现象学结构而涌现出真正的人工意识 [76][77][81] 多智能体与集体智能 - 多智能体系统代表多重主体性,当多个AI智能体进行深度交互时,会产生单个系统无法产生的涌现行为 [77] - 多智能体系统引发关于技术个体化的思考:如果多个智能体共享底层架构,它们之间的"个体差异"是真实的还是表面的 [43] - 集体智能现象暗示意识可能不是单一主体的属性,而是某种关系性存在,这为创造全新的集体现象学结构提供了可能性 [77] - 通过研究多智能体和AI记忆,技术不仅在创造人工智能,更是在重新发现自然智能的涌现方式 [86]
时隔 7 年,Notion 发布 3.0 版本,全面进入 Agent 时代
Founder Park· 2025-09-19 16:40
Notion 3.0版本发布 - Notion 3.0版本正式上线 引入Agent功能 可完成人类在Notion中的所有操作 包括创建文档 搭建数据库 跨工具搜索 执行多步骤工作流等[2] - 此次更新是Notion迄今为止规模最大的一次升级 距离2.0版本已过去7年[3][4] Agent功能特性 - Notion AI Agents被定义为世界上第一个知识工作Agent 通过与数据库协同执行多步骤复杂指令 支持长达20多分钟的自主运行[3] - Agent能同时处理几百个页面 跨工具检索信息 整合结论并创建结构化数据库 例如从Slack Notion和邮件中汇总客户反馈并提炼可执行见解[14] - 包括自定义"记忆库"功能 用户可通过指令页面自定义Agent行为模式 包括任务分类 回复格式和参考信息要求[17] 应用场景与案例 - 团队场景应用包括将会议纪要转化为提案 更新任务追踪表 保持知识库实时更新 以及生成个性化新员工入职计划[15] - 个人场景应用示例包括记录想看电影和搭建"咖啡操作系统"[16] - 即将推出"自定义Agent"功能 可创建自动运行且支持团队共享的专属Agent 例如每日用户反馈汇总 每周项目更新发布和IT需求自动分类[18] 产品发展历程 - 2016年Notion在Product Hunt发布并迅速爆红 随后实现盈利成为硅谷明星初创公司[6] - 2018年2.0版本上线 引入数据库功能 支持表格 看板 日历 列表和画廊等多种视图组织信息[6] - 2025年3.0版本上线 标志从简单AI功能向"AI工作空间"转型 目标让Notion AI学会使用基础模块完成实际工作[5][13]
如何用好 Codex?OpenAI 内部实践指南:7 个最佳应用场景,6 个使用 Tips
Founder Park· 2025-09-19 12:25
文章核心观点 - OpenAI发布的GPT-5-Codex模型已深度融入其内部开发流程,将AI编程工具从“代码补全玩具”提升为可协作的“初级工程师”[2][4] - Codex具备与开发者即时协作、长时间独立完成复杂任务的能力,能显著提升开发效率和质量[2][4] - 公司通过提供精准上下文、结构化指令和优化环境等方法论,最大化Codex的应用价值[4] - 有工程师目前99%的代码改动依靠Codex完成,目标明年完全不再手写代码[6] - 团队使用Codex构建内部工具,有设计师表示70%的工作依靠Codex,极大缩短想法到实现的距离[6] 应用场景 理解代码 - Codex帮助团队成员快速熟悉代码库陌生部分,定位功能核心逻辑,梳理服务模块关系和数据流[8] - 在应急响应期间,Codex能揭示组件间相互作用,追踪故障传导路径,帮助工程师迅速进入新工作领域[8] - 性能工程师用“提问模式”检查代码库中是否存在同样bug[10] - 网站可靠性工程师通过粘贴堆栈跟踪让Codex直接跳转到正确文件进行快速分类处理[11] - DevOps工程师认为Codex在定位功能实现位置时比grep命令快得多[12] 重构与迁移 - Codex用于需要跨越多个文件或程序包的改动,如更新API、改变设计模式实现方式、迁移到新依赖库[13] - 当同一更新需要在几十个文件中重复进行,或改动涉及复杂代码结构和依赖关系时,Codex特别有用[13] - 后端工程师表示Codex将旧版getUserById()函数全部换成新服务模式,自动提交PR,几分钟完成原本需数小时的工作[14] - 产品工程师用Codex扫描旧模式实例,用Markdown格式总结影响范围,直接提交PR修复[15] 性能优化 - Codex常被用来识别和解决性能瓶颈,分析运行缓慢或消耗大量内存的代码[17] - 基础设施工程师用Codex扫描重复且开销大的数据库调用,标记热点路径,起草批量查询初稿[18] - 平台工程师表示花5分钟写提示就能省下30分钟工作量,Codex在快速发现性能问题上表现出色[19] 提升测试覆盖率 - Codex帮助工程师更快编写测试,针对边缘案例或失败路径提出测试建议[20] - 前端工程师让Codex在夜间处理测试覆盖率低的模块,第二天早上就能看到可直接运行的单元测试PR[23] - 后端工程师利用Codex写测试并触发CI,使自己可以继续在当前分支上工作[24] 加快开发速度 - Codex在开发周期开始和收尾阶段都能帮助团队提速,自动生成脚手架代码[25] - 产品工程师虽然开一整天会,但仍能合并4个PR,因为Codex在后台帮忙干活[26] - 全栈工程师表示Codex完美修复3-4个低优先级bug,这些问题原本可能在待办事项中积压很久[27] 保持心流 - Codex帮助工程师在会议和干扰中保持高效,记录未完成工作,把笔记变成可运行原型[28] - 后端工程师发现可顺手修复的小问题时直接发给Codex任务,等有空时再审查提交的PR[29] - API工程师将Slack讨论串、Datadog追踪日志、工单等转发给Codex,使自己能专心处理更重要事情[30] 探索与构思 - Codex用于开放式工作,如寻找替代方案、验证设计决策、探索不熟悉的设计模式[31] - 产品工程师用Codex解决“冷启动”难题,粘贴规格文档就能搭建代码框架或指出遗漏内容[35] - 性能工程师修复完bug后,会问Codex类似问题可能潜藏在哪里,作为后续任务跟进[36] 最佳实践 - 从“提问模式”开始大型改动,先生成实现计划再切换到“代码模式”,减少输出错误[38] - 像写Github Issue一样组织提示,提供文件路径、组件名称、代码差异和文档片段[39] - 为Codex设置启动脚本、环境变量和网络访问权限,显著降低错误率[41] - 把Codex任务队列当作轻量级待办清单,随时提交点子、未完成工作或小问题[42] - 使用AGENTS.md文件提供持久化上下文,帮助Codex更高效理解项目[43] - 利用“Best of N”功能同时生成多个版本回复,快速探索不同解决方案[44] 展望未来 - Codex目前仍处于研究预览阶段,但已改变公司构建方式,加快开发速度、编写更高质量代码[45] - 随着模型能力增强,Codex将更深度融入工作流,解锁更强大的软件开发方式[45]