Founder Park

搜索文档
保姆级教程:讲真,从零开始创办一家 AI 初创公司,要怎么做?
Founder Park· 2025-07-24 16:28
创业筹备与启动 - 创业初期不建议立即辞职 可考虑边工作边创业 通过自动化日常任务腾出时间 例如作者通过自动化将每日工作时长压缩至2小时[6] - 建议通过接咨询项目积累启动资金 同时保持全职身份更稳妥 购房可作为保值资产和未来融资筹码[6] - 个人品牌建设至关重要 可通过开源项目、出版书籍、技术会议发言等方式建立影响力 作者通过生成式AI通讯积累20万订阅者并与Nvidia合作[7] 团队组建与管理 - 技术创业者不必担任CEO角色 应聚焦专业领域 作者团队由财富100强企业AI负责人和资深销售高管组成 采用股权激励模式[8] - 采用全球远程协作模式 从主动联系的技术人才中选拔 分布在印度、巴西等地 薪酬采用现金+股权组合 资金消耗仅为竞争对手十分之一[9] - 避免招聘技术背景过于接近竞品的员工 防止其固守原有工具而非创新 同时优化税务结构 在税务友好地区设立公司[10] 资金与运营策略 - 初创公司应严格控制成本 实现100%线上办公 不设实体办公室和HR部门 使用AI工具自动化工作[10] - 专利投入控制在总支出的3%以内 可自行提交临时专利 避免高额法律支出[11] - 通过多种渠道增加现金流 包括房产出租、写书收入、广告分成、企业内训等 这些客户可能成为产品早期用户[12] 融资与人脉建设 - 做好2-3年无法获得VC融资的准备 建议先实现10万美元年收入再接触VC 早期可尝试天使投资或自筹资金[15] - 构建专业人脉网络至关重要 优先通过LinkedIn寻找活跃用户 初次接触应提供价值而非推销 警惕动机不纯的VC套取商业情报[14] - 海外客户和投资人可能比美国市场更具吸引力 应等待投资人主动接洽 警惕要求预付"服务费"的虚假投资者[16] 创业者特质 - 成功创业者需具备"风险智商" 能在不确定性中持续推进 适应收入波动并构建长期安全感[17] - 关键能力包括抗挫力、多路径尝试能力、资源优化能力等 年龄不是障碍 可与年轻人合作互补[17] - 健康问题常与长期高压相关 创业者需平衡风险与安全线 提前预判行动后果的能力可减少弯路[17]
面向 AI Agent 的搜索服务,小宿科技有机会成为百亿美金的新巨头吗?
Founder Park· 2025-07-24 16:28
用 AI 搜索或者查询内容正成为很多人的日常习惯。不管是工作需要、感情问题还是生活小窍门,甚至最近运气不好都想打开 DeepSeek 让它给算一卦。 我手机里那几个 AI 工具打开的频率,都快赶上外卖软件了。 AI 搜索,这个被誉为颠覆传统搜索的下一代工具,似乎无所不知,能瞬间整合海量信息,生成逻辑通顺的答案。但当你试图依赖它进行严肃的知识探索 或决策支持时,却又不可避免的会遇到数据来源模糊、学术论点无依据、信息滞后等等问题。时不时蹦出的「当前请求过多」,也会突然打断思绪。 当然,这些磕磕绊绊是整个搜索行业乃至 AI 应用生态重构必须经历的过程。今年 5 月微软 Bing 突然宣布停用 Bing Search API,这一看似针对 B 端市场 的调整,却把 AI 搜索这个隐藏的「主角」推到了台前。原来, 那些看似万能的 AI 回复,背后还藏着这么多基础设施的博弈 。 Bing 宣布退场,无疑是暴露出了一个巨大的市场缺口,但面向 B 端的 AI 搜索服务,也不是谁都能接盘的。既要有能服务世界各地客户的「全球通」能 力;又要懂客户需求,满足 Agent 对数据多样化的需求;同时,还得扛得住响应速度和稳定性的硬指标 ...
ChatGPT Agent 团队专访:基模公司做通用 Agent,和 Manus 有什么不一样?
Founder Park· 2025-07-23 21:23
基模公司下场做通用 Agent 了。 OpenAI 这么介绍 ChatGPT Agent——第一个在计算机上完全「具身化」的 Agent。在叠加了 Deep Research 和 Operator 两者能力之后,ChatGPT Agent 实现了多种工具共享状态,使用户能够在单一环境 中,流畅地在视觉浏览、文本分析和代码执行之间切换。同时, 能够在执行长达一个小时的复杂任务 时「不失控」。 怎么做到的? 他们没有为特定的工具使用模式编写程序,而是让模型通过在数千个虚拟机上进行 RL,自行发现最优 策略。用核心研究者 Casey Chu 的原话,更形象地来说:我们基本上是给了模型一堆工具,然后把它 「锁在房间里」让它自己去实验。我们并不会明确告诉它什么时候该用什么工具,它会自己琢磨出来。 在 ChatGPT Agent 发布后,红杉资本与团队的三位核心成员 Issa Fulford、Casey Chu 和 Edward Sun 进 行对话,探讨了 ChatGPT Agent 背后的训练方法、如何解决 Agent 实际与现实世界交互的风险问题,以 及未来的 Agent 交互形态等。 虽然下场略晚,但基模公司对于 ...
小扎疯狂撬人,「HALO」正成为硅谷收购新形态
Founder Park· 2025-07-23 21:23
以下文章来源于投资实习所 ,作者StartupBoy 投资实习所 . 以产品视角洞察趋势 在过去的一年中,AI 行业正在出现一种全新的交易形态: HALO(Hire And License Out,雇佣 并授权)。 Kevin Kwok 近期写了一篇文章《The HALO Effect》,针对 HALO 这种新型的交易形态以及 过 去一年中 AI 领域独特的"收购"案例进行了解读。 HALO 是一种介于收购与招聘之间、同时具备两者特征却又不完全相同的替代方式。Inflection、 Character AI、Adept、Covariant,以及最近的 Windsurf 等公司,都以类似的模式使用了这种 新结构。 创业公司的核心团队——通常包括创始人和研究团队——被另一家公司雇佣,同时这家公司获得该 创业公司知识产权的非独家授权。作为交换,创业公司收到可观的授权费用,并将这些费用以分红 形式分配给其投资人和员工。但让外界困惑的是,这家创业公司在新的领导下依然继续运营。 但这并不是"人才收购"(acquihire)。收购方没有收购公司本身,而是雇佣了人员并获得了知识 产权授权。 同时,这些交易还有一些其他共同特征 ...
阿里开源最强编码模型 Qwen3-Coder:1M上下文,性能媲美 Claude Sonnet 4
Founder Park· 2025-07-23 16:21
模型发布与性能 - 阿里通义团队发布并开源Qwen3-Coder系列代码模型,其中Qwen3-Coder-480B-A35B-Instruct是最强版本,拥有480B参数激活35B参数的MoE结构,原生支持256K token上下文并可通过YaRN扩展到1M token [3][4] - 该模型在Agentic Coding、Agentic Browser-Use和Agentic Tool-Use等任务上达到开源模型SOTA水平,性能媲美Claude Sonnet4 [5] - 在Terminal-Bench测试中得分为37.5分,优于Claude Sonnet4的35.5分和OpenAI GPT-4.1的25.3分 [6] - SWE-bench Verified测试中达到69.6分(500轮交互)和67.0分(100轮交互),接近Claude Sonnet4的70.4分和68.0分 [6] 技术架构与训练 - 预训练数据总量达7.5T,其中代码数据占比70%,在保持通用与数学能力的同时强化编程能力 [12] - 采用Code RL训练方法,通过自动扩展测试样例构建高质量训练实例,显著提升代码执行成功率 [15] - 实现Long-Horizon RL训练系统,可同时运行20k独立环境,在SWE-bench Verified上取得开源模型SOTA效果 [16] - 利用Qwen2.5-Coder对低质数据进行清洗与重写,提升整体数据质量 [12] 产品应用与集成 - 模型已在Qwen Chat网页版上线供免费体验 [6] - 推出开源命令行工具Qwen Code,基于Gemini Code二次开发,优化了Agentic Coding任务表现 [17] - 支持通过OpenAI SDK调用,只需配置环境变量即可接入 [20][21] - 可与Claude Code集成使用,通过阿里云百炼平台申请API Key实现 [22][23] - 支持与社区工具如Cline结合,通过OpenAI兼容模式接入 [27] 性能对比数据 - WebArena测试得分49.9分,优于DeepSeek-V3的40.0分,接近Claude Sonnet4的51.1分 [6] - Mind2Web测试得分55.8分,优于Claude Sonnet4的47.4分和OpenAI的49.6分 [6] - BFCL-v3测试得分68.7分,优于OpenAI的62.9分,接近Claude Sonnet4的73.3分 [6] - TAU-Bench Retail测试得分77.5分,优于DeepSeek-V3的59.1分,接近Claude Sonnet4的80.5分 [6]
Trae 核心成员复盘:从 Cloud IDE 到 2.0 SOLO,字节如何思考 AI Coding?
Founder Park· 2025-07-23 12:55
产品迭代与定位 - TRAE 2 0 推出SOLO模式 实现全流程自主开发功能 覆盖规划 编码 测试 部署等环节 用户仅需自然语言或语音输入需求即可完成开发[1] - 产品定位从Cloud IDE转向AI Native IDE 原MarsCode团队通过半年技术优化发现商业天花板后转型[3] - SOLO模式标志着AI从辅助角色转向主导角色 IDE Terminal等工具成为AI的执行载体[36][38] 技术架构与性能 - Cloud IDE技术实现端到端启动性能P90达5秒 远超GitHub Codespace(30秒)和Google IDX(1分钟)[9] - 技术架构分为前端交互层与业务逻辑层 支持本地 远端K8S容器 WebContainer等多种部署方式[8][12] - Cloud IDE面临实时调度+有状态的独特挑战 需处理磁盘代码数据依赖且无法负载均衡[12] AI编程发展阶段 - 划分为三阶段:AI辅助编程→AI结对编程→AI自驱编程 当前主流产品聚焦结对编程阶段[16] - 辅助编程阶段实现代码补全→超级补全→代码生成的跃迁 补全效率从字符预测升级为编辑位置预测[17][18][19] - 结对编程阶段通过Agent架构实现 1 0版本采用固定Workflow 2 0版本赋予LLM更大自主权[25][29][33] 产品理念与未来方向 - 定义AI为"高潜实习生" 强调需匹配任务难度与模型能力 管理预期[44] - 预测未来IDE将颠覆"以代码为中心"形态 3年内可能发生范式变革[46] - 正在研发Trae Agent 3 0架构 支持Multi Agent和Remote Agent等前沿探索[46] 技术细节与优化 - 代码生成依赖项目理解 Context裁剪和模型能力 Cursor凭借Claude Sonnet 3 5优势脱颖而出[21] - Fast Apply代码合并采用全文重写 Search Replace Diff合并等多种技术方案[21][23] - 通过PUA策略优化AI执行效率 Claude 3 5轮次显著下降 但需针对3 7版本调整激励方式[37]
8 月、上海,每年一度的谷歌开发者大会来了
Founder Park· 2025-07-22 20:27
本月有三场 AI 创业者大赛值得关注: 两场为 AI 低代码大赛,分别来自美团 NoCode 社区、 YouWare,以及还有一场 外滩大会主办的人工智能硬件科创大赛。 8 月,还有一场 2025 Google 开发者大会,将在上海举办。 此外,Founder Park 联合 Google 推出的「从模型到行动」系列 AI 工作坊活动,本周六将迎来最后一站 「北京站」,仍在火热报名中。 此前深圳站、上海站两场线下,现场开发者反馈收获满满。 我们还整理了近期值得参与的一些活动,对更多活动感兴趣的小伙伴,可以点击文末的 「阅读原文」 查看。 跟着 Google 出海:教你怎么落地 Gemini【最后一站】 主办方: Founder Park x Google 活动&报名时间: 7 月 26 日(周六) 14:00–17:00 @Google 北京办公室,7 月 24 日截止报名 活动亮点: 面向人群: 报名方式: https://mp.weixin.qq.com/s/WFScFd2yDeryo-kOeLiwRw NoCode 7 月「晒作品,赢奖励」 主办方: NoCode 社区 比赛时间: 2025.07 活动 ...
4个月11万用户、Claude Code成了,Dogfooding该被AI公司重视起来了
Founder Park· 2025-07-22 20:27
核心观点 - AI创业公司应重视Dogfooding(内部试用),通过解决自身问题开发突破性产品[1][47] - Claude Code的成功证明内部真实需求驱动的产品具有不可复制的竞争优势[1][6][47] - 产品开发应从市场研究导向转向真实问题解决导向,形成"模型飞轮"和"数据飞轮"[26][41][47] 产品起源与开发路径 01 产品源于内部真实需求 - Claude Code最初是Anthropic内部工具,为解决团队效率痛点而开发[6][7] - 设计初衷非抢占市场,而是提升内部开发效率(如安全工程事件响应时间从15分钟缩短至5分钟)[7][13] - 50%自定义斜杠命令由团队自主开发,深度融入工作流[14] 02 第一批用户是内部开发者 - 开发团队使用Claude Code自建产品,形成紧密反馈循环[9] - 采用"自动接受模式"实现快速原型开发(如Vim键位绑定功能70%代码由AI自主完成)[10][11] - 开发流程变革:从设计文档主导转向快速生成3个原型版本比较[12] 跨部门应用场景 03 意想不到的应用场景 - **法务团队**:零编码开发预测文本应用(1小时内完成),创建电话树系统/G Suite自动化工具[17][18] - **增长营销**:广告文案创作时间从2小时缩短至15分钟,创意输出效率提升10倍[19][21][22] - **产品设计**:设计-工程协作效率提升2-3倍,复杂项目协调时间从1周缩短至1小时[24][25] - **数据基础设施**:实现非技术团队自助数据查询(如财务团队纯文本描述自动生成Excel报表)[16] 产品迭代机制 04 模型与数据飞轮效应 - 内部自动使用最新模型快照,实时反馈驱动模型改进[26] - 真实使用模式揭示两类核心用户:开发者(效率工具)和非技术用户(能力拓展)[27][28] - 工程师通过Claude Code每日创造数千美元价值,验证密集工作流潜力[27][36] 05 内部试用到公开上线 - 2025年2月以研究预览版发布,功能已通过数月内部验证[29] - 外部用户获得与内部一致的效率提升(45分钟任务一次完成)[29] - 2025年5月全面上线新增功能均源自内部需求(VS Code/JetBrains集成、GitHub Actions后台任务)[30][31] 成功因素分析 06 关键成功要素 - 解决真实痛点:安全/法律/营销等跨部门需求验证产品普适性[32][34] - 高强度使用:团队每日投入数千美元测试极限能力[36] - 持续改进机制:开发者即用户确保需求优先级准确[37][38] - 真实案例背书:内部成功故事比营销更具说服力(如事件响应效率提升67%)[39][45] 行业范式创新 07 AI产品开发新范式 - 重新定义开发路径:从市场机会导向转向问题-解决方案验证导向[41][42] - 内部创新溢出:法务/设计等非技术团队催生意外应用场景[43][44] - 透明度构建信任:公开内部使用数据增强产品可信度[45][46] - 核心方法论:自身作为首任客户可降低产品失败风险[47]
现在全世界最好的开源模型,是 Kimi、DeepSeek 和 Qwen
Founder Park· 2025-07-21 21:26
中国开源模型全球竞争力 - Kimi K2成为全球最强开源模型 在LMArena开发者盲测榜单中占据榜首 中国开源模型包揽前三名 包括Kimi K2、DeepSeek R1和Qwen 3 [1] - Hugging Face平台数据显示 Kimi K2发布后迅速登顶热门模型榜首 并持续超过一周 [5] - 发布仅3天 Kimi K2的第三方token调用量已飙升至开源模型第二 仅次于DeepSeek [4] 技术性能与社区反响 - Kimi K2是1T参数的MoE模型 发布后一周内基于其fine-tune和量化的衍生模型达20个 下载量超14万 超越Llama-4-Maverick-17B等竞品 [7] - 在Imarena竞技场排名中 Kimi K2位列第五 是评分最高的开源模型 超越DeepSeek R1 前四均为闭源旗舰模型如Gemini 2.5和GPT-4.5 [9] - Perplexity CEO宣布基于K2进行post-train 成为继Llama 3.3后第二个获此待遇的非推理模型 [9] 行业生态应用 - VS Code、Cline、Cursor等主流AI Coding软件已官方接入K2模型 在Claude和Gemini被封锁的大陆市场成为关键替代方案 [10] - OpenRouter平台数据显示 K2发布后周调用量迅速超越Grok 4 位列第十 [10] - 硅谷科技媒体将K2发布比作"下一个DeepSeek时刻" 认为其编程和工具使用得分亮眼 具备实际应用潜力 [11][13] 国际行业评价 - Anthropic联创Jack Clark评价K2为"目前全球最佳开源权重模型" 性能接近西方顶级闭源模型 [12][13] - Exponential View认为K2标志着中国AI技术的"东方红一号时刻" 其MuonClip优化器实现算法突破 训练效率达AdamW的两倍 [14] - 艾伦研究所指出 美国开源模型已落后 中国形成DeepSeek、Qwen和Kimi三驾马车引领格局 [16][17] 开源战略价值 - 开源成为国内基模公司的必选模式 通过社区协作加速迭代 同时获得技术认可和资源支持 [19][21] - 模型公司通过开源建立技术标杆 吸引开发者生态 形成不同于DAU/ARR的新价值评估体系 [20][22] - 月之暗面团队认为开源能降低研发成本 使公司更专注于下一代模型开发 形成正向循环 [22]
Meta AI 梦之队成员背景大盘点,44 人中近一半为华人研究员
Founder Park· 2025-07-21 21:26
Meta AI团队人才构成 - 团队44人名单中40%来自OpenAI,20%出自DeepMind,15%来自Scale AI [1][5] - 华人研究员占比50%,75%成员拥有博士学位,70%曾任职研究员 [5][7] - 核心成员包括VP级高管如Nat Friedman(前GitHub CEO)、Yann LeCun(深度学习先驱)及多名OpenAI/DeepMind前技术骨干 [2] 华人研究员背景分析 - **教育背景**:22位华人中14人本科毕业于清华/北大/中科大等国内顶尖院校,10人拥有MIT/斯坦福/伯克利等名校博士学位 [8][12][16][26][31][34][38][41][44] - **技术专长**:覆盖视觉语言模型(Chenxi Liu)、扩散生成(Chunyuan Li)、多模态对齐(Haotian Tang)、Transformer架构(翟晓华)等前沿领域 [13][16][18][35] - **职业路径**:90%曾任职OpenAI/DeepMind/谷歌,部分如Rui Hou参与Llama系列开发后回归Meta [29][40][42] 人才争夺策略 - 提供"算力无上限"承诺,计划投入数百亿美元建设吉瓦级GPU集群(Prometheus+Hyperion),支持700万张H100同时运行 [49][52][54] - 采用限时答复机制并开出3亿美元挖人预算,但10位OpenAI员工仍拒绝加入 [4][47][48] - 通过收购团队(如OpenAI苏黎世办公室)快速扩充技术实力,ViT核心作者集体加盟 [36][37] 行业竞争动态 - Meta与OpenAI展开算力军备竞赛:OpenAI计划部署100万GPU(700MW功率),Meta目标2026年建成1GW集群并2030年扩展至5GW [52][54] - 人才流动呈现"OpenAI→Meta"趋势,多名参与GPT-4o/Gemini的核心开发者转投Meta [51] - 薪酬之外的研究资源(如GPU访问权限)成为顶尖AI人才择业关键因素 [48][50]