Founder Park
搜索文档
下周二:Agent 搭建好了,来学学怎么极限控制成本
Founder Park· 2025-09-14 12:43
AI Agent成本控制挑战 - AI Agent产品开发上线后面临高额Token消耗成本 单次对话交互可能消耗数万甚至数十万Token [2] Cloud Run解决方案优势 - 无服务器平台Cloud Run可根据请求量实现自动伸缩 在无流量时实现零成本运行 [3] - 平台能在几秒内从零实例扩展到数百上千实例 响应实时请求量变化 [7][9] - 通过"无请求即零成本"模型可将AI Agent运行成本降至为零 [7][9] 技术分享会内容 - Google Cloud专家将分享Cloud Run开发技巧和极致成本控制方法 [4] - 通过真实场景模拟演示请求量 实例数和响应延迟的变化 展示平台伸缩能力 [9] - 分享会面向AI初创企业 出海企业技术负责人 AI产品经理及开发者群体 [9] 行业应用案例 - 会议笔记产品Granola通过简化产品设计获得市场成功 [10] - 无法律背景创业者通过调研100位律师创建估值7亿美元AI法律公司 [10] - Sensor Tower报告显示AI应用用户以年轻男性为主导 垂类应用面临颠覆压力 [10]
数据、IP、境外实体,到底先抓谁?一文讲清 AI 出海合规全流程
Founder Park· 2025-09-12 18:06
出海前的战略规划与准备 - 出海前需进行法律国别调查,评估目的国的政治稳定性、法治成熟度及立法执法监管期的稳定性,以预设法律风险并做好合规设计[7] - 企业需根据自身战略选择出海模式:绿地投资(从零新建企业,控制力强但周期长)、收购并购(快速融入市场但后续风险大)或单纯产品出海,并考虑股权架构以优化税收和提高运营效率[8] - 启动出海项目前须完成境内审批手续,包括向发改委申报项目可行性及在商务部门备案,确保符合国内法律政策要求[8] - 当地合规运营需关注外商投资准入(如行业禁止/限制清单、持股比例)、税务登记及劳动用工法律,并需考虑州/地方层面的监管差异[9] - 在当地雇佣员工需明确是否需要设立当地实体,以及外派员工与本地员工的雇佣配比要求,核心是投资需为当地就业市场带来实质效益[11] 境内合规的关键步骤 - 境内合规需评估东道国外商投资准入审查标准及AI等敏感行业的特定监管框架,并关注税收优惠政策及其稳定性[12] - 发改委对境外投资实行核准制(涉敏感国家地区或敏感行业如军工、电信)或备案制(其他项目),并设有明确的资金门槛划分审批层级[13] - "37号文登记"是中国自然人持股境外非上市公司的主要合规渠道,需在向特殊目的公司(SPV)出资前办理外汇登记,现行审核权限已下放至银行[13] - 技术出口受《技术进出口管理条例》和《出口管制法》监管,禁止或限制出口的技术目录(2023年12月修订)包含多项AI技术,出口需经省级商务部门审查及商务部备案[14][15] 主要出海目的国的监管特点 - 美国AI监管分联邦与州层面:联邦层面有《人工智能权利法案蓝图》五项核心原则及FTC执法框架;州层面如科罗拉多州2024年AI监管法案(禁社会信用评分)和加州2020年人脸识别技术法案[16] - 欧盟《人工智能法案》将AI系统分四类风险(不可接受、高风险、有限风险、最低风险),禁用四类系统(如社会信用评分),违规罚款最高达全球年营收6%,并强调数据可操作性及GDPR权利[17] - 东南亚监管各异:新加坡实行"沙盒监管"、泰国监控数据跨境传输、马来西亚保障用户知情权、越南注重数据安全与主权控制[18] 知识产权与数据合规的核心挑战 - AI企业知识产权涉及代码、音视频和图片:代码需审查开源协议(如GPL协议避免混同导致项目开源),音视频训练素材需审查授权协议链路[23] - 平台集成生成工具后可能丧失"避风港原则"保护,因算法推荐等主动干预行为被监管视为参与者,面临更严格责任[24] - AI出海数据考量包括数据来源监察(如是否开源、付费)、模型与应用需按目的国监管做切分隔离,以及GDPR合规体系搭建[24][25] - GDPR合规重点包括用户当事人权利(DSR)、告知同意原则、系统设计(默认隐私保护、DPIA评估)、供应商安全管理及跨境传输合法性(如SCCs、BCRs)[27][28][29] 海外实体设立与运营考量 - 设立海外实体有利有弊:优点包括增强当地信任感、满足牌照要求(如金融科技);缺点包括成本高、管理复杂及税务申报风险[30] - 在美国非美国实体需在州注册,可能面临公司治理困难(如雇佣、开户);在东南亚可根据业务形态决定是否设立实体,内容分享类应用可不设以节省成本[30] - 面向儿童的智能硬件需特别关注敏感信息界定、功能设计及监护人模式,避免因合规疏漏被罚款[31] 技术开发与部署的合规实践 - AI生成代码商用需注意开源协议版权问题及代码潜在逻辑错误、安全漏洞带来的客户索赔风险[32] - 国内外用户使用同一套代码时,建议数据库和服务器分离,并进行代码拆分变更以符合不同法域要求[33] - 国内开发团队为海外部署时,存在数据跨境传输合规隐患,长期需通过云服务商专线建立隔离的测试与生产环境[36]
Claude 官方发文:如何给 Agent 构建一个好用的工具?
Founder Park· 2025-09-12 18:06
Claude新功能与AI工具开发方法论 - Claude新增创建和编辑Excel、文档、PPT、PDF等主流办公文件功能 拓展AI在实际任务中的应用场景[2] - Anthropic目标是将AI从"聊天机器人"转变为解决实际问题的强大伙伴 曾推出artifact等小而美的客户端工具[2] AI智能体工具设计核心原则 - 转变思维 为不确定的、会推理的AI设计直观易用工具 而非传统编程只考虑输入输出[4] - 评估驱动 用真实且复杂的任务系统性验证工具效果 评估场景需接近真实世界[5] - 少即是多 构建整合工作流的强大工具而非零散API功能 减轻AI推理负担[6] - 精心设计描述 工具名称、描述和参数定义是AI理解用途的唯一途径 清晰准确描述提升调用成功率[7] 工具定义与智能体协作 - 工具是确定性系统与非确定性智能体之间的新型软件契约 需重新设计方法而非简单封装API[15] - 开发流程包括快速搭建原型、全面评估、与Claude Code协作自动优化工具性能[16] - 通过本地MCP服务器或桌面扩展连接测试工具 可直接传入Anthropic API进行程序化测试[19][20] 评估体系构建方法 - 生成基于现实世界用途的评估任务 避免简单"沙盒"环境 优秀任务需多达数十次工具调用[24] - 评估任务示例包括安排会议、处理客户投诉、准备客户挽留方案等复杂场景[26] - 通过程序化运行评估 收集准确率、运行时间、工具调用次数、Token消耗量等多维度指标[29] 高效工具设计原则 - 选择合适工具 构建少数精心设计工具针对高影响力工作流 而非简单封装现有API[37] - 使用命名空间划分工具功能界限 按服务或资源分组 帮助智能体选择正确工具[40] - 返回有意义的上下文 优先考虑相关性而非灵活性 避免低级技术标识符[43] - 优化Token效率 实施分页、过滤、截断 默认限制工具响应在25,000个Token内[48] - 精心设计工具描述 明确输入输出参数 微小改进可显著提升性能[52] 未来发展方向 - 软件开发实践需从确定性模式转向非确定性模式 适应智能体特性[54] - 通过迭代式、评估驱动过程确保工具随智能体进化 适应MCP协议和基础模型升级[54]
一文拆解英伟达Rubin CPX:首颗专用AI推理芯片到底强在哪?
Founder Park· 2025-09-12 13:07
产品发布与性能 - 英伟达发布新一代Rubin CPX GPU 专为海量上下文AI处理设计 支持百万级token推理 于2025年9月9日推出[5] - 单卡算力达30 PFLOPS(NVFP4精度) 配备128GB GDDR7显存 硬件编解码引擎使长序列注意力加速提升3倍 单卡可在1秒内完成百万token级推理[2][5] - 采用分工策略:Rubin CPX(GDDR)负责预填充(prefill)阶段 Rubin HBM GPU负责解码(decode)阶段 优化算力与内存带宽利用率[9][10][12] 架构创新与成本优势 - 核心创新为用GDDR7替代HBM 内存成本降低5倍/GB 同时省去NVLink接口 每GPU节省约8000美元[12] - 芯片成本仅为R200的1/4 但提供80%算力 整机TCO在预填充场景下从每小时0.6美元降至0.06美元 降幅达90%[12][13] - 通过专用芯片分工(prefill与decode分离)实现算力极致优化 后续可能推出解码专用芯片进一步降低成本[16] 系统性能与对比优势 - 搭载Rubin CPX的Vera Rubin机架处理大上下文窗口性能比GB300 NVL72高6.5倍 提供8EFLOPS(NVFP4精度)算力 100TB内存及1.7PB/s带宽[14][20] - 机柜集成144个Rubin CPX GPU、144个Rubin GPU及36个Vera CPU 采用Oberon方案 每个compute tray含8个CPX芯片及8个CX-9网卡[20] - 对比竞争对手:AMD MI300机架带宽20.5TB/s但需追赶到2027年 谷歌TPU缺预填充专用芯片 AWS Trainium受限于EFA网卡需外挂机架 其他厂商自研芯片需18个月流片[20] 产业链影响:PCB与光模块 - PCB需求新增:CPX芯片需专用PCB(预计HDI方案) Rubin模组与CPX间采用44层正交中板替代线缆 材料可能升级为M9+二代布+四代铜[24][27][28] - 英伟达单GPU PCB价值量从GB200的400美元提升至VR200的900美元 预计2025-2027年PCB总市场规模达131/289/707亿元人民币[29] - 光模块配置提升:每个compute tray配8个CX-9网卡(推测1.6T端口) Rubin NVL144光模块配比较GB300翻倍 因单die带宽提升至800G[30][32][37] - 2026年全球1.6T光模块需求上调至1500万只 2027年预计达4000-5000万只 推理步骤解耦推动单托盘GPU数量增加 进一步带动光模块需求[35][36][37] 电源与散热升级 - 整机功耗从180-200kW提升至350kW 推动供电架构向直流化/高压化演进:800V HVDC替代传统UPS 二次侧电源升级至800V-50V[39][40] - 液冷与电源需求增长 国内供应商如中恒电气(HVDC龙头)、科士达(北美代工)、盛弘股份(模块开发)等积极布局海外市场[41][42][43] 技术规格与路线图 - Rubin CPX采用N3P制程 单芯片功耗800W(带内存880W) 无NVLink 仅支持PCIe Gen6接口[12][17] - 对比路线图:Rubin CPX算力20PFLOPS(稠密) 内存带宽2TB/s 而R200带宽20.5TB/s Rubin Ultra内存带宽达53TB/s(2027年)[7][12][17]
算一笔「看不见」的 Agent 成本帐
Founder Park· 2025-09-11 16:25
AI Agent成本控制挑战 - AI Agent产品开发上线后面临高额Token消耗成本 单次对话交互可能消耗数万甚至数十万Token[2] Cloud Run解决方案 - 完全托管的无服务器平台Cloud Run可根据请求量自动伸缩 实现零流量时零成本运行[3] - 平台能在几秒内从零实例扩展到数百上千实例 响应实时请求量变化[7][9] - 通过"无请求即零成本"模型将AI Agent运行成本降至为零[7][9] 技术实现机制 - 通过监控图表展示请求量 实例数和响应延迟变化 直观演示动态伸缩能力[9] - 应用现代化专家将分享提升AI服务弹性的关键策略[7][9] 目标受众群体 - 解决方案面向AI初创企业 出海企业技术负责人 AI产品经理及开发者[9] - 适用于需要平衡稳定性与成本控制的AI应用场景[7][9]
Mira Murati 创业公司首发长文,尝试解决 LLM 推理的不确定性难题
Founder Park· 2025-09-11 15:17
公司背景与动态 - Thinking Machines Lab由OpenAI前CTO Mira Murati于2024年2月成立的人工智能初创公司[2] - 公司推出新博客栏目Connectionism,涵盖从核函数数值计算到提示工程等广泛研究主题[3] - 核心开发者Horace He(前PyTorch核心开发者,Meta离职)加入公司并主导技术研究[8] LLM推理不确定性问题分析 - 大语言模型推理中存在不可复现性,即使温度参数设为0,API仍非确定性[10] - 开源推理库(如vLLM或SGLang)在自有硬件上运行同样存在非确定性问题[11] - 传统假设认为浮点非结合性与并发执行导致不确定性,但未完全解释根本原因[13][16] 不确定性根本原因 - 浮点运算的非结合性导致数值计算差异,但非直接原因[17][21] - 原子加法操作在并发环境下导致运行间不确定性,但LLM前向传播过程通常无需原子加法[26][29][33] - 核心问题在于缺乏批次不变性:核函数输出受batch size变化影响,而服务器负载决定batch size[35][37][40] 批次不变性解决方案 - 实现批次不变性需确保RMSNorm、矩阵乘法和注意力机制与batch size无关[42] - RMSNorm需固定归约顺序,避免因batch size变化改变并行策略[46][50] - 矩阵乘法需编译固定核函数配置,放弃Split-K等优化以保持一致性[56][60] - 注意力机制需处理序列维度和特征维度归约,采用固定拆分大小策略而非动态调度[67][72] 实验验证与性能 - 使用Qwen3-235B模型测试,未优化时1000次采样产生80种不同结果,首次差异出现在第103个token[76][77] - 启用批次不变性核函数后,1000次结果完全一致[78] - 当前未优化版本性能下降,但未出现灾难性性能损失(vLLM默认26秒 vs 确定性版本42秒)[80][81] 应用价值与行业意义 - 确定性推理可实现真正的在策略强化学习,避免训练与推理间数值差异导致的策略偏移[82] - 解决不确定性问题有助于提升科学研究的可复现性和系统可靠性[85] - 公司开源批次不变性核函数库,提供确定性推理示例(GitHub仓库thinking-machines-lab/batch_invariant_ops)[74][75]
Seedream 4.0 来了,AI 图片创业的新机会也来了
Founder Park· 2025-09-11 12:08
AI生图领域技术进展 - AI生图领域连续出现爆款产品 包括GPT-4o生成的吉卜力风格图像和Google旗下Nano Banana模型 [2][3][4] - Nano Banana模型具备文生图 图生图 多图合成 高保真文字渲染能力 并解决主体一致性问题 被媒体称为图片模型的ChatGPT时刻 [4] - 火山引擎推出豆包·图像创作模型Seedream 4.0 支持文本图像组合输入 实现多图融合创作 参考生图 组合生图 图像编辑等核心能力 [5] Seedream 4.0技术特性 - 首个支持4K多模态生图的模型 支持同时输入10张图片并一次性生成15张图片的高难度多图融合 [5][6] - 实现真正原生多模态支持 在同一模型框架下支持图像创作 编辑和多图融合生成 适配复杂场景 [14] - 支持多图输出能力 可根据简单提示生成系列故事分镜 [14] 多图融合与编辑能力 - 多图融合能力允许直接使用图片指导生成 如将钢铁侠与布拉德皮特照片结合参考姿势生成破次元壁图像 [10][12] - 支持产品使用场景搭建 如将设计好的衣服裤子搭配在给定模特身上查看效果 [16][18] - 精细编辑能力支持自然语言指令 精准执行图像局部元素的增删修改和替换 [21][23] - 主体一致性能力在插画 3D和摄影等形态下保持特征一致性 避免外观失真和语义错位 [28] 生成质量与商业应用 - 实现秒级出图 输出分辨率扩展至4K级别 达到商用出版水准 [36][39] - 引入自适应长宽比机制 自动识别生成对象结构特征 动态调整画布比例 杜绝构图畸变 [39] - 支持从品牌Logo自动衍生整套周边产品视觉设计 包括包装袋 帽子 纸盒等 [44][46] - 能够处理公式 表格 化学结构 统计图等复杂排版 提升文字渲染和排版精致度 [51][52] 生产力工具特性 - 支持产品说明书设计制作 产品包装盒演示图生成 以及二维线稿转化为三维手办造型图 [51][54][59] - 能够实现四格漫画一步生成 并基于连续生图能力用生成图片作为关键帧 [62][64] - 支持卡通风格多格连环画生成 以及带中文步骤说明的教程图生成 [64][66] API接口与创业影响 - Seedream 4.0同时支持图片生成API和流式响应API 支持多轮复杂对话任务 [70] - API接口范式变化允许在同一个对话中进行多轮图片修改和多图合成 提升开发效率 [69][76] - 模型能力提升使图片产品可从一次性调用工具升级为带上下文的项目式创作工具 [71] - 对ComfyUI和LoRA产生影响 Comfy更多用于批量重复任务 LoRA用于精细化风格微调 [74]
Granola 为什么能赢:会议笔记,把产品做简单很重要
Founder Park· 2025-09-10 20:16
产品设计理念 - 产品设计核心是为"蜥蜴脑"设计,用户决定记笔记的窗口期只有500毫秒,界面需要极简且侵入性最小[4][9] - 产品在会议中保持"隐形",不会派机器人加入会议,以实现跨场景通用性[10] - 公司砍掉了50%的功能以保持简洁性,避免功能繁杂破坏产品灵魂[13] - 产品定位为"智能增强记事本"而非"会议记录仪",坚持不存储音频和视频,仅存储转录文本[11] 技术架构与AI模型策略 - 技术策略是尽快用上市场上最好的第三方模型,直到遇到瓶颈才会考虑自研微调[4][17] - 系统整合了多种AI模型(如OpenAI、Anthropic、谷歌),根据不同功能场景设置默认模型[18] - 公司花费大量精力设计提示词(Prompt),基于用户身份、职业、会议类型等上下文信息生成个性化笔记[20] - 业务中最昂贵的部分是高质量实时转录服务,而非LLM推理成本[24] - 对于复杂查询,公司选择将大量上下文直接塞入模型窗口,而非依赖RAG技术,以提升回答质量[22] 用户获取与增长策略 - 初期聚焦风投人士和创始人群体,认为服务好最难的用户群体就能满足其他角色需求[29] - 增长主要依靠用户主动推荐和笔记链接分享,而非病毒式传播机制[30] - 用户留存高的关键因素是产品有用性结合正确时间的推送提醒,会议场景提供明确使用触发点[32] 市场竞争与产品愿景 - 公司认为AI笔记赛道的头号竞争对手是苹果备忘录,而非其他AI笔记产品[6][36] - 产品愿景是构建"情境感知型工作空间",会议笔记只是切入点和未来工作方式的垫脚石[35] - 应对竞争的关键是不只看当下产品能力,而是专注于为特定场景和用户打造极致体验[38] - 未来产品方向包括跨会议分析、深度研究模式以及基于上下文库实时生成文档[33] 产品开发方法论 - 产品和设计决策基于直觉,但直觉必须建立在大量用户反馈之上[4][14] - 公司创始人每周进行4-6次用户访谈,团队持续与用户交流以了解真实使用状态[15] - 公司区分"单向门"和"双向门"决策,对于可逆决策快速发布并观察用户反应[9]
从 AI 3D生成转型AI原生影视公司,Utopai Studios想「稍微」改造下好莱坞
Founder Park· 2025-09-10 20:16
公司转型与战略定位 - AI 3D 生成公司 Cybever 于 2022 年创立,近期转型为内容制作公司 Utopai Studios,并获得好莱坞改革派导演及前派拉蒙 CEO 投资 [2] - 公司推出两部 AI 影片计划,包括 100 分钟电影《科尔特斯》和 8 集科幻剧集《太空计划》,后者已预售欧洲市场 [7] - 公司致力于构建端到端影视制作 AI 架构,通过整合 AI 模型与自动化工作流大幅降低制作成本,同时保证质量不妥协 [8] 技术突破与行业挑战 - 当前 AI 视频模型在专业影视制作中存在三大核心技术瓶颈:质量、一致性和可控性 [12] - 通用视频模型为优化效率牺牲画面质量,而 Utopai 专注于服务专业影视创作者,通过减少压缩比例、增加特定训练数据和强化注意力编码机制提升模型质量 [13] - 一致性问题上,公司通过向模型注入带物理规律的 3D 数据,提升对空间、遮挡和碰撞的认知,避免物理世界不一致的幻觉问题 [13][14] - 可控性方面,公司用确定性执行导演意图取代随机"抽卡"模式,通过故事板和 3DPreviz 生成结构化指令,结合强化学习实现精准调整 [14] 市场机遇与内容创新 - AI 技术可能成为下一波内容爆发的催化剂,并催生新的内容类型 [6] - 电影《科尔特斯》基于 40 年前创作的故事,曾获迪士尼和亚马逊关注但未拍摄,融合故事、动作和历史元素 [5] - 技术变革将打破成本壁垒,使电影制作未来不再取决于预算多少,而在于想象力边界 [5] - 文生视频技术使 AI 成为创作核心驱动力,大幅降低创作门槛,为独立创作者和小型团队提供低成本实现宏大视觉表达的机会 [18] 行业生态与制作范式 - 当前 AI 影视领域存在模型与工作流割裂问题,公司采用苹果式"软硬件一体"生态理念,构建数据、模型、工作流与创作者的深度集成闭环系统 [11] - 自动化目标是在行业内实现 80%-90% 工作自动化,但质量永远是优先考量,不会妥协 [9] - 系统设计核心不是取代导演或艺术家,而是将其从工业枷锁中解放,回归创意王座 [15] - 公司追求人与 AI 形成共生进化关系,AI 生成无穷选项,但定义品味的永远是有艺术审美的人 [16][17] 影视制作革命 - 代表电影制作范式的根本性变革,打破成本壁垒和创作思维局限 [5] - 制作成本大幅降低,解放电影人从预算枷锁中,以前所未有速度和极低成本将剧本转化为高质量影像作品 [8] - 技术击穿成本壁垒后,电影项目绿灯决策将更多回归故事本身价值,曾被埋没的创意将迎来最好时代 [18] - 不仅是技术升级,更是创作自由的革命,拆掉想象力栅栏,将电影从"预算的暴政"中解救出来 [18]
没有法律背景、聊了100位律师后开始创业,他搞出了一家7亿美元估值的AI公司
Founder Park· 2025-09-09 20:53
公司概况与融资进展 - 法律科技AI公司Legora在成立不到两年时间内与全球250家律所达成合作 包括Cleary Gottlieb和Goodwin等顶级律所[2] - 近期获得8000万美元B轮融资 由ICONIQ和General Catalyst领投 估值达6.75亿美元[2] - 公司创始人Max Junestrand年仅25岁且无法律背景 通过保持谦逊态度与早期合作伙伴建立紧密反馈机制[2] 产品核心功能 - 产品分为网页应用和Word插件两大模块 直接集成到Microsoft Word工作环境[4] - 网页应用从简单聊天功能发展为独立智能体 能调用内外工具处理多步骤工作流 如撰写完整备忘录[4] - 创新表格化审查功能可并行处理10万个查询 确保系统稳定性并实现精准引用[7] - Word插件被称作"律师版Cursor" 在有限界面空间内实现复杂编辑功能 如按20步策略手册处理合同[8] - 策略手册功能允许用户预设规则库 自动检查合同合规性并提供修改建议 已从法务团队扩展至销售、合规部门[16][17] 技术架构与创新 - 采用多模型热插拔架构 交替使用AWS、Claude、Gemini、GPT和Mistral等模型[31] - 通过分类模型实现查询复杂度与模型能力的动态匹配 既控制成本又保证效果[31] - 核心创新在于大规模运行能力而非提示工程 能处理超长法律文件中的交叉引用和定义部分[7] - 随着token成本下降 可同时执行文件、网络和判例法规的联合搜索并生成备忘录[10] 市场策略与销售模式 - 采用从高层切入的销售策略 优先与律所创新部门或合伙人合作 而非自下而上推广[19][20] - 通过打造"明星团队"示范效应带动其他部门采纳 例如先与单个合伙人合作再扩展至全所[19] - 客户采购周期缩短至1-2年 因技术迭代速度加快使长期合同失去吸引力[29] - 定位为律所战略合作伙伴 帮助其在AI转型中保持竞争优势而非打价格战[14][39] 行业影响与竞争优势 - AI将法律工作从执行转变为审阅 律师角色演变为工作成果的质量管理者[32][33] - 颠覆传统尽职调查模式 使原本需要数天的手工审查变为标准服务 客户不愿再为简单审阅支付高额费用[11] - 以30人工程师团队在开发速度上超越数千人规模的传统法律科技公司[27] - 关键竞争优势在于"变化率"而非当前功能 即快速适应新技术和迭代产品的能力[3][30] 团队建设与招聘策略 - 团队从10人快速增长至100人 平均每周入职两人[28][43] - 优先招聘前创始人背景员工 因其具备解决问题的主动性和创业精神[45] - 建立多中心架构 在纽约、伦敦、斯德哥尔摩设中心 并配备本地化团队[44] - 寻求能利用AI实现10倍效率的通才型人才 市场团队从30人规模优化至5人[48] 垂直领域创业方法论 - 通过深度行业学习进入垂直领域 创始人曾采访100位律师理解行业痛点[22] - 建议避免与AI实验室直接竞争 而是专注构建差异化价值[40] - 不应被单一模型供应商绑定 需建立可灵活切换模型的技术架构[31][40] - 通过创意性使用模型建立护城河 如医疗领域的专业术语转录和法律条款的特殊表述要求[41]