ShinkaEvolve
搜索文档
“日本版OpenAI”创下估值新高,Transformer八子之一创办,老黄也投了
36氪· 2025-11-19 15:45
公司概况与融资信息 - 公司Sakana AI成立于2023年7月,至今约两年时间[5] - 公司完成B轮融资,筹集200亿日元(约合1.35亿美元,9亿多人民币),总估值达到约4000亿日元(约合26.35亿美元,184亿人民币),创下日本非上市初创企业估值纪录[4] - 投资方阵容包括英伟达(参与A轮)、美国顶级风投Khosla Ventures和NEA,以及日本产业与金融巨头三菱日联、四国电力等[4] 创始人背景与团队 - 联合创始人兼CTO Llion Jones是著名Transformer论文《Attention Is All You Need》的八位作者之一,曾在谷歌研究院工作8年[5][7] - 联合创始人兼CEO David Ha曾是谷歌大脑的高级科学家,并领导过Stability AI的研究部门,入选《时代》杂志2025年人工智能领域百大人物榜单[9] - 创始人选择离开谷歌创业是因为感觉在大型公司中“被困住”,无法继续进行自己想做的工作[9] 技术理念与研究方向 - 公司放弃传统Transformer架构,从自然进化中汲取灵感,致力于开发基于自然启发智能的基础模型,以降低计算成本并提升性能[11] - 核心技术思想包括“进化”和“集体智慧”,借鉴鱼群等自然系统的协作规则,让一群AI模型协作完成任务[11][13] - 公司选择将总部设在东京,部分原因是日本AI人才竞争相对北美缓和,且高质量人才丰富[11] 核心产品与研究进展 - 2024年8月推出首个“AI科学家”系统,能自动完成从提出研究想法、设计实验、编写代码到撰写论文的全过程,生成一篇完整学术论文的成本约15美元(约107.62元)[3][13][14] - 提出“进化模型合并”方法,将Huggingface上的现成模型组合成新模型,其70亿参数的日语数学大模型在基准测试中击败700亿参数的Llama-2,且无需梯度训练,大幅减少计算资源[17] - AI Scientist 2.0版本生成的论文通过顶会ICLR workshop评审,其中一篇论文《组合正则化:增强神经网络泛化的意外障碍》获得6/7/6评审分数,超过平均人类接收门槛[19] - 公司以“一月一发”的快节奏推出多项研究,包括Sudoku-Bench推理基准、Text-to-LoRA模型适配简化工具、AB-MCTS多模型协作算法以及ShinkaEvolve自我代码优化框架等[21] 行业对比 - 与中国主要AI公司对比,智谱AI估值超400亿元RMB,MiniMax估值超40亿美元(约284亿人民币),月之暗面估值有望突破33亿美元(约234亿人民币)[22] - 尽管创始人无意打造“日本版OpenAI”,但就其估值和成长轨迹而言,公司已被视为最接近该定位的日本AI企业[21]
“日本版OpenAI”创下估值新高!Transformer八子之一创办,老黄也投了
量子位· 2025-11-19 14:20
融资与估值 - 最新B轮融资筹集200亿日元(约1.35亿美元)[4] - 总估值达4000亿日元(约26.35亿美元),创日本非上市初创企业估值纪录[4] - 投资方包括英伟达(A轮参与)、Khosla Ventures、NEA、三菱日联、四国电力等[5] 公司背景与创始人 - 成立于2023年7月,由Transformer论文八作之一Llion Jones联合创办[6][8] - 联创兼CTO Llion Jones曾任职谷歌8年,是Transformer核心作者[8][9][12] - 联创兼CEO David Ha曾任谷歌大脑高级科学家、Stability AI研究负责人,入选《时代》2025年AI百大人物[17][18] - 公司base东京,因日本AI人才竞争相对缓和且质量高[20] 技术路线与核心创新 - 放弃传统Transformer架构,提出基于自然启发智能的模型[20] - 核心思想借鉴自然进化与集体智慧,通过AI协作降低计算成本并提升性能[21][24][25] - 推出“进化模型合并”方法,无需梯度训练即可组合现成模型生成新模型[32][34] - 70亿参数日语数学模型在基准测试中超越700亿参数Llama-2,实现SOTA[33] 主要产品与研究进展 - 发布史上首个AI科学家系统,可全自动生成论文(成本约15美元/篇)[3][27][28] - AI Scientist 2.0生成论文通过ICLR评审,一篇获6/7/6分(超人类接收门槛)[38][39] - 每月持续推出新研究:Sudoku-Bench(5月)、Text-to-LoRA(6月)、AB-MCTS多模型协作算法(7月)、ShinkaEvolve自优化框架(9月)[44] 行业对比 - 日本AI初创估值最高纪录,被视为“日本版OpenAI”[43] - 对比中国AI公司:智谱AI估值超400亿元、MiniMax估值超40亿美元、月之暗面估值有望突破33亿美元[45]
Transformer作者初创公司最新成果:开源新框架突破进化计算瓶颈,样本效率暴涨数十倍
量子位· 2025-09-28 19:54
核心观点 - Sakana AI推出的开源框架ShinkaEvolve实现了大语言模型自我代码优化的进化计算,在性能比肩谷歌AlphaEvolve的同时,将样本效率提升了数十倍,仅需150次评估即可完成以往需数千次评估的任务[1][3][6][22] 技术架构创新 - 框架核心在于三大关键技术:平衡探索与利用的亲本抽样技术、代码新颖性拒绝抽样、基于多臂老虎机的LLM集成选择策略[7][11] - 亲本抽样技术采用岛群模型将种群分为独立子群并行进化,结合top-K优质解与随机样本选取,并通过幂律抽样和加权抽样平衡已知方案与新想法探索[13] - 代码新颖性拒绝抽样通过嵌入相似度筛选(阈值如0.95)加LLM判优的二级过滤机制,减少生成重复变异体的无效计算[14][16] - LLM集成选择策略基于UCB1算法动态调度模型,通过访问计数器和得分估计即时更新评分,并借助指数函数强化显著改进的贡献权重[17][18] 性能验证与实验结果 - 在数学优化任务(如26个圆在单位正方形内半径和最大化)中,ShinkaEvolve仅需150次评估,而AlphaEvolve需数千次评估,样本效率实现数量级提升[20][22] - 在智能体设计任务(2024年AIME竞赛30道数学推理题)中,框架显著优于简单单查询代理和复杂多数投票方法,7次LLM查询即产生最大性能,并在2023年、2025年题目上表现稳定[23][25] - 在竞争性编程基准测试(ALE-Bench)中,10道AtCoder竞赛题平均得分提升2.3%,其中ahc039任务排名从第5名升至第2名[28][29] - 在混合专家负载均衡损失函数任务中,新生成的损失函数在7个下游任务上均表现出更高准确率和更低困惑度,且随正则化系数增大优势更显著[30][32]