“日本最强AI”光速塌房,都怪中国DeepSeek太强?
创业邦·2026-03-19 18:35

文章核心观点 - 日本乐天公司发布的号称“日本最大、性能最强”的AI大模型Rakuten AI 3.0,实则是基于中国开源模型DeepSeek-V3的日语“套壳版”,其发布因未充分披露来源且标榜“自主研发”而引发开源社区和日本网友的强烈批评[4][6][8] - 日本AI行业普遍存在基于中国等国的开源大模型进行二次开发的现象,但乐天事件凸显了日本在追求技术自主过程中的尴尬与不体面,反映了日本在由软件和数据驱动的新技术竞赛中已难以独立定义游戏规则[27][38][39] Rakuten AI 3.0 模型发布与争议 - 乐天于3月17日发布Rakuten AI 3.0,宣称是日本最大、性能最强的AI大模型,拥有7000亿参数(具体为671B),并得到日本经济产业省支持的GENIAC项目站台[4][6] - 模型发布数小时内,开源社区通过其Hugging Face配置文件(model_type: deepseek_v3)发现其底层架构直接来自中国开源模型DeepSeek-V3,是后者的日语微调版[8][11] - 乐天在发布时未提及使用DeepSeek-V3架构,并强调“自主研发”、“日本最强”等,被指违背开源精神,直到被社区发现后才补上相关许可证和归属声明[13][14] - 日本网友对此反应负面,批评其用纳税人资金支持的项目仅做出了一个中国模型的微调版[14][25] Rakuten AI 3.0 的性能表现 - 官方数据显示,该模型在多个日语基准测试中表现强劲,如在Japanese MT-Bench上跑赢了GPT-4o,在日本文化理解、敬语表达等本土化任务中表现突出[16] - 具体测试成绩:JamC-QA得分76.9,MMLU-ProX(日语)得分71.7,MATH-100(日语)得分86.9,M-IFEval(日语)得分72.1,均高于GPT-4o等对比模型[24] - 模型采用MoE稀疏架构,虽然总参数近7000亿,但单次推理激活参数少,可将成本压至前沿闭源模型的10%左右[23] - 其优异表现被指出恰恰证明了基座模型DeepSeek的强大[25] 日本AI行业的普遍模式 - 乐天并非个例,日本AI公司普遍采用基于国外开源大模型进行二次开发的“套壳”模式[27] - 例如,ABEJA公司在2025年4月推出的ABEJA QwQ 32b模型,其底座是阿里的Qwen2.5 + QwQ-32B,公司对其进行了日语持续预训练和微调[27][29] - ABEJA的做法相对透明,明确了底座和训练路径,并得到了阿里巴巴官方的转发祝贺[29] - 其他日本公司如Lightblue、ELYZA等也常用Qwen、Llama、DeepSeek、Mistral等作为底座,再结合日语数据进行本土化优化[27] - 日经新闻报道指出,日本企业开发的前10大模型中,有6个是基于DeepSeek或Qwen进行二次开发[27] - 这种模式在全球AI行业是常见做法,关键在于后续的数据、场景和落地能力,乐天引发争议的核心在于其做法“不体面”,试图掩盖依赖并夸大自主性[27] 日本IT行业的整体困境 - 自1990年经济泡沫破裂后,日本经济陷入长期停滞,IT行业的发展是这一停滞的缩影[31] - 日本社会数字化进程严重滞后,直到2024年,政府仍在处理淘汰软盘(floppy disk)的规定,教育系统的数字化改革目标甚至包括“原则上废止学校间使用传真机”[32][35] - 数字化改革面临官僚系统惯性、纸质文件与印章文化依赖、人口老龄化及IT人才短缺等多重阻力[37] - 日本经产省早前测算,到2030年日本IT人才缺口最高可接近45万人[37] - 在此背景下,生成式AI被日本官方和产业界视为弥补程序员不足、加速数字化转型的潜在捷径[37] - Rakuten AI 3.0事件被视为日本IT困境的集中体现:在政府支持下追求技术自主,但最终仍需依赖外国开源技术底座[38] - 事件表明,曾在硬件时代领先的日本,在由软件、数据和大模型主导的新技术竞争中已难以独立掌控全局[39]

“日本最强AI”光速塌房,都怪中国DeepSeek太强? - Reportify