应激的Llama,开源的困局
在DeepSeek R1-V3、GPT-4o、Claude-3.7的强势围攻下,Meta坐不住了。曾作为开源之光的Llama在一年的竞争内连连失利,并没有研发出让公众惊艳的 功能。创始人扎克伯格下达死命令,今年4月一定要更新。 于是我们迎来它仓促的答卷——一款在实测中让人大跌眼镜的模型Llama4,号称10m token的上下文长度频频出错、初代小球测试难以完成、9.11>9.9的比 大小失误……这场本应扎眼的亮相从期待变成群嘲。上线几天内,高管离职、测试作弊等丑闻被内部员工爆料证实。 作为开源生态的标杆,Llama系列曾以Llama 2的辉煌战绩——衍生超过7000个变体、累计下载超3亿次,定义了商业级开源大模型的黄金时代。而短短两 年间,这场由Meta主导的开源运动在技术内卷中逐步迷失初心,进入到一种缺乏创新的恶性内卷。 再加上,开源模型并不靠C端会员制付费变现,短期盈利无望。既如此,Llama为何急着更新?国内外的开源模型又在卷什么呢? Llama4的仓促答卷 Meta最新发布的Llama 4系列包括Scout(1000万Token上下文窗口)、Maverick(编码与推理对标DeepSeek V3)和 ...