Workflow
心言集团高级算法工程师在Qwen 3发布之际再谈开源模型的生态价值

阿里Qwen 3大模型发布 - 阿里发布新一代大模型Qwen 3,与DeepSeek共同形成中国开源生态"双子星",正在取代以Llama为主、Mistral为辅的开源生态 [1] - Qwen 3的发布引发行业关注,多家AI创业公司代表就开源闭源选择、模型微调、能力瓶颈及大模型创业等问题展开讨论 [1] 开源与闭源模型选择策略 - 公司业务中90%以上场景使用本地化部署的微调模型,特定任务如数据构造、蒸馏等会直接调用GPT、豆包、Qwen等大模型的API [3] - 本地部署主要基于Qwen微调模型,根据业务需求使用不同量级模型,包括7B、32B、72B等版本,具身智能业务则采用0.5B、1.5B等多模态小模型 [3] - 选择7B模型主要考虑推理速度快、部署成本低及性能与速度的平衡 [3] Qwen模型选择原因 - 生态系统成熟稳定,推理框架(vLLM、SGLang)和微调工具链完善,相比其他模型生态更成熟 [4] - 中文支持能力强,预训练数据包含泛心理、情感陪伴相关内容,更贴合公司业务需求 [7] - 提供从0.5B到72B的完整尺寸系列,降低不同尺寸模型间的微调成本 [7] - 阿里在开源方面的持续投入和可信赖度,为公司长期依赖其模型开发提供保障 [7] 大模型使用与微调挑战 - 具身智能业务面临推理成本和生态适配挑战:英伟达方案端侧推理卡成本高,国产算力芯片生态不完善,适配周期长 [10][11] - 线上互联网业务面临模型能力和推理成本/延迟挑战:情感陪伴对多模态理解要求高,用户量快速增长带来推理成本压力,高峰时段流量达平时3-4倍 [12] 模型能力与业务适配 - 公司专注于情感、情绪化的泛心理应用场景,大多数模型厂商不会特别关注这部分数据,因此坚持进行Post-training [13] - 对基础模型要求主要是通用能力而非特定领域能力,通用能力足够好时更容易通过Post-training拟合到业务方向 [13] - Post-training会对模型其他通用能力造成一定损害,目标是将损害控制在2个点以内,核心领域能力提升10个点 [13] 开源模型发展现状 - 期待开源模型能追平闭源顶尖模型如Claude、GPT-4/4o,希望获得更多技术细节分享 [14] - DeepSeek在MoE、原生多模态、代码等方面探索前沿,Qwen和Llama更注重社区和通用性,技术选型相对稳健 [14][15] 大模型创业关键问题 - 模型与产品适配度及对AI在产品中角色的理解是关键,AI应作为后端能力而非前端界面 [17] - 正确模式应是"X + AI"而非"AI + X",核心是挖掘用户需求并用AI解决,而非技术驱动寻找场景 [19] - 用户留存是重要观察指标,留存差往往意味着产品未抓住真实痛点或个性化不足 [19] 中国开源模型全球化发展 - Qwen、DeepSeek等中国开源模型在国际舞台崭露头角,推动技术生态驱动的全球化进程 [20] - 开源为中国企业提供弯道超车技术路径,创造"全球协作-垂直创新-生态反哺"的良性发展模式 [20]