Workflow
Seek .(SKLTY)
icon
搜索文档
官宣!DeepSeek-V3.1 发布,API调用价格低至0.5元/百万Tokens
新浪科技· 2025-08-21 15:05
API价格调整 - 公司将于北京时间2025年9月6日00:00起调整DeepSeek开放平台API接口调用价格 [1] - 输入价格调整为缓存命中0.5元/百万tokens 缓存未命中4元/百万tokens [1] - 输出价格调整为12元/百万tokens [1] 技术升级 - 新版本DeepSeek-V3.1采用混合推理架构 支持思考模式与非思考模式自由切换 [3] - 相比DeepSeek-R1-0528版本 新模型思考效率显著提升 能在更短时间内给出答案 [3] - 通过Post-Training优化 模型在工具使用与智能体任务中的表现获得较大提升 [3] 产品部署 - 官方App与网页端模型已同步升级至DeepSeek-V3.1版本 [3] - 用户可通过"深度思考"按钮实现思考模式与非思考模式的自由切换 [3]
DeepSeek-V3.1发布
证券时报网· 2025-08-21 15:01
DeepSeek-V3 1升级 - 混合推理架构:一个模型同时支持思考模式与非思考模式 [1] - 更高的思考效率:相比DeepSeek-R1-0528,DeepSeek-V3 1-Think能在更短时间内给出答案 [1] - 更强的Agent能力:通过Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升 [1]
DeepSeek-V3.1正式发布,迈向 Agent 时代的第一步
华尔街见闻· 2025-08-21 14:39
产品升级 - 公司发布DeepSeek-V3.1版本 引入混合推理架构 支持思考模式与非思考模式 [1] - 新模型思考效率显著提升 相比DeepSeek-R1-0528版本 能在更短时间内给出答案 [1] - 通过Post-Training优化 模型在工具使用与智能体任务中的表现有较大提升 [1] 定价策略 - 公司调整API接口调用价格 输入费用为0.5元至4元/百万tokens 根据缓存命中情况区分 [1] - 缓存命中情况下输入费用为0.5元/百万tokens 缓存未命中情况下为4元/百万tokens [1] - 输出费用统一调整为12元/百万tokens [1] 实施时间 - 新价格政策将于北京时间2025年9月6日凌晨起正式实施 [1]
DeepSeek-V3.1正式发布
第一财经· 2025-08-21 14:37
本次升级包含以下主要变化:混合推理架构:一个模型同时支持思考模式与非思考模式;更高的思考效 率:相比DeepSeek-R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案;更强的Agent能力:通过 Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升。 官方App与网页端模型已同步升级为DeepSeek-V3.1。用户可以通过"深度思考"按钮,实现思考模式与非 思考模式的自由切换。 (文章来源:第一财经) 据DeepSeek官方公众号消息,DeepSeek-V3.1正式发布。 ...
DeepSeek、宇树科技上榜2025年《财富》中国科技50强榜单
凤凰网· 2025-08-21 13:21
公司排名与荣誉 - 华为、DeepSeek、宇树科技入选《财富》中国科技50强榜单 [1] - 宇树科技从95个国家780多名申请者中脱颖而出 获世界知识产权组织2025年全球奖 为中国唯一获奖代表 [1] DeepSeek技术表现 - DeepSeek自主研发的DeepSeek-R1大模型在MMLU基准测试得分88.5 高于Meta Llama 3(70B)的82.0和Anthropic Claude 2的85.1 [1] - 模型表现低于OpenAI GPT-4的92.0和Google Gemini Pro的90.0 [1] - 全球开源大模型下载量排名稳居前10位 [1] DeepSeek用户规模 - 截至2025年6月 DeepSeek月活跃用户达1.63亿 位居全球人工智能生成内容应用首位 [1] 宇树科技市场表现 - 2024年全球四足机器人销量达1.8万台 全球市场份额23% 位列第二 仅次于波士顿动力公司 [1] 宇树科技技术优势 - 在机器人运动控制、高性能关节电机及实时系统等核心领域实现创新 [1] - 已在全球核心市场构建完整知识产权矩阵 [1]
DeepSeek又更新了,期待梁文锋“炸场”
虎嗅· 2025-08-21 10:28
DeepSeek模型更新 - 线上模型升级至V3.1版本,参数量为685B,较V3版本671B略有增加但变化不明显 [2][7] - 上下文长度扩展至128K,交互友好度和稳定性提升,回答内容更符合人类表达习惯 [5][6][8] - 编程能力显著增强,在Aider Polyglot多语言测试中以71.6%得分击败Claude 4 Opus,较R1模型进一步改进 [10] - 深度思考模式不再局限于R1模型,可能调用V3/R1合并模型或其他新模型 [11][12] 模型部署优化 - V3与R1模型合并部署,从原需120张卡降至60张卡,部署成本大幅下降 [13] - 若使用120张卡部署V3.1,因缓存增大性能预估提升3-4倍,主要针对降本增效 [13] - 开源社区Huggingface已发布DeepSeek-V3.1-Base版本,支持BF16、F8_E4M3、F32数据类型 [13] 行业竞争动态 - DeepSeek R1发布后7个月内,OpenAI、Google、阿里巴巴、月之暗面、智谱等厂商均以R1为参照发布新模型 [3][16] - 阿里巴巴Qwen3-235B-A22B声称在核心能力测评中超越DeepSeek R1 [17] - 月之暗面Kimi K2与智谱GLM-4.5先后宣布超越R1,API调用价格低至输入0.8元/百万tokens [19] - DeepSeek R1发布当月用户增长达1.25亿(含网站和应用累加),80%以上用户来自1月最后一周,日活跃用户数(DAU)曾超越豆包 [14] 公司战略与市场期待 - R2模型未在此次更新中发布,8月内或无发布计划 [1][4][21] - 公司创始人梁文锋专注于打磨基础模型与探索AGI上限,对商业化及用户留存兴趣较低 [22] - 行业认为模型能力上限已较强,需聚焦经济性、可用性及稳定输出创新 [23][24] - V3.1合并部署可能为多模态模型发布做准备,预计多模态模型即将推出 [25]
DeepSeek又更新了,期待梁文锋「炸场」
新浪科技· 2025-08-21 08:52
DeepSeek模型升级 - 线上模型升级至V3 1版本 参数量从671B增至685B 模型尺寸变化不明显但交互体验和推理能力有提升 [1][5] - 上下文长度扩展至128K 支持更大长文本输入 信息收集环节更多使用表格汇总 回答语气更自然符合人类表达习惯 [4][6] - 编程能力在多语言测试中以71 6%得分击败Claude 4 Opus 较R1有进一步改进 能完成复杂指令如设计宫崎骏风格五子棋游戏并生成可交互代码 [7] 模型部署优化 - V3与R1模型合并部署 从原来分开部署各需60张卡变为合一部署仅需60张卡 部署成本大幅下降 [11][12] - 若使用120张卡部署V3 1 因缓存增大性能预估可提升3-4倍 此次更新主要针对降本 [12] - 深度思考按钮从"深度思考(R1)"变为"深度思考" 意味着调用模型可能不再局限于R1 或是V3/R1合并后的新模型 [9] 用户增长与行业影响 - R1发布当月用户增长达1 25亿 80%以上来自1月最后一周 日活跃用户数在1月28日首次超越豆包 成为全球增速最快AI应用之一 [13] - 开源做法被业界借鉴 腾讯元宝、百度、360等新产品集成其满血版模型 [14] - 各大厂商以R1为参照物 阿里巴巴Qwen3-235B-A22B声称超越R1 月之暗面Kimi K2和智谱GLM-4 5也宣布超越R1且API价格低至0 8元/百万tokens [15][17] 行业动态与期待 - R2作为R1后续产品备受行业关注 但8月内无发布计划 V3 1更新后8月可能无更大版本发布 [2][19] - 公司对商业化不感兴趣 专注打磨基础模型确保每代领先 市场期待值强烈 [20] - V3和R1合并部署可能为多模态模型发布作准备 因分开部署负担重 多模态模型发布或已不远 [23]
实测低调上线的DeepSeek新模型:编程比Claude 4还能打,写作...还是算了吧
36氪· 2025-08-20 20:14
模型发布与性能 - DeepSeek-V3.1-Base模型正式上线并开源,拥有6850亿参数,支持BF16、F8_E4M3、F32三种张量类型,以Safetensors格式发布,推理效率优化,上下文窗口拓展至128k [1] - 在编程基准测试Aider Polyglot中得分71.6%,表现最佳的开源模型,击败Claude 4 Opus [5][6] - 长文本处理测试中成功从10万字文档中检索特定信息,并提供文学角度的补充建议 [3][4] 技术能力测试 - 编程任务测试显示模型能够处理复杂代码生成,包括物理特性模拟和交互式3D场景构建,如六边形小球弹跳程序和Three.js粒子星系 [6][8] - 数学问题解答逻辑清晰,步骤完整,准确解决牧场草量计算问题 [12][13][14] - 武器对比分析引入方差概念,评估伤害稳定性,超出简单平均计算 [16][17][18][19] 模型应用与创新 - 在Hugging Face平台趋势榜排名第二,接近登顶,显示社区高度关注 [79] - 官方移除深度思考模式中"R1"标识,新增原生"search token"支持,优化搜索功能 [79] - 模型生成内容涵盖创意写作,如冰岛蚊子发布会故事,但存在信息密度过高和意象堆砌问题 [53][56][57][65] 行业比较与定位 - 模型在多项测试中表现优于GPT-5和Claude 4 Opus,特别是在编程和复杂问题解决领域 [5][26] - 社区和行业领袖如Hugging Face CEO公开关注模型发展,强调其技术影响力 [79] - 模型开源发布未附带详细模型卡,但技术细节和性能数据已通过测试验证 [1][81]
DeepSeek V3.1发布后,投资者该思考这四个决定未来的问题
36氪· 2025-08-20 18:51
文章核心观点 - DeepSeek V3 1模型在编程基准测试中以71 6%的分数超越Claude 4 Opus 登顶开源模型榜首 同时成本优势显著 完成一次编程任务仅需1 01美元 比Claude Opus 4便宜68倍 其架构创新引发行业对混合架构的广泛猜测 这一发布促使投资者重新评估AI赛道的竞争格局 成本结构 商业模式和护城河演变 [1][2][5][7][18][20] 开源与闭源竞争格局 - 开源模型在特定能力如编程和数学上实现反超 挑战闭源巨头OpenAI和Anthropic的护城河 闭源优势可能从通用智能绝对领先收缩为多模态和超长上下文等功能的时间窗口优势 [8] - 企业采用混合模式成为主流 端侧和私有化部署优先使用微调开源模型处理敏感数据和高频任务 公有云调用闭源模型处理复杂非核心任务 这一趋势将重塑云厂商AI服务格局 并影响Snowflake和Databricks等一体化平台公司的战略 [8][9] 混合架构的商业影响 - 混合架构通过轻量级调度模型判断请求复杂度 分发给专家模型处理 可能将大模型推理单位经济效益提升一个数量级 冲击通用大模型API商业模式 并改变下游AI应用成本结构 [11][12] - 混合架构主流化可能导致数据中心算力需求多样化 需要更多低成本推理芯片 为NVIDIA之外厂商如AMD Intel和Groq打开新市场窗口 需将这一变量纳入NVIDIA长期投资逻辑考量 [12] 成本优势推动应用层变革 - 模型能力达到SOTA且推理成本降低60 70倍 将引发AI应用层质变 高昂API调用成本不再是商业化枷锁 商业模式可从按次调用转向按月订阅SaaS模式 提升营收稳定性和市场天花板 [12][13] - 基础模型因开源竞争逐渐商品化 价值链利润重心向上游应用层和解决方案层转移 护城河转向高质量私有数据 行业工作流理解和企业销售渠道 需重新评估传统软件巨头Microsoft Adobe Salesforce与AI原生创业公司的竞争格局 [14] 未来竞争核心维度 - 企业级就绪度成为下一个核心战场 包含模型稳定性 可预测性 安全性和合规性 提供包含模型 工具链和合规解决方案的企业级套件可能开启万亿级企业市场 [14][15] - 垂直领域深度优化与生态构建成为竞争焦点 商业价值爆发来自与法律 金融 生物医药等行业结合的垂直领域大模型 竞争从模型规模转向行业逻辑理解 生态系统包括开发者工具 API接口和社区支持成为长期壁垒关键 [15]
奥尔特曼:DeepSeek和Kimi是OpenAI开源的重要原因
环球网资讯· 2025-08-20 16:21
行业竞争格局 - OpenAI创始人认为美国低估了中国下一代人工智能的威胁 芯片管制并非有效解决方案 [1] - 中国在推理能力 研究 产品等多个层面发展速度可能更快 中美AI竞争已深度交织 [3] - 中国模型如DeepSeek和Kimi K2的竞争是OpenAI决定发布开源模型的重要因素 [1][3] 公司战略调整 - OpenAI发布六年来首批开放权重模型gpt-oss-120b和gpt-oss-20b 标志闭源路线出现战略大转弯 [3] - 此次开源是自2019年GPT-2发布以来的首次 中国开源模型可能广泛应用的威胁是决策关键因素 [3] - 创始人明确表示中国竞争是开源决策的重要考量因素 但非唯一原因 [3]