纪要涉及的行业和公司 - 行业:AI 云行业 - 公司:小米、金山办公、Seek、阿里云、腾讯云、字节跳动火山引擎、火山方舟、OpenAI、华为、微软 Azure、AWS、英伟达、Firefly AI、GPT 纪要提到的核心观点和论据 - IDFC 对 AI 云需求的影响:IDFC 的出现显著增加了 AI 云的需求,如小米 AI 需求增加使金山办公受益,Seek 发展预示阿里云需求上升,还带动国内 AI 云市场大幅增长,连三大运营商之前闲置的卡也可能被充分利用[2] - 云服务提供商的评估维度:评估云服务提供商主要从价格、处理速度、稳定性和答案正确性几个方面进行,通过相同问题测试记录处理时间和 token 总数计算输出速度,用复杂问题检验答案正确性[3][6] - 各云服务提供商表现 - 腾讯云:R1 模型在测试中表现不稳定,速度较慢且答案正确率低,官网访问速度在高峰期较慢,页面加载时间长,需等待 30 秒到 1 分钟才能得到响应;定价为每百万 token 16 元,可能经过量化处理,总体稳定[4][7][8][9] - 阿里云:百炼 R1 模型支持 64K 上下文,定价与官方一致,每百万 token 16 元,输入价格为 4 元,需通过 AIT 平台测试,目前提供免费额度但尚未开放付费充值;不提供网页端试用,需要一定编程能力操作,不提供拖拽式图像交互界面;容易达到访问上限后不再返回结果[4][10][12][39] - 字节跳动火山引擎:打折促销,每百万 token 原价 16 元,现价 8 元,价格更具优势,用户界面友好,明确标注模型信息,但具体效果需进一步测试验证;输出速度与腾讯云相当[4][11][13][39] - 火山方舟 API:在 token 上线、价格、适用额度和界面等方面表现友好,输出速度快,编程应用优势明显,整体性能与官网水平相当,每秒大约 22 个 token[4][37] - 大模型表现 - 处理复杂问题:不同大模型在回答复杂问题时存在不稳定性,官方版本通常优于开源版本,但都需多次测试确定实际表现;如 OpenAI 的 O1、O3、O3 mini 都未能正确解答某个复杂题目,仅 R1 版答对一次,但也不是每次都能正确解答[4][15][16] - 特定任务处理:不同平台大模型处理特定任务方法不同,火山引擎因 token 限制较高可持续输出结果,阿里云因 token 输出上限会直接掐掉回答[17] - 官方与开源版本对比:官方版本性能通常更强,能正确解答一些复杂题目,但也存在不稳定性;开源版本处理难题存在差距,但计算速度较快;使用 IE 浏览器测试时,官方版本能实现某些功能,但处理复杂问题会进入死循环,能明确指出错误,开源版本无法给出正确答案[16][18] - 官方与离线模型对比:官方模型处理复杂问题能稳定运行并给出答案,但 token 消耗量可能远超预期;离线模型能算出结果,但推理过程未将所有思考过程算入输出部分[20] - 不同平台生成模型体验:不同平台生成模型实际体验存在明显差异,官方平台需多次尝试才能返回较好答案,国内阿里、腾讯等平台提供更多微调工具但速度略慢,华为生成云服务处理长 prompt 时容易中途停止,各平台推理速度也不同[22] - 模型广场模型表现:不同模型在输出速度和用户体验上存在显著差异,如 70B 参数的蒸馏模型每秒可生成约 12 个 token,较慢的模型每秒只能生成 3 到 4 个 token,对语音应用的用户体验影响大[23] - 平台设置对性能的影响:平台设置对性能有显著影响,达到负载上限时输出速度会明显下降,小型平台可能无法承受高负载,大型平台如微软 Azure 虽提供较高最大 token 数,但存在排队和不稳定问题[24][25][26] - 海外云服务表现:微软 Azure、AWS、英伟达等海外云服务目前处于测试阶段,价格未明确,允许租用云服务器自行搭建环境测试,使用 API 需排队,处理复杂任务有优势但面临稳定性挑战;微软 Azure 最大支持 4,000 个 token,对于 8,000 个 token 的问题不够用[26][27] - 各平台处理复杂任务挑战:不同类型平台处理复杂任务面临输出速度差异、负载能力瓶颈、稳定性问题和定价策略不明确等挑战[28] - 英伟达卡使用问题:使用英伟达的卡时服务器过载,点击无反应,排队也无法进行,刷新后无改善[29] - Firefly AI 性能:输出速度较快,每秒可输出 20 多个 token,付费标准为百万 token 8 美元,约贵国内三倍,计算速度显著快于其他平台,测试中能达到每秒 25 个 token[30] - 云端服务与官方版本计算能力差异:官方版本能稳定完成任务,某些云端服务会出现错误,DeepSeek 运行速度快但在复杂题目上会遇到 token 上限问题[31][32] - 不同平台处理复杂数学题目表现:DeepSeek 运行 182 秒,消耗 44,096 个 token 未能正确解答;Firefly AI 和其他简化版 API 可能因 token 上限不够用无法解决问题;官方版本耗时 372 秒,消耗 58,516 个 token 能稳定输出结果[33] - 官方版本与其他 API 解题思路区别:解题思路基本一致,都采用相似不等式方法,但面对不可能完成的任务时,官方版本能明确指出问题所在并尝试选最接近答案,显示出更高可靠性和稳定性[34] - 各平台处理复杂任务特点:各平台处理复杂任务均面临挑战,如服务器过载、响应延迟、token 上限等;Firefly AI 速度和性能优但价格昂贵;DeepSeek 快速但有误差;官方版本稳定性和可靠性高,不同平台适用于不同任务[35] - O3 mini high 使用注意事项:是最强版本,但需注意思维链处理方式,不会提供完整思维链,token 数经过处理,某些情况可能出现答案错误,需程序验证[36] - 各平台性能与英伟达比较:海外微软和英伟达提供免费服务但速度慢且需排队,付费平台速度快但价格高昂;国内火山方舟 API 表现最佳,华为生成云设置有限制,每秒处理约 5 个 token,输出接近 2000 个 token 时会停止[37] - 各平台编程需求表现:火山方舟能很好满足编程需求,如使用 DeepSeek 编写小程序一次即可完成;GPT 在编程上对用户需求响应不够准确[38] 其他重要但是可能被忽略的内容 - 国内阿里和腾讯主要采用英伟达显卡,价格为百万 token 16 元,且提供 temperature 等微调工具[21] - 不同平台生成模型价格大致相同,但华为生成云服务在处理长 prompt 时容易中途停止[22] - 一个较慢的模型在 200 秒内只能生成 1,000 个 token,相当于每秒 5 个 token,而更快的模型在相同时间内可生成更多内容[23] - 当某一平台达到 1,600 个 token 时,性能开始显著下降[24] - 官方版本在测试中总耗时约 630 秒,共调用 7,923 个 token,每秒输出约 12 个 token,与腾讯云相近[20] - 海外付费平台每百万次调用收费约 8 美元(约合人民币 50 多元)[37]
专家-DeepSeek~-全球AI云平台-大评测