GPT
搜索文档
SuRo Capital(SSSS) - 2025 Q3 - Earnings Call Presentation
2025-11-05 06:00
Q3 2025 Earnings Call November 4, 2025 Forward Looking Statements Statements included herein, including statements regarding SuRo Capital Corp.'s ("SuRo Capital", "SSSS", the "Company", "we", "us" or "our") beliefs, expectations, intentions or strategies for the future, may constitute "forward-looking statements". SuRo Capital cautions you that forward-looking statements are not guarantees of future performance and that actual results or developments may differ materially from those projected or implied in ...
Apple's earnings are all about the iPhone 17, says Intelligent Alpha's Doug Clinton
Youtube· 2025-10-31 04:34
Doug, um, how are you thinking about this. Obviously, there's always going to be give and take in the reactions, but talk a little bit about Amazon in particular and its spot within this full AI boom. >> Yeah, Mike, we actually have not owned Amazon at Intelligent Alpha.Our models, we use AI to do our our stock picks. Our models haven't liked Amazon, and it's been right. It's been the worst performer of the Mag 7 year to date.And I think the primary concern is that question around AWS. We just saw an incred ...
前阿里、字节大模型带头人杨红霞创业:大模型预训练,不是少数顶尖玩家的算力竞赛|36氪独家
36氪· 2025-10-30 21:37
公司核心战略与技术路径 - 公司InfiX.ai由前阿里和字节大模型核心人物杨红霞创立,致力于大模型预训练的"去中心化",旨在降低资源消耗,使中小企业、研究机构甚至个人都能参与模型预训练[7][12][13] - 公司技术路径与主流"中心化"模型(如GPT系列)截然不同,核心判断是模型知识的注入只发生在预训练阶段,后训练仅提供规则,因此企业本地化部署必须进行持续预训练才能有效利用私有数据[14][16][34][35] - 公司选择香港作为基地,主要考量包括香港产学研项目提供的丰厚资金和算力补贴(如获得香港数码港超算中心90%的算力减免折扣),以及全球领先的人才密度,使团队快速组建至40人规模[10][113][121] 核心技术成果与性能 - 公司开源全球首个FP8训练"全家桶"(InfiR2 FP8),相较于行业普遍采用的FP16/BF16,在模型性能几乎无损的情况下,最高提升训练速度22%,最高节省显存峰值14%,端到端吞吐量最高提升19%[17][18][20] - 公司推出模型融合技术InfiFusion,可将不同领域预训练的异构"专家模型"进行融合,避免模型重复训练造成的资源浪费,目前已实现四个异构模型融合,在18个推理Benchmark上平均得分从77分提升至79分,最新方法已逼近88分[17][21][92][93][95][96] - 公司推出医疗多模态大模型训练框架InfiMed,基于小规模数据(如36K RLV)和算力资源训练的小参数模型(如3B)在七大医疗基准测试中平均准确率达59.2%,显著优于同尺寸的谷歌MedGemma-4B-IT(54.8%)[17][22][23] 行业趋势与竞争格局 - "去中心化"模型训练趋势在国际上得到验证,前OpenAI CTO Mira Murati成立的新公司Thinking Machines Lab在种子轮融资20亿美元,估值达120亿美元,显示出市场对该路径的强烈信心[27][28][63] - 行业共识正转向领域模型小型化趋势,MIT Tech Review将小语言模型列为2025年十大突破性技术之一,公司早在2024年中已验证在垂直领域小模型(如30亿、70亿参数)可超越1.6万亿参数的中心化大模型[42][43][53] - 公司在模型融合技术路径上选择更具挑战的异构模型融合,区别于Sakana AI等公司的同构模型融合路线,旨在解决不同结构模型(如Llama、DeepSeek、千问)的融合难题[81][82][94] 研发资源与团队管理 - 公司采用低资源训练路径,相较于典型AI初创公司"二八原则"(80%资源投入算力),公司更注重人才质量,团队接近40人,其中一半成员背景强劲,可拿到大厂特殊offer[68][122][126] - 公司研发团队要求成员端到端负责数据、算法、AI Infra,而非按岗位严格分工,以提升全链路理解能力和创新效率,团队成员成长速度远快于在大厂时期[130][133][134] - 公司技术发布坚持高质量优先于速度,重点关注NeurIPS、ICLR、ICML三大顶级会议,并强调技术声誉的积累,认为技术断崖式领先是商业化的根本保障[102][105][141]
夸克做ChatBot,为什么是现在?
乱翻书· 2025-10-24 13:52
在App时代,用户下载了几十个应用,却只常用三五个; 在AI时代,用户可能拥有几十个Agent,却只会信任一个。 搜索即对话,对话即执行 AI行业过去一年最典型的误区,就是"垂直 Agent 幻觉"——即认为每一个细分任务(写作、改图、做表格、生成PPT、做题、查论文)都值得单独做一个 Agent。 这个思路看似合理,实则重演了App时代"功能碎片化"的老路。 原因很简单:用户的核心需求不是"找Agent",而是"解决问题"。 而当AI能力足够强,一个通用的大脑可以理解多种意图,用户自然不会再愿意在不同的Agent之间切换。 而且从技术演化看,大模型的趋势恰恰是泛化与整合,而不是细分与拆解。 从Qwen、GPT和Claude等中美最优秀模型的进步方向来看,大家都集中在优化:更强的多模态能力/更复杂的工具调用与推理/更稳定的上下文记忆与长任务 管理。 这些特征共同指向一个事实:一个模型可以涵盖过去多个Agent的功能。 当模型本身已经具备跨任务推理与自动工具调用能力,再人为拆成一个个垂直Agent,只会降低效率、浪费潜力。 用一句话概括: 模型在走"统一",产品在走"分裂" ——这显然是逆势操作。 10月23日 ...
维基百科在AI时代的衰落
虎嗅· 2025-10-24 08:07
本文来自:嬉笑创客,原文标题:《Wikipedia在AI时代的衰落》,题图来自:视觉中国 挺有意思的图,看来wikipediad等百科全书最容易被GPT等LLM AI替代,Reddit这种论坛社区依然顽强生 长,甚至因为能为大模型源源不断提供真实语料而价值凸显。 按这样推算的话,小红书的价值也会比知乎更大很多?反正Stackoverflow已经岌岌可危了。 另外人对真实互动的需求一直存在,很多AI陪伴只是退而求其次的替代品,我也怀疑厌倦上来是很快的。 果然玩东西的最高境界是和无尽可能性的人玩(生物人、社会人、会突变不可预料,还会演变的人)。想 起来游戏运营的那个原则,99%的玩家免费不重要,最重要的是让氪金的1%玩家感受到是在玩剩下的其他 所有人。 所以,BTW,游戏玩家真的习惯长期用逗逗游戏伙伴的到底有多少?月活真有几百万?不是说好的真玩家 从来不看说明书和教程吗? ...
Anthropic, Google in Talks on Multibillion-Dollar Cloud Deal
Yahoo Finance· 2025-10-22 21:59
Anthropic PBC is in discussions with Alphabet Inc.’s Google about a deal that would provide the artificial intelligence company with additional computing power valued in the high tens of billions of dollars, according to people familiar with the matter. The plan, which has not been finalized, involves Google providing cloud computing services to Anthropic, according to the people, who asked not to be named because the information is private. The deal will allow Anthropic to use Google’s tensor processing ...
AI变革将是未来十年的周期
虎嗅APP· 2025-10-21 07:58
以下文章来源于王智远 ,作者王智远 王智远 . 商业记录者,主持人、《复利思维》《自醒》图书作者;专注于市场营销、消费心理、AI新科技、精 神生活与商业探索。 本文来自微信公众号: 王智远 ,作者:王智远,原文标题:《Karpathy:十年、幽灵、智能体》, 题图来自:AI生成 昨天听了一个播客,来自 Karpathy。 Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。 在很多人眼里,Karpathy 代表当下最接近"AI 思维核心"的那类人;他主要提到两件事: 一,AI 变 革将是未来十年的周期;二,我们在造幽灵。 想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。 深度学习在十年前解决了"机器怎么看"的问题,而大模型在今天解决"机器怎么想";中间隔着十年时 间,但也隔着一次完整的范式更替。 他说,这是 AI 的节奏。 他说,这像两把钥匙,一把打开"时间",一把打开"智能的本质"。 我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一 年一个版本,几个月一个突破。 但 Karpathy 的解 ...
AI变革将是未来十年的周期
虎嗅· 2025-10-20 17:00
昨天听了一个播客,来自 Karpathy。 Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。 在很多人眼里,Karpathy 代表当下最接近"AI 思维核心"的那类人;他主要提到两件事:一,AI 变革将 是未来十年的周期;二,我们在造幽灵。 他说,这像两把钥匙,一把打开"时间",一把打开"智能的本质"。 我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年 一个版本,几个月一个突破。 但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。 一 他说,AI 发展是"演化式"的。技术像生命一样,是慢慢长出来的,每一轮大的突破,往往靠算力、算 法、数据和人才这四股力量,彼此纠缠、逐步成熟。 它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的 成果,变成下一次的养料。 Karpathy 还提了一个细节: AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对"智能"的定义,是 滞后的。 所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期 ...
Andrej Karpathy :AI 智能体的十年战争、强化学习的困境与“数字幽灵”的觉醒
锦秋集· 2025-10-20 15:00
智能体发展时间框架 - 当前业界普遍认为今年是"智能体元年",但Andrej Karpathy判断这是"智能体的十年",意味着智能体的成熟将是一个长达十年的渐进过程,而非短期内突然爆发[6][7] - 智能体要成为真正的"数字同事"尚需约十年时间,因其核心能力模块尚未整合完备[8][9] 智能体缺失的关键能力模块 - 实现真正可用的智能体还缺失四个关键模块:多模态感知、记忆系统、持续学习与行动接口[1] - 具体缺失的能力包括:多模态能力(理解图片、视频、操作界面)、计算机使用能力(用鼠标、键盘或API操作数字世界)、持续学习(记住历史信息而非每次从零开始)、更强的认知能力(规划、上下文管理、长期目标追踪)[15] AI发展史上的关键转折点 - AI领域过去十五年经历了三次范式转折:深度学习崛起(AlexNet时代代表的感知革命)、强化学习与游戏兴起(行动革命)、大语言模型出现(表征革命)[11][12][13][14] - 真正的技术"实用化"总是比"概念提出"晚五到十年,智能体的演化不会例外[11] 强化学习的根本缺陷与改进方向 - 强化学习在实践中存在信息稀疏问题,其本质是把监督信号吸进一根吸管里,从长行为序列中只获取最后一点反馈,导致高噪声、低效率、极难稳定[20] - 人类基本不用强化学习,而是依赖反思与推理过程,形成过程监督而非仅看最终结果[21] - 未来强化学习的改进方向包括:细粒度奖励(每个阶段提供反馈)、多维度打分(评估效率、优雅度、可解释性)、自我评估循环(模型能自己复盘、修正、再训练)[47][48][49] 从模仿学习到反思学习的演进 - AI学习模式的演进路径为:从模仿学习(模型模仿人类对话风格)到强化学习(RLHF,结合模仿与奖励),下一步是让模型学会自我反思[23][24] - 模型需要具备"反思与回顾"结构,甚至类似"睡眠"的机制,将临时经验蒸馏进权重,但目前这些还停留在论文级别实验,尚未在真正的大模型规模上跑通[24][25] AI编程的现状与瓶颈 - AI辅助编程工具(如Copilot或GPT)目前作用有限,在独创系统或研究型代码编写上几乎帮不上忙,其最实用模式是半自动补全(程序员控制结构,模型辅助局部实现)[31][35][36][39] - 模型在创新结构上几乎无能,它擅长复刻常见模板,但理解不了新结构,容易自以为懂并建议不必要的API,导致代码臃肿复杂[38] - 编程的进化可视为一个"自主滑杆"的缓慢推进,AI持续压缩低价值劳动空间,但真正的架构与理解仍靠人类,未来编程可能演化为一种"思维交互"[41][42][43] 人类学习与AI训练的根本差异 - 人类学习是开放系统,具备多层次学习机制(内置硬件、社会化学习、反思梦境和创造再训练),而AI模型是一次性训练形成的封闭系统,不会真正持续更新认知[51] - 人类通过遗忘保持创造力优势,而AI记忆力太好反而妨碍泛化,未来可能需要让模型"学会遗忘"[28] AI的未来角色与社会影响 - AI的角色是"认知合作者",未来最现实的是一种共生关系:AI负责探索空间庞大、重复性高的任务,人类负责定义目标、做价值判断[52] - 未来社会分工会越来越像"混合认知体",每个个体由一个人加一组AI代理组成,像拥有个人操作系统一样协同工作[53] - 下一个十年是从"召唤幽灵"到"驯化幽灵"的阶段,需要建立社会层面的规则、价值观、使用边界,确保AI安全、可靠、合作、可信[54][55]
语音助手的「智商滑铁卢」:当GPT开口说话,准确率从74.8%跌到6.1%
机器之心· 2025-10-17 19:53
研究核心发现 - 杜克大学与Adobe发布的VERA研究首次系统性测量语音模态对AI推理能力的影响,发现语音系统在推理任务上普遍表现不佳[2][3] - 研究覆盖12个主流语音系统,使用2,931道专门设计的测试题进行评测[3] - 最显著对比来自OpenAI GPT家族:GPT-5文本版在数学竞赛题准确率达74.8%,而GPT-realtime语音版准确率仅6.1%,相差68.7个百分点[5][6] - 所有测试语音系统在推理任务上均表现较差,包括OpenAI的GPT-realtime、谷歌的Gemini-native-audio、亚马逊的Nova Sonic和阿里巴巴的Qwen音频模型等[5] 评测体系设计 - VERA评测体系从五个维度考察语音系统推理能力:数学推理、网络信息综合、研究生级科学问题、长对话记忆和事实检索[9][10][11][12][13][14] - 数学推理题目来自美国数学邀请赛,网络信息综合题目需要整合多个信息源,科学问题涉及量子力学等深度专业知识[10][11][12] - 研究团队对测试题进行系统性"语音原生化"改造,包括数字转换、符号口语化和添加自然对话开场[16][17] - 从约22,000道原始题目中精选出2,931道高质量测试题,确保公平对比[18] 性能表现数据 - 语音模型平均准确率约11.3%,文本模型平均准确率约54%,差距达42.7个百分点[19][32] - 追求1.5秒内响应的语音系统准确率均在10%左右徘徊[8] - 在数学推理任务上,最佳文本模型(GPT-5)准确率74.8%,最佳语音系统仅6.1%[19][29] - 级联架构系统LiveAnswer+在数学任务准确率提升至59.1%,但仍比纯文本低15.7%,在长对话记忆任务完全失效(0.2%)[19][33] 技术瓶颈分析 - 根本性架构冲突在于"不可逆的流式承诺":语音生成像现场直播,说出去收不回,导致系统选择安全但肤浅的回答路径[21] - 认知资源分配困境:系统需同时处理"想什么"和"怎么说",资源分散导致性能下降[22] - 不同架构展现独特失败模式:流式架构倾向"完成优先",端到端架构经常跑题,级联架构出现前后矛盾[26][27][32] - 延长思考时间(如Audio Flamingo 3从2.4秒延至15.1秒)反而使准确率从1.7%降至1.5%,证明问题在于架构本身而非时间限制[22][23] 行业影响与展望 - 研究揭示了语音交互系统普遍存在的"智商下降"现象,问题具有行业普遍性[28] - VERA benchmark提供了标准化评测框架,使行业可量化追踪技术进展[37] - 未来突破方向包括异步架构革新、智能缓冲策略、可编辑内部状态和分块并行处理等解决方案[36][41] - 真正智能的语音助手需要从根本上重新思考实时对话约束下的深度推理机制,而非简单将文本模型接上TTS系统[34][37]