Claude
搜索文档
斯坦福报告:AI透明度集体倒退!IBM夺冠,马斯克xAI垫底
搜狐财经· 2025-12-16 18:28
(来源:The 2025 Foundation Model Transparency Index) 从报告的整体结果来看,尽管 2024 年报告显示模型透明度有短暂的改善,但 2025 年的报告指出,透明度指数正呈现倒退:各基础模型的平 均得分从 2024 年的 58 分下降到 2025 年的 40 分,几乎与 2023 年报告首次发布时的水平相当(备注:100 分为满分)。 最近,美国斯坦福大学等团队发布了一份名为《2025 年基础模型透明度指数》(FMTI,The 2025 Foundation Model Transparency Index)的报 告。其中,IBM 以透明度得分最高夺冠,xAI 和 Midjourney 则垫底。 该报告揭示了一种令人担忧的趋势:随着技术的发展,尽管基础模型在性能等各方面持续进步,但其在数据使用、模型训练和下游影响等方 面的透明度却出现了集体倒退。 这是该报告自 2023 年以来发布的第三个年度版本,就像通过量化透明度为各大基础模型开发者做一次"体检"。 本次评估共包括 13 家基础模型公司,其中既有阿里巴巴、DeepSeek 和马斯克的 xAI 等首次纳入报告的企业, ...
AI与人|“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 13:26
&sp "深度伪造"指利用AI伪造或篡改影音,目的在于欺骗,从虚假政治演讲到诈骗语音皆属此 类,其关键在于以假乱真。"AI幻觉"则属技术错误,聊天机器人可能引用不存在的研究,或编造法律案 例,本质是模型在预测词语时出现了偏差。而"AI垃圾"范围更广,也更随意:当人们用AI批量生产内容 却疏于核对准确性与逻辑时,便会产生此类垃圾。它们堵塞信息渠道,抬高广告收益,用重复无意义的 内容占据搜索结果。其错误源于敷衍,而非欺骗或技术局限。 技术滥用与贪婪心态成推手 科技日报记者 刘霞 如今的互联网上,看似信息海量,但也充斥着大量单调、重复且缺乏质量的内容。 美国《纽约时报》网站在12月8日的报道中指出,当前网络,尤其社交平台正泛滥一种被称为"AI垃 圾"(AI Slop)的内容。英国《新科学家》网站10日也发表文章称,今年,许多人感觉仿佛置身于一堆 华而不实的"AI垃圾"中。英国《经济学人》杂志更是将"Slop"一词选为2025年度词汇。这类错漏百出、 古怪甚至令人尴尬的内容遍布各平台,也在悄然侵蚀着人们的思想。 "假冒伪劣"信息充斥网络 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的 ...
2026年的IPO宝座,已经预定好了
阿尔法工场研究院· 2025-12-16 13:23
以下文章来源于融中财经 ,作者付琪森 融中财经 . 中国领先的股权投资与产业投资媒体平台。聚焦报道中国新经济发展和创新投资全产业链。通过全媒体资讯平台、品牌活动、研究服务、专家咨询、投资 顾问等业务,为政府、企业、投资机构提供一站式专业服务。 而这个席位,已经被提前占满。 在大洋彼岸, SpaceX 、 OpenAI 、 Anthropic 整装待发; 在中国,智谱 AI 、 MiniMax 、壁仞、长鑫存储、宇树科技正排队入场。 AI 芯片、大模型、存储、机器人—— 这些名字,很可能会在 2026 年,重新定义我们对" IPO "这两个字的理解。 这一次,不是潮水。 导语:摩尔线程只是开始,整个科技产业链将集体冲刺IPO。 2025 年 12 月 5 日,摩尔线程登陆科创板。 上市首日,股价便暴涨 468% ;五个交易日后,站上 941 元,累计涨幅 723% ,市值突破 4400 亿元。 顶着巨额亏损,市场几乎没有犹豫,用最直接的方式表达了态度——追。 摩尔线程点燃的,并不只是对紧随其后的沐曦的期待。它更像是提前掀开了一角,让人们第一次真切感受到: 2026 年的 IPO ,会有多么惊天动 地。 是巨浪。 ...
“AI垃圾”泛滥,最后的防线在人类自身
科技日报· 2025-12-16 10:20
◎科技日报记者 刘 霞 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的浪潮,一些如同"Slop"的 垃圾内容正在互联网上肆意蔓延。 "AI垃圾"特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化 内容农场。 美国科技网站CNET在10月28日的报道中提到,如今社交平台上"AI垃圾"五花八门:OpenAI的Sora可让 人几秒内生成滑稽荒诞的视频;LinkedIn上满是由AI包装的"专家箴言",例如"有时领导力就是保持沉 默的能力";谷歌搜索结果也宛如AI杂货铺,竟会出现"姜黄能治愈心碎"这类无稽之谈。 "AI垃圾"与"深度伪造"或"AI幻觉"虽有重叠,却并不相同,其区别在于意图与质量。 "深度伪造"指利用AI伪造或篡改影音,目的在于欺骗,从虚假政治演讲到诈骗语音皆属此类,其关键在 于以假乱真。"AI幻觉"则属技术错误,聊天机器人可能引用不存在的研究,或编造法律案例,本质是模 型在预测词语时出现了偏差。而"AI垃圾"范围更广,也更随意:当人们用AI批量生产内容却疏于核对准 确性与逻辑时,便会产生此类垃圾。它们堵塞信息渠道,抬高广告收益,用重复无 ...
“AI垃圾”泛滥 最后的防线在人类自身
科技日报· 2025-12-16 08:23
"假冒伪劣"信息充斥网络 如今的互联网上,看似信息海量,但也充斥着大量单调、重复且缺乏质量的内容。 美国《纽约时报》网站在12月8日的报道中指出,当前网络,尤其社交平台正泛滥一种被称为"AI垃 圾"(AI Slop)的内容。英国《新科学家》网站10日也发表文章称,今年,许多人感觉仿佛置身于一堆 华而不实的"AI垃圾"中。英国《经济学人》杂志更是将"Slop"一词选为2025年度词汇。这类错漏百出、 古怪甚至令人尴尬的内容遍布各平台,也在悄然侵蚀着人们的思想。 "Slop"原指"猪食""泔水"等廉价、粗糙、缺乏营养之物。如今,借由AI技术的浪潮,一些如同"Slop"的 垃圾内容正在互联网上肆意蔓延。 "AI垃圾"特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化 内容农场。 美国科技网站CNET在10月28日的报道中提到,如今社交平台上"AI垃圾"五花八门:OpenAI的Sora可让 人几秒内生成滑稽荒诞的视频;LinkedIn上满是由AI包装的"专家箴言",例如"有时领导力就是保持沉 默的能力";谷歌搜索结果也宛如AI杂货铺,竟会出现"姜黄能治愈心碎"这类无稽之谈。 "AI垃 ...
AI 不是电力,更像电梯:为什么“用不上”才是关键信号?
36氪· 2025-12-16 08:19
2025 年 12 月 13 日,a16z最新一期播客《AI Eats the World》上线。 科技趋势分析师 Benedict Evans(前a16z合伙人)与 a16z 合伙人 Erik Torenberg,开场就问:AI 到底是 又一轮平台迁移,还是像电力和互联网那样,成为重写世界的底层通用技术? 听起来很宏大。但真正的矛盾在另一边:巨头们抢算力、调团队、建超级工厂,普通人却连每天拿 AI 做点什么都想不清楚。 这不是懒或不懂技术。 Evans 认为:不是 AI 不够强,而是它还没变成日常工具。就像电梯,你得主动走进去,按个键,它才 带你上楼。 这场对话要回答三个递进的问题: 为什么 9 亿人注册,却想不出要做什么? 为什么能力很强,却没有变成日常工具? 谁会赢得下一个入口? 最后,Erik 问出那句很多人都在回避的问题:要发生什么,AI 才能被真正认为比互联网更具变革性? 第一节|9亿用户,95%的人想不出要做什么 打开 ChatGPT,不等于用上 AI。 一个被忽视的事实:AI 工具使用率远落后于注册量。 ChatGPT 已经拥有 8–9 亿周活用户,是全球访问量最高的 AI 工具。但真实数据更 ...
一份命中率 80% 的 AI 预测复盘|拾象年度预测
海外独角兽· 2025-12-15 18:01
去年此时,我们在 2025 AI Best Ideas 中提出了 20 个关键预测,12 个月过去,当我们重新审视这份 清单,惊奇地发现:我们对行业格局和技术路径的判断绝大部分都应验了,但其中也有对技术进 步、基建成熟度、以及 AI 交易复杂性的过分乐观。 2026 年即将在 "AI Bubble"的争议中开启。World Model、多模态、机器人以及新范式等积极信号的 出现意味着 AI 领域一定会出现更多惊喜,但同时,OpenAI $1.4T CapEx 也意味着,在 price-in 了 超高预期后,市场对 AI 领域的期待只会越来愈高。 以下是拾象团队 2025 预测复盘, 我们也很希望听到大家对于 AI 领域 2026 的期待, 请留下你的答 案与思考,我们会基于大家的回答组织一场"2026 AI Best Ideas"讨论。 ⬇️ 滑动或点击查看大图 ⬇️ ⬆️ 滑动或点击查看大图 ⬆️ 01 微软投资 Anthropic,模型与云格局彻底改变 ✓ 预测结果:正确 拾象预测: 2025 年 OpenAI 会变成盈利组织,微软也很有可能会投资 Anthropic,这将彻底改变模型 和云的格局——An ...
打脸哲学无用,牛津博士教出Claude,自曝百万年薪提示词秘诀
36氪· 2025-12-15 14:57
在Anthropic,有一位驻场哲学家Amanda Askell专门研究如何与AI模型打交道。她不仅主导设计了Claude的性格、对齐与价值观机制,还总结出一些行 之有效的提示词技巧。哲学在AI时代不仅没有落伍,反而那些通过哲学训练掌握提示词技巧的人,年薪中位数可以高达15万美元。 假设你手上有一台最新款的超级咖啡机。 你按了十几次按钮,就是做不出来你想要喝的那种咖啡。 问题不在于咖啡机的性能不够强大,而在于你不知道正确的指令是什么。 在Anthropic,就有一个专门研究和AI这台「超级智能咖啡机」沟通的人。 她既不是工程师,也不是程序员,而是一位驻场哲学家Amanda Askell。 Amanda Askell是一位受过哲学训练的学者,负责协助管理Claude的性格设定 Amanda Askell是一位受过哲学训练的学者,负责协助 Askell是正儿八经的哲学科班出身。 她曾在牛津大学和纽约大学学习哲学,2018年获得了纽约大学哲学博士学位。 毕业后,Askell曾在OpenAI担任政策方向的研究科学家。 2021年她加入Anthropic,至今一直在该公司担任对齐微调方向的研究科学家。 Askell负责 ...
地球上和 Claude 对话最多的人,是一位哲学家
36氪· 2025-12-15 10:55
在硅谷争分夺秒的代码竞赛中,Claude 似乎是个异类。当其他大模型还在比拼算力和跑分时,Claude 一边夯实自己的代码能力,一边,却在思考一个看 似「虚无缥缈」的问题:如果一个用户跟 AI 谈论形而上学,AI 该不该用科学实证去反驳? 这个问题的答案,藏在 Claude 神秘的「系统提示词(System Prompt)」里,更源于一位特殊人物的思考——Amanda Askell,Anthropic 内部的哲学家。 作为 Claude 性格与行为的塑造者,Anthropic 公司内部的「哲学家」Amanda Askell 谈到了置入欧陆哲学的原因。她发现如果让模型过于强调「实证」和 「科学」,它很容易变成一个缺乏共情的「杠精」。 「如果你跟 Claude 说:'水是纯粹的能量,喷泉是生命的源泉',你可能只是在表达一种世界观或进行哲学探索,」Amanda 解释道,「但如果没有特殊的 引导,模型可能会一本正经地反驳你:'不对,水是 H2O,不是能量。'」。 用「大陆哲学」防止 AI 变成杠精 经常用 AI 的人都知道,大模型在与用户对话前,都会先阅读一段「系统提示词」,这个步骤不会对用户显示,而是模型的自动操作 ...
哈佛最新调查:59%感到被AI威胁,超半数离不开
36氪· 2025-12-15 10:26
明明离不开AI的帮助,可每次看到它把事情处理得又快又准时,心里都会闪过一瞬间的不安——那我到底还能做什么? 最新一份哈佛青年民意调查,把这股情绪赤裸地摆上了台面。 年轻人一边狂用AI,一边又担心被它取代。哈佛最新民调显示:59%的18–29岁受访者认为AI正在威胁他们的未来。效率越高,安全感越低, 这代人被迫提前长大。 你上一次用ChatGPT,是多久前的事? 一天?一小时?或者刚刚就开着它写东西? 不管你承不承认,AI早就从科幻电影里走入现实,渗透现实,甚至重塑现实。 当AI以惊人的速度渗透到创意、文案、编程甚至金融分析等领域时,一种复杂的、纠结的情绪正在年轻一代中蔓延。 最近几个月,越来越多年轻人开始发现一个微妙的变化: 这种「既害怕又使用」的双重态度,折射出了现代职场生存的真相。 一代人的未来感,在数据里变得脆弱 当AI浪潮席卷而来,年轻一代正站在焦虑与机遇并存的十字路口。 年轻人常常是拥抱新技术的先锋群体。35%的受访者表示,会定期使用像ChatGPT或Claud这样的大模型。 高达52%的人信任AI,并将其用于完成工作或学校任务。 不同年龄段每天使用AI的比例对比。18–29岁的年轻人是最频繁、最熟 ...