Workflow
猿大侠
icon
搜索文档
大侠后宫:“前任邀请我参加婚礼要怎么回?”哈哈哈哈哈哈哈网友给的回复太典了!!!
猿大侠· 2025-06-05 11:08
转自:喵大白话 要不说有事找网友呢 保守稳定发挥派: 黄瓜芝士球 有点事儿, 下次一定到 1小时前 浙江 回复 大晶 下次去 1小时前 陕西 回复 2 公众号 · 喵大白 魔法打败魔法派: momo 我直接问的"你是不是还没放下"14分钟前 湖南 回复 3 七七(许嵩见过版) 圈回他:你不要再联系我了,你都要结婚了,你该 214 有自己的生活,没必要一直缠着我。 3小时前 河北 回复 Wendy_sunny 用魔法打败魔法® 3小时前 湖南 回复 10 展开 5 条回复 2 公众号 · 喵大白话 绝不内耗派 : 冰冰不吃肉(减肥版 你直接"好的"然后删除对话框 别去就得了 不用内耗 3 让他内耗就得了 40分钟前 天津 回复 冰冰不吃肉(减肥版 他如果结婚后还问你 怎么没来 你说"哎呦工作 太忙忘了 下次一定记得"就行啦~ 2 公众号 · 喵大白话 38 分钟前 天津 回复 精神状态稳定派: 温馨建议派: 道具派: 可以不要这样活吗 all and √ Q 请输入商品名 ← 确认订单 © 送至: 超优惠 in 点菜下 备注 可向商家/骑手提出菜市 餐員 您已默认「 招牌玉米汁 x x 看 看 发票 送汰各注 ...
多地停止申领!只因“国补”资金用完了,别急....
猿大侠· 2025-06-05 11:08
国补暂停事件概述 - 重庆家电国补从2025年6月4日起全部下线 成为全国第一个因资金使用完毕而暂停补贴的地区 [1] - 江苏线上国补于2025年6月1日0时正式停止 恢复时间未明确 停止原因与商业结构失衡有关 [6][7] - 甘肃肃州、江苏镇江/扬州、辽宁营口等地更早发布以旧换新补贴暂停公告 主要因补贴资金使用完毕 [9] 暂停原因分析 - 监管漏洞与骗补行为:线上平台存在商家虚构交易、骗取补贴现象 监管难度极大 [7] - 市场失衡:线上补贴压缩线下实体店生存空间 部分商户因客流流失被迫闭店 引发区域性失业问题 [7] - 政策目标偏离:部分补贴被高收入群体或黄牛利用 实际惠及下沉市场人群未达预期 [8] 政策后续动向 - 重庆市商务委正在起草第二阶段以旧换新补贴政策 预计2025年6月上旬出台 [12][13] - 江苏扬州/镇江市商务局表示后续补贴资金到位后将第一时间公布 [13] - 佛山计划于2025年5月31日重启家电以旧换新活动 并上线资金进度展示功能 [10] 政策效果与行业影响 - 2025年Q1中国平板电脑市场出货量同比增长21.5%至800万台 直接受益于国补刺激 [15] - 手机等数码产品购新补贴已覆盖792万名消费者 累计申请1078.6万件补贴 [15] - 国补政策核心目标为促进消费升级、推动产业转型和民生改善 未来可能常态化但需优化执行机制 [15]
裁员了,很严重,大家做好准备吧!
猿大侠· 2025-06-04 10:55
AI行业人才需求与转型趋势 - 传统技术岗位面临降薪淘汰压力,而AI大模型人才招聘薪资高达60K*16薪,行业人才结构正在重构[1] - 80%公司已将AI工具应用列为员工必备技能,Cursor等编程工具普及加速工作提效[1] - 大厂招聘标准转向AI大模型实战经验(非单纯API使用),缺乏相关经验者面试通过率大幅降低[1] AI大模型技术培训核心价值 - 课程提供大模型原理、应用技术到项目实战的全链路学习,覆盖Transformer架构、RAG、Agent等核心技术[2][4][11] - 通过金融行业"支小助"、知乎直答等真实案例拆解,学员可复现项目并写入简历[8][12] - 2天直播包含业务场景解析、技术架构剖析及大佬答疑,完课赠送大模型案例集和商业白皮书[2][3][15] 职业发展支持体系 - 提供大厂内推机会,简历直达面试官,已有学员实现高薪职业跃迁[6][14] - 行业大佬深度解析招聘风向,包括岗位薪资(如60K*16薪)、技术迭代路径等[1][6] - 垂直领域经验(如医保风控系统改造、电商智能客服优化)可显著提升岗位竞争力[4] 技术应用场景落地 - RAG技术适用于需频繁更新知识的场景(如智能客服),无需重新训练大模型[16] - Function Call通过集成外部工具增强大模型复杂任务处理能力[16] - 个人开发者可完成AI原生应用全栈开发,Transformer架构在行业解决方案中具普适性[11][12] 课程市场反馈 - 已开班58期,服务20000+学员,学习效果获广泛认可[14] - 本期限100个免费名额,24小时后关闭报名通道[3][15]
大侠后宫:“千万!不要!在庙里随便许愿啊啊啊!”哈哈哈哈哈网友经历过于抽象了...
猿大侠· 2025-06-04 10:55
转自:喵大白话 神:你就说有没有给你们实现吧 许愿不想和讨厌的人做同事 结果我和讨厌的人 同时被辞退了 ○○ ○ 09 09 昨天 14:23 · 山东 回复 C 2 14.0 万 O 展开 1739 条回复 ▽ 2 公众号·喵大白话 转转快乐转 《许愿不做噩梦 然后就失眠一年》 回复 昨天 14:57 · 山东 突然有一天暴富 好可怕它 ♡ 9.2万 O 2 公众号·喵大白话 转转童心未涙 转转爱吃爆米花 之前我朋友去雍和宫许愿,说希望自己新的一 年可以靠自己的能力好好生活。结果拜完后回 去没几天她花呗一万多的额度不知道为啥给封 了,只能用透50块钱 > 这下真得靠自己生 活了哈哈哈哈哈哈 昨天 14:22 · 山东 回复 ♡ 4.3万 | © 好幸运达 @ 邓铁锤有 ๑ 花 这真不让人活了 ▽▽▽ 昨天 14:24 · 广西 回复 · 22 5399 ·大 3 · 重庆谭律师 我有个涉刑案的客户,他老婆去许愿让过年前 能出来,结果他第二个月在里面心脏突发过去 了,变成盒子被捧回家了 @ @ @ @ @ @ ♡ 5.4万 ♡ 昨天 16:03 · 重庆 回复 CSK-四个石头 比找你效率高多了 cs 昨天 ...
微软停止Edge流氓行为不再骚扰用户 但有个前提...
猿大侠· 2025-06-04 10:55
微软Edge浏览器政策调整 - 微软将停止Microsoft Edge浏览器的强制行为,包括允许卸载该浏览器、不再强制系统内链接通过Edge打开、允许非Edge浏览器一键关联PDF等各种格式 [1] - 这些变更仅限于欧盟区(包括EEA),目的是遵守欧盟数字市场法案的要求 [1][2] 具体政策变更内容 - 允许用户卸载Microsoft Store应用商店 [3] - 允许用户在Win10/11搜索框中使用多个搜索结果(不再仅限于必应) [3] - 允许用户卸载Microsoft Edge浏览器 [3] - 打开搜索框内容时不再强制使用Microsoft Edge加载 [3] 浏览器关联协议调整 - 设置默认浏览器时将默认关联更多快捷方式,包括mht、svg、xml、pdf等协议,而不仅限于HTTP和HTTPS [4] - 当前即使用户将Chrome设置为默认浏览器,也不会关联PDF,导致打开PDF时仍使用Microsoft Edge [4] 潜在绕过限制的方法 - 有网友表示在Windows 11 OOBE阶段将区域修改为欧盟国家可能获得以上福利,但尚未验证 [5] - 蓝点网正在虚拟机中进行测试,若后续发文说明验证成功,否则说明失败 [5]
大侠后宫:"奶奶:给我点杯全糖芋泥奶茶!"哈哈哈哈哈会上网的老年人有多野??
猿大侠· 2025-06-03 10:08
转自:喵大白话 当70多岁的奶奶爱上了奶茶 星期一 18:20 捐十元能帮他点一杯 □α 通话时长 00:36 核对完毕、马上点 ✪ 公众号·喵大白话 太可怜了, 你回来给我研究一下怎么付款 这都是骗人的! 你别看到奶茶就上头行不 现在骗子怎么还对症,及药 15:39 奶奶那些保健品千万不能再买了啊 都是骗人的 15:47 去听讲座就送鸡蛋这种事也不要信 15:59 没事多去老年活动室锻炼锻炼嘛 17:56 昨不回消息呢奶 18:06 给你点了杯芋泥奶茶 还是挂门把手上3吗 我没点 只是确认你看到这些消息了 以后晚上能别给你奶奶点奶茶了吗 都是植脂末! 《越钳越好》 哈哈哈哈哈 我老了就这样 2 公众号 · 喵大白话 《带着大妈去复活》 好小众的文字 刚实习的时候 有个大妈来给家属分别 Cubl 我跟她要身份证 结果大妈把她自己的给我了 器后大妈就被我开死了 深刻罪了一件事 能着大妈去复活 阎王都没你权力大 3-3·广东 回复 展开 5951条回复 v ♡ 12.8万 ♡ 看广告就可以复活,你搞了一整天? 74.4万 O 3-3·湖南 回复 作者回复过 展开 1715 条回复 ▽ 让老年人复活,既解决了人口老 ...
硅谷今夜集体失眠!互联网女皇340页AI报告猛料刷屏,大佬熬夜头秃
猿大侠· 2025-06-03 10:08
AI趋势报告核心观点 - AI驱动的变革已全面且不可逆转,既是黄金时代也是奇点关键时刻[6] - AI推理成本两年内暴降99.7%,训练顶级模型成本达10亿美元且8年增长2400倍[21] - 中国AI模型以低成本鲸吞市场,性能接近美国顶尖水平但成本仅为GPT-4.5的0.2%[41][54][55] - ChatGPT估值达3000亿美元但收入倍数达33倍,商业模式面临中国开源方案冲击[42][48][51] - 全球AI竞争已成中美主导战场,中国工业机器人装机量占全球75%[65][59] 技术成本与行业变革 - 2024 Blackwell GPU单token功耗比2014年Kepler GPU低105000倍[24] - 轻量级定制化模型将超越OpenAI等资金密集型巨头[26] - 谷歌TPU和亚马逊Trainium云服务进展迅速,属于基础性战略赌注[29] 区域市场动态 - 印度成ChatGPT第二大市场,月活占比13.5%超越美国的8.9%[31] - 印度同时是DeepSeek最大市场,7%全球用户来自该国[34][35] - 印度用户价格敏感度高,低成本策略可成为突破口[39] 商业模式与估值泡沫 - OpenAI、xAI和Anthropic三巨头筹资950亿美元但年收入仅120亿美元[46][47] - Perplexity估值/收入倍数达75倍,远超行业平均水平[49][50] - 投资人需警惕高估值风险,建议仅投入可承受损失金额[52][53] 用户增长与竞争格局 - ChatGPT 17个月获8亿用户,增速超历史任何技术[70][71] - OpenAI年度搜索量达3650亿次,增速是谷歌的5.5倍[78] - DeepSeek-R1数学测试成绩达93%,接近OpenAI o3-mini的95%[56] 未来市场机会 - 全球26亿人未接入互联网,卫星互联网将推动AI原生用户增长[90][91] - 下个十亿用户将跳过传统应用层,直接进入智能体生态系统[95][96] - AI技术渗透速度达人类史上最快,正开启新超级周期[82][98]
街头石墩可以看剧+手机无线充电了!网友却表示“拒绝”
猿大侠· 2025-06-03 10:08
深圳新型无线充电石墩 - 深圳街头出现具备无线充电功能的新型石墩,支持免费充电并带有视频播放功能 [1] - 石墩带有电子屏幕,点击可观看视频,屏幕下方明确标注"免费无线充电"字样 [3] - 用户只需将手机放置在石墩指定位置即可快速进入无线充电模式 [5] - 运营方表示该设备主要用于广告投放,效果良好,计划进驻万达广场并向全国推广 [7] - 设备采用12V低压电源,具备防水防雨功能,符合国家安全电压标准 [7] 市场反应与争议 - 支持者认为这是城市智能化与便民服务的创新结合,能有效缓解"电量焦虑" [7] - 反对者质疑为伪需求,可能造成人群滞留和安全隐患,影响城市安全设施原有功能 [9] - 部分用户担忧设备抗撞击强度及极端天气下的可靠性 [9] - 有观点认为该设计强化了手机依赖,与户外活动初衷相悖 [9] 户外无线充电技术发展现状 - 户外无线充电技术已在公交站、路灯、地铁等公共场景应用 [10] - 武汉2020年设置60盏无线充电路灯,支持大功率快充,15-20分钟可充至70%-80% [11] - 重庆智能公交站台配备便民无线充电设施 [13] - 深圳地铁车厢内也设有无线充电区域 [19] 无线充电技术瓶颈 - 充电速度慢:无线充电功率最高80W,而有线快充已达200W [15] - 对位精度要求高:线圈偏移会导致功率骤降或断充,新手机设计变化影响兼容性 [16] - 使用灵活性差:无法边充电边使用手机 [17] - 协议不互通:各品牌私有协议导致设备兼容性差,需配套使用才能满速充电 [20] - 发热问题:无线充电器表面温度比有线高8-12℃,高温环境下性能下降明显 [21]
公司Rust团队全员被裁,只因把服务写得「太稳定」:“项目0故障、0报警,那养着3个Rust工程师没用啊”
猿大侠· 2025-06-02 12:22
项目背景与技术选型 - 一家快速成长的独角兽初创公司主力应用采用Ruby on Rails和Node.js,未使用高性能编译型语言如Rust或Go [3] - 公司计划开发实时在线状态服务,初期需支撑10万并发用户,团队认为Ruby不适合此场景 [3] - 技术选型阶段,团队用Elixir、Rust、Ruby和Node.js编写原型进行性能测试,Rust因灵活性和性能脱颖而出 [4][6][7] Rust项目开发与性能表现 - Rust版本在基准测试中速度最快、内存占用最低,Elixir次之,Node.js受限于单线程,Ruby最慢 [10] - MVP版本仅用两周开发完成,两周部署上线,采用内存哈希表和Kafka事件推送的极简设计 [8][9] - 服务稳定支撑10万并发用户,后续扩展功能也未出现故障 [11] - 优化后性能显著提升:支持100万并发(p99延迟10ms)和200万并发(p99延迟25ms) [12] 管理决策与Rust团队解散 - 公司战略调整导致实时功能搁置,Rust团队解散,服务转入低维护状态 [12] - 新管理层认为Rust工程师"冗余",要求其转岗至Ruby/Node.js或离职,3名Rust开发者全部离开 [14][15] - 决策层未采纳推广Rust的建议,尽管已有成熟服务、工程师和多个适用业务场景 [15] 技术重写与后续影响 - 管理层强制用Node.js重写Rust服务,首次尝试因架构复杂性失败,需依赖第三方平台Ably但性能不达标 [16] - 最终Rust服务虽仍在运行,但因缺乏维护团队,扩展需求被放弃或采用次优方案 [17] - 开发者社区反馈此类事件普遍存在,管理层常因不理解技术价值而抵触非主流技术 [18] 行业现象与开发者观点 - 类似案例常见:技术成功反导致团队被裁,因"无维护需求"难以向管理层证明价值 [17][18] - 企业扩张中管理更替易破坏技术创新,决策者倾向选择主流技术而非最优方案 [18] - Rust等高性能语言面临推广困境,尤其在非技术驱动型组织中 [15][18]
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
猿大侠· 2025-06-02 12:22
核心观点 - 提出两种专为推理优化的注意力机制GTA和GLA,在保持模型性能不变的情况下,将解码速度和吞吐量最高提升2倍,显著优化长上下文推理能力[1][5] - GTA是GQA的有效替代品,KV缓存用量减少约50%;GLA是MLA的实用替代品,解码速度更快,某些情况下比FlashMLA快2倍[2][3][11] - 通过优化注意力机制的内存使用和计算逻辑,提升大语言模型的推理效率和硬件资源利用率,尤其在长上下文场景中优势突出[5][8] 技术贡献 GTA(分组绑定注意力机制) - 将不同查询头的键和值状态进行组合与重用,减少内存传输次数[15] - 多头注意力的头分为若干组,每组内的头共享相同的Key和Value参数,仅查询参数独立[15] - 相比GQA,通过参数绑定实现更彻底的KV重复利用,KV缓存减少约50%[16][28] GLA(分组潜在注意力机制) - 通过共享联合潜在表示减少每个设备需要加载的KV缓存量,减少内存访问量[19] - 增加每字节内存加载的计算量,减少对内存带宽的依赖,保持并行可扩展性[18] - 解码速度比FlashMLA快2倍,随着序列长度从1K增加到64K,优势更明显[30] 实验验证 模型性能 - 在四种规模模型(183M/433M/876M/1471M)上测试,GTA在中大型模型上优于GQA,GLA与MLA相当[22][23] - 下游任务(Winogrande/SciQ等7个基准)整体表现差距不大,但GTA和GLA可保持或提高从中型到XL尺寸的性能[24][25] 效率指标 - GTA相比GQA减少约50%的KV缓存,验证参数绑定+分组重用的有效性[28] - GLA在64个并发请求的输出吞吐量上均优于MLA,处理长上下文时吞吐量更高[31][34] - MLA计算瓶颈达610 TFLOPS/s,GLA尚未饱和(360 TFLOPS/s),资源利用率更高[29] 行业影响 - 研究团队来自普林斯顿大学,核心作者Tri Dao曾提出Mamba架构和FlashAttention系列工作,在优化Transformer领域具有权威性[46][48][49] - 成果已应用于DeepSeek Coder V2 Base(236B)模型,验证了GLA在处理长上下文时的吞吐量优势[34] - 该研究是迈向推理"理想"架构的第一步,未来可能进一步推动大模型推理效率的提升[50]