Workflow
语言
icon
搜索文档
MEGA FUSION安汇洞察:金融科技赋能市场透明度——科技创新正重塑信息传递的未来
搜狐财经· 2025-07-23 18:28
随着科技在金融领域的深度应用,市场信息的获取方式与分析手段正经历一场前所未有的变革。 金融科 技(FinTech)不仅改变了金融服务的交付模式,更在提升市场透明度方面,发挥着日益关键的作用。 透过大数据分析与人工智能(AI)算法,市场参与者如今能更快速且多维度地掌握市场动态。 从实时经济 数据,到公开新闻与社交媒体上的市场情绪,这些零散而庞杂的信息正被转化为可作的洞察,协助用户更全 面理解潜在风险与机会。 美元指数(97.9028, 0.0652, 0.07%) 值得注意的是,这场由科技驱动的透明化浪潮,不仅提升了参与者对信息的掌握能力,也有助于整体金融市 场的信任机制建立。 当信息不再掌握在少数人手中,市场的公平性与稳定性亦将同步提升。 在这个信息高速流动的时代,金融科技正在成为构建开放、透明与可信赖市场环境的核心力量。 随着技 术演进,未来的市场参与者将能在更清晰的信息框架下,做出更具理性与远见的判断。 【MEGA FUSION安汇今日看点】 7月21日,美联储理事 沃勒公开表达了对美联储主席职位的兴趣,同时暗示7月降息的可能,认为私营部门的 就业疲软是本月就应采取行动的理由。沃勒在周五接受媒体采访时表示 ...
一场对抗OpenAI们的“危险游戏”
虎嗅APP· 2025-07-23 18:25
以下文章来源于AGI接口 ,作者陈伊凡、孙晓晨 AGI接口 . AI卷起的财富风暴。 出品|虎嗅科技组 作者|陈伊凡、孙晓晨 编辑|苗正卿 头图|AI生图 "AI原生100"是虎嗅科技组推出针对AI原生创新栏目,这是本系列的第「07」篇文章。 当 ChatGPT 的周活用户冲破 10 亿大关时,一场静悄悄的权力转移正在发生 —— 超过 60% 的消费 者开始绕过谷歌、百度,直接向 AI 助手询问商品信息。但品牌们却像蒙眼的玩家,既不知道 AI 会 如何描述自己,也无力左右推荐的天平。 2025 年 6 月,纽约初创公司 Profound 用 2000 万美元融资撕开了这个市场的口子。Kleiner Perkins 和英伟达风投的入局,让这个成立仅 11 个月的公司站到聚光灯下——生成式AI 时代的 "品牌翻译 官",帮企业摸清大模型的脾气。 自2024年7月成立以来,Profound已被《财富》100强品牌中的数千名营销人员所采用,并入选科技 媒体TechCrunch"2024年最具颠覆性的51家初创公司"榜单。 硅谷风投 a16z 已经迫不及待将其定义为新风口,在其近期发表的一篇文章中直言,"21 世纪初是 ...
金美信消费金融引入DeepSeek大模型,开启智能化新篇章
财富在线· 2025-07-23 17:46
数字化转型与智能化升级 - 金美信消费金融完成DeepSeek大模型部署上线,标志着公司数字化转型与智能化升级进入新阶段 [1] - 技术升级夯实数字化底层能力,依托生成式AI提升办公效率与业务处理效能 [1] - 公司坚守"以科技为手段、以普惠金融为目标"战略,深耕消费信贷全流程智能化建设 [1] 技术应用与业务赋能 - DeepSeek大模型具备轻量化部署、高性能推理优势,构建垂直领域智能知识库体系 [2] - 系统基于自然语言处理与深度语义匹配技术,实现毫秒级精准检索与智能问答响应 [2] - AI技术将应用于征信数据解析、行为画像分析及风控模型动态校验,构建精准风险防控体系 [2] - 大模型驱动智能审批引擎,实现个性化贷款方案推荐与额度智能匹配,缩短审批周期 [2] 全渠道服务与运营模式 - 公司通过全线上运营模式打破渠道与服务边界,提供7×24小时一体化服务 [1] - 自有平台(移动端APP、微信公众号、微信小程序)及头部互联网平台合作渠道覆盖广泛 [1] - 结合智能客服和实时风控预警体系,实现信贷支持全时可达、随处可享 [1] 未来战略布局 - 深挖AI在消费金融核心业务场景的深度应用,包括监管政策解读、合规监测及反欺诈领域 [2] - 以"科技+服务"双轮驱动,探索消费金融与前沿技术融合创新 [3] - 目标为用户打造更优质、便捷、可信赖的金融服务体验,构建开放、安全、高效的智慧金融生态 [3]
突发!美科技巨头解散上海AI研究院,首席科学家发声
是说芯语· 2025-07-23 17:38
7月23日消息,昨天, AWS 亚马逊云科技上海 AI 研究院的首席应用科学家王敏捷发朋友圈称,"刚收 到通知, AWS 亚马逊云科技上海 AI 研究院(也是 AWS 最后一个海外研究院)正式解散。 " 今天,亚马逊云科技就上海AI研究院解散一事回应媒体称:"经过对公司组织、发展重点及未来战略方 向的深入评估,我们决定对亚马逊云科技部分团队进行人员精简。"并表示,"做出这些决定是非常艰难 的,我们将全力支持员工顺利过渡,我们做出这些必要的决定,是为了持续投资、优化资源,为客户带 来更多的创新"。 解散通知突如其来 王敏捷在朋友圈中透露,解散决定以内部通知形式于7月22日正式传达至团队。他提到,团队"近6年带 队时光,赶上了外企研究院的黄金周期",特别感谢上海纽约大学教授张峥的指导,称自己"有幸成为 AWS亚太地区最年轻的首席应用科学家"。团队"转向 AI Agent 后,在技术深度、科学素养与执行力上 均属顶尖",但突然的解散通知让成员措手不及。 最后表示:想和本土团队一起做出世界级AI产品,核心团队完整,若有需要补强,随时可以捞人。 研究院解散对员工的冲击尤为直接。尽管亚马逊发言人随后回应称将"全力支持员工 ...
Being-H0:从大规模人类视频中学习灵巧操作的VLA模型
具身智能之心· 2025-07-23 16:45
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Hao Luo等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 研究背景与动机 当下,大语言模型和多模态模型在文本、图像等领域取得了突破性进展,但机器人领域仍缺乏类 似"ChatGPT时刻"的变革。现有视觉-语言-动作模型(VLAs)在复杂灵巧操作任务中表现不佳,主要受限 于数据:要么依赖存在"仿真到真实"鸿沟的合成数据,要么依赖规模小、多样性不足的远程操作演示,尤 其在灵巧手操作上,因硬件成本高,数据稀缺问题更突出。 人类视频蕴含丰富的真实世界操作数据,是解决数据瓶颈的理想选择。但从人类视频中学习机器人操作面 临四大挑战:数据异质性(不同相机系统、坐标框架导致数据难以统一)、手部运动量化(需将连续精细 运动转化为与语言兼容的离散表示,同时保留毫米级精度)、跨模态推理(需建模视觉、语言与精细手部 运动的复杂关联)、机器人控制转移(人类与机器人手部结构差异导致运动无法直接迁移)。 预训 ...
从“想得好”到“做得好”有多远?具身大小脑协同之路解密
具身智能之心· 2025-07-23 16:45
具身智能系统架构 - 具身智能系统由"大脑"、"小脑"和"身体"三部分组成,分别对应认知决策、运动控制和物理执行功能 [2] - "大脑"采用大语言模型和视觉语言模型,具备感知、理解、推理和规划能力,是系统的智慧核心 [2] - "小脑"运用运动控制算法和反馈控制系统,实现精准流畅的动作控制,被称为"动作艺术家" [2] - "身体"作为物理载体,负责将认知决策和运动指令转化为实际动作,完成"知行合一" [2] 当前技术挑战 - "大脑"需提升自主推理能力,实现无指令、无地图环境下的实时在线思考与路径规划 [3] - "小脑"需增强适应性,在复杂物理环境中实现类人类的直觉反应和精细操作 [3] - 系统需解决"大脑"与"小脑"的协同问题,目前存在信息传递延迟和动作响应滞后 [3] - 数据采集面临成本高、质量差等挑战,需构建真实多样且可迁移的训练数据集 [3] 行业技术进展 - 北京智源人工智能研究院和智元机器人正在开展具身智能相关研究 [3] - RoboBrain 2.0和RoboOS 2.0等系统展示了最新技术成果 [5] - 对抗性数据收集方法(Human-Collaborative Perturbations)可提升模仿学习效率与鲁棒性 [5] - 相关研究成果已在ArXiv等平台公开发表,涉及机器人操作系统和脑机协同等领域 [7] 未来发展方向 - 行业聚焦于提升具身智能系统的认知能力、运动控制精度和系统协同效率 [4] - 需建立更高效的数据获取与处理体系,解决数据质量与成本问题 [3] - 技术突破将推动具身智能向通用人工智能(AGI)方向发展 [3]
分层VLA模型与完全端到端VLA哪个方向好发论文?
自动驾驶之心· 2025-07-23 15:32
最近有同学陆续来问我们,传统的感知、规划这块还能继续发论文吗?感觉工作都已经被做的七七 八八了,审稿人会打高分吗? 说到传统的感知、规划等任务,工业界都还在继续优化方案!但学术界基本都慢慢转向大模型与 VLA了,一个还有很多工作可以做的子领域...... 如果您真的需要选择论文研究方向,我们建议向大模型、VLA靠拢。而我们也为大家准备好了VLA 相关研究课题,如果您还没有切实的自驾研究方向,欢迎加入学习。 ⼀、VLA科研论文辅导课题来啦⭐ 端到端(End-to-End)自动驾驶旨在构建一个统一的智能模型,直接将传感器原始输入(如摄像头图 像)映射到车辆的驾驶控制指令(如转向、油门、刹车),从而替代传统的多模块、级联式架构 (感知、预测、规划、控制)。这一演进过程大致可分为以下几个阶段,而VLA模型的出现正是为 了解决前序阶段的瓶颈,标志着一个新范式的开启。 1. 传统模块化架构的时代: 早期的自动驾驶系统(L2-L4级)普遍采用模块化设计。每个模块(如 物体检测、轨迹预测、路径规划)被独立开发和优化。 优势: 逻辑清晰,各模块可独立调试和 验证,具有较好的可解释性。 瓶颈: 错误累积效应: 上游模块的微小误差 ...
同样1GB文本,为何中文训练效果差?对话EleutherAI研究员Catherine,看懂多语言模型的“诅咒”与“祝福”
AI科技大本营· 2025-07-23 15:32
以下文章来源于GOSIM开源创新汇 ,作者GOSIM开源创新汇 GOSIM开源创新汇 . GOSIM源于全球开源社区的共同愿景。这个完全以志愿者为基础的项目由社区组织并为社区服务,其首要目标是:提供一个舞台,让创新的开源项目能 够在这里大放异彩、相互协作并不断发展。它不仅是一个平台,更是一个全心全意拥抱开放、多元和包容文化的运动。 作者 | 王诗棋 何苗 采访 | 王启隆 Eric Wang 出品丨GOSIM 开源创新汇 从语言学跨界到自然语言处理(NLP),Catherine Arnett 深刻体会到, 多语言背景带来的思维多样性,正在为多语言模型的构建开辟全新路径。 作为 EleutherAI 的 NLP 研究员,Catherine 起初在爱丁堡大学主修中文与语言学。一次偶然的导师更替,引导她从传统语言学研究转向语言模型的 计算探索,由此踏上了 跨越语言与技术边界的研究之路。 她精通英语、西班牙语、法语和汉语,对语言的结构差异与共性有着敏锐的感知。在深入多语言自然语言处理的过程中,Catherine 提出了一个具有 启发性的重要概念—— "字节溢价"(byte premium) 。她发现: 即使是字节数相 ...
AI重划语言能力边界,国际测评权威专家迈克•米兰诺维奇博士贵阳发声:人类核心能力与AI协作智能将分轨评估
环球网资讯· 2025-07-23 11:43
语言能力双轨进化论 - 米兰诺维奇博士提出语言能力正裂变为两大支柱:人类核心能力(如精准词汇运用、严谨语法结构)和AI协作智能(如指令工程、多源信息整合)[3] - 传统语言测试测量的"独立能力"逐渐脱离现实,数字时代职场更需考察AI协同能力[3] - 未来测评可能转向追踪解题认知过程而非答案正确性,利用AI识别认知流程潜力[3][4] 动态命题技术突破 - 朗思考评局AI动态命题技术成功率从4%跃升至50%,实现"千人千卷"定制化测评[5] - 技术可即时生成海量差异化试题,有效打击题目记忆与贩卖产业链[5] - 2017年起已开发AI反作弊方案,包括生物识别、答题模式分析等多项安全技术[5] 行业应对框架与未来方向 - 呼吁全球测评机构共享反作弊情报,共建安全考试生态系统[5] - 未来研究聚焦三大领域:AI影响实证研究、创新评估方法验证、跨文化接受度研究[7] - 强调通过主动适应将AI挑战转化为行业发展新动力[7] 朗思国际测评创新实践 - 在中国率先推出在线远程监考考试,打破时空限制[8] - 试题紧密贴合真实场景,采用自适应技术快速评估能力[8] - 汇聚全球顶尖研发团队,结合教育与科技打造新一代测评体系[8]
多模态大语言模型(LLM) 和视频语言预训练的关键进展、应用、数据集和方法
36氪· 2025-07-23 10:45
大规模视频语言预训练技术发展 - 视频语言预训练利用弱字幕和视频数据进行表征学习,采用预训练和微调范式降低计算成本并提升模型复用性 [1][2] - 主要代理任务包括掩码语言模型(MLM)、掩码帧模型(MFM)、语言重构(LR)等6类,分别聚焦语言预测、帧预测、对齐等序列视角学习 [2] - Transformer模型通过计算元素相似度聚合长程依赖,突破传统模型训练数据规模限制 [3] 关键数据集发展现状 - 基于标签数据集:Kinetics含65万视频片段覆盖700类动作,AVA含162万动作标签 [7] - 基于字幕数据集:Howto100M含136亿视频片段,WebVid-10M含1000万弱字幕视频,HD-VILA含1亿720p视频片段 [8] - 数据集规模直接影响模型鲁棒性,尤其对Transformer架构至关重要 [6] 主流预训练方法分类 - 单流方法:VideoBERT首次采用Transformer,ClipBert实现经济型端到端学习,ALPRO提出视频文本对比增强交互 [10] - 双流方法:CBT采用对比噪声估计损失,FiT学习联合多模态嵌入,CLIP-ViP将视觉语言对齐扩展至视频级 [11] - 方法选择取决于任务需求,单流擅长细粒度关系捕捉,双流提供模态处理灵活性 [11] 应用领域与迁移学习 - 下游任务覆盖视频文本检索、动作识别、视频问答等,需针对性设计迁移方案 [4] - CLIP模型基于4亿图像-文本对训练,在零样本图像分类任务表现突出 [3] - 跨模态任务研究激增,视频数据多模态特性(标题/音频/旁白)推动技术突破 [3]