多模态大模型

搜索文档
【海康威视(002415.SZ)】宏观信心修复,大模型规模化落地变现开启——跟踪报告之四(刘凯/王之含)
光大证券研究· 2025-03-07 22:30
公司业绩表现 - 2024年公司实现营业收入924.86亿元,同比增长3.52%,但归母净利润119.59亿元同比下降15.23%,业绩短期承压 [2] 宏观环境改善 - 2月制造业PMI录得50.2%,较上月回升1.1个百分点,进入扩张区间,产需指数拉动明显,采购量和生产指数均升至52%以上,从业人员指数创2023年5月以来新高 [3] - 宏观信心修复,此前压制公司业绩和估值的宏观因素边际显著改善 [3] 政策支持与业务机会 - 中共中央政治局集体学习强调建设更高水平平安中国,预计安防及数字化治理项目将加速落地,公司PBG业务有望直接受益 [4] 技术创新与产品布局 - 公司发布多模态大模型文搜存储系列产品(文搜NVR、文搜CVR),将大模型技术与嵌入式智能硬件深度融合,目标实现更广、更准、更快、更易的检索,推动多模态大模型规模化、平民化、普惠化落地 [5] - 创新业务在端侧/机器人/智联汽车/存储等领域布局,大模型催化更为直接,境外业务通过扩充产品线和增加项目型销售持续较快增长 [6] 业务结构优化 - 24H1创新业务+海外主业占比已过半,国内主业预计2025年轻装上阵 [6]
声网发布对话式AI引擎:让任意大模型开口说话
36氪· 2025-03-07 17:37
产品发布 - 公司于3月6日举办"AI开口,互动无界"发布会,推出全球首个对话式AI引擎,支持任意文本大模型升级为多模态大模型 [2] - 定价策略为0.098元/分钟,单次赠送1000分钟,智能打断功能增值服务0.042元/分钟 [2][7] 核心技术能力 - 模型选择多:支持DeepSeek、ChatGPT等全球主流大模型及语音合成供应商,兼容30000+终端机型 [4] - 响应速度快:全链路优化后语音对话延迟中位数650ms,打断响应低至340ms [5] - 抗干扰能力强:选择性注意力锁定功能屏蔽95%环境噪声,80%丢包率下仍可稳定对话 [5] - 开发效率高:仅需2行代码15分钟完成部署,支持LLM与TTS的URL/Key快速接入 [6] 成本效益分析 - 用户单次对话平均3轮问答21.1秒,成本约3分钱,月均15次对话成本不足5毛钱,年成本5元 [8] 应用场景拓展 - 主要落地场景包括智能助手、虚拟陪伴、口语陪练、智能客服及智能硬件 [10] - 智能硬件领域可实现语音控制、智能看护、个性化服务,覆盖AI玩具、教育硬件、穿戴设备等 [10]
集齐了「鸿蒙」和「DeepSeek」两颗「龙珠」,深思考给出端侧AI「深度思考」
36氪· 2025-02-27 18:31
"AI端侧模型与硬件模组一体化"迎接智能终端大爆发。 2025年伊始,DeepSeek的风潮无异于一声惊雷,把大模型再次炸出了圈。 在海外,被这波巨浪冲击到的模型厂——OpenAI、Anthropic、xAI纷纷公布最新进展,力证自家模型依旧领先。 国内,随着微信接入DeepSeek-R1,国内移动互联时代的王炸APP和大模型时代的国运级创新的大模型就此联手。 而在产业场景更深处,DeepSeek这次引发热议的推理模型DeepSeek-R1也引发一些思考。 比如,如何顺利把它运用在强隐私安全保护、不能上互联网处理、需要多模态视觉AI分析、需要更快响应速度并且算力有限的终端侧场景? 这些场景市场广阔,包括:医疗器械(显微镜、内窥镜等)、手机相册、个人文件存储、家庭NAS、保密安全PC、汽车、手表、智能家居、AI萌宠、机器 人等等。据估计,至2032年全球AI端侧市场有1436亿美元。 DeepSeek提供了蒸馏版模型(如1.5B版本),进一步优化了资源受限硬件的运行能力。以分析苹果出名的分析师郭明錤,日前也发文指出,DeepSeek爆红 后,端侧AI趋势将加速推进。 这种趋势已经开始显现。 在这两天的一场发布会 ...