Semantic Search
搜索文档
Elastic Introduces Best-in-Class Embedding Models for High Performance Semantic Search
Businesswire· 2026-02-24 01:00
核心观点 - Elastic 公司发布了 jina-embeddings-v5-text 系列小型多语言嵌入模型,该模型在参数规模较小(0.2B和0.6B)的情况下,在关键搜索和语义任务上实现了最先进的性能,并超越了参数大得多的模型,为在基础设施成本、查询速度和受限环境部署方面提供了显著优势 [1][2] 产品性能与特点 - 模型家族包括两个模型:jina-embeddings-v5-text-small(2.39亿参数)和 jina-embeddings-v5-text-nano(6.77亿参数)[4] - 尽管模型紧凑,但其性能显著超越了参数规模达70亿至140亿的大型模型,并在MMTEB基准测试中取得了同类尺寸和用途模型中的最佳成绩 [2] - 模型的小尺寸使其能够在较低的基础设施成本下实现出色的混合搜索、更快的查询响应,并适用于内存和计算预算紧张的新部署场景,包括边缘设备和资源受限环境 [2] - 模型针对搜索和智能体应用中的四项常见任务进行了优化:检索、文本匹配、分类和聚类 [4][9] 产品发布与获取渠道 - jina-embeddings-v5-text 模型现已通过多种渠道提供:作为开放权重模型在 HuggingFace 上供用户通过 vLLM、llama.cpp 或 MLX 进行自托管部署,以及通过 Elastic 推理服务(EIS)获取 [3] - Elastic 推理服务(EIS)是一种 GPU 加速的推理即服务,使用户无需复杂设置即可运行快速、高质量的推理 [3] - Jina v5 模型现已通过 Elastic Cloud Serverless 和 Elastic Cloud Hosted 上的 Elastic 推理服务(EIS)提供,所有 Elastic Cloud 试用版均包含对 EIS 的访问权限 [5] - 这些模型也可通过在线 API 获取,并可通过 vLLM、llama.cpp 和 MLX 进行本地托管 [5] 战略意义与平台整合 - 通过将 Jina v5 系列引入 EIS,用户获得了一个完整的数据平台,该平台将最先进的多语言嵌入模型、高性能向量数据库等整合到一个跨云和本地的统一企业技术栈中 [3] - 公司表示,向量搜索、RAG和AI智能体依赖于高质量的检索,Jina v5 多语言嵌入的加入使 Elasticsearch 继续成为端到端上下文工程的首选平台 [4] - Elastic 的 Search AI 平台是其搜索、可观测性和安全解决方案的基础,被数千家公司使用,其中包括超过50%的财富500强公司 [7]
Elastic Delivers GPU Infrastructure to Self-Managed Elasticsearch Customers via Cloud Connect
Businesswire· 2026-02-04 01:29
产品发布与核心功能 - Elastic公司宣布通过Cloud Connect为自托管Elasticsearch部署提供Elastic推理服务[1] - 该服务使组织无需管理GPU基础设施即可按需获取云端推理能力 同时将核心基础设施和数据保留在本地[1] - 用户可立即访问由Jina.ai提供的模型 Jina.ai是Elastic旗下公司 在开源多语言多模态嵌入 重排序和小语言模型领域处于领先地位[1] 技术细节与客户价值 - 现代语义搜索依赖向量嵌入以获得高质量结果 EIS on Cloud Connect现已随Elasticsearch 9.3版本提供[2] - 该服务允许自托管客户无缝利用基于GPU的嵌入和重排序模型 包括领先的Jina模型 而无需承担管理基础设施的运营负担[2] - 这使得团队能够快速高效地实施强大的语义搜索功能 自托管集群可保持现有架构和数据不变 同时将嵌入生成和搜索推理安全地卸载至Elastic Cloud托管的GPU集群[2] 市场定位与公司背景 - 公司高管表示 该服务旨在降低自托管客户采用语义搜索的复杂性 通过一次性设置 客户即可访问从自动诊断到快速AI推理的一系列云服务 同时数据保留在本地[3] - Elastic将自己定位为搜索AI公司 将其深厚的搜索技术专长与人工智能相结合 帮助用户将数据转化为答案 行动和成果[4] - Elastic的搜索AI平台是其搜索 可观测性和安全解决方案的基础 被数千家公司使用 其中包括超过50%的财富500强公司[4]
Elastic Introduces Native Inference Service in Elastic Cloud
Businesswire· 2025-10-09 23:02
新产品发布 - 公司宣布推出Elastic Inference Service (EIS),一项用于Elasticsearch语义搜索、向量搜索和生成式AI工作流程的GPU加速推理服务[1] - 该服务作为推理即服务提供,并原生集成于Elastic Cloud中[2] 产品功能与优势 - 服务通过基于API的方式使用NVIDIA GPU,结合公司顶级的Elasticsearch向量数据库,以提供低延迟、高吞吐量的推理[3] - 首个在EIS上提供的文本嵌入模型是Elastic Learned Sparse EncodeR (ELSER),目前处于技术预览阶段[3] - 服务提供简化的开发者体验,无需模型下载、手动配置或资源调配,并直接与semantic_text和Inference API集成[7] - 服务兼容稀疏向量、稠密向量或语义重新排序,改善了端到端语义搜索体验[7] - 服务提供开箱即用的AI功能,用于数据摄取、调查、检测和分析,简化了生成式AI工作流程[7] - GPU加速推理提供一致的延迟,并且与基于CPU的方案相比,数据摄取吞吐量最高可提升10倍[7] 技术整合与兼容性 - 服务旨在满足市场对GPU加速和集成工作流程的需求,以提供速度、可扩展性和成本效益[2] - Open Inference API为用户提供了连接任何第三方服务的完全灵活性,同时现有的Elasticsearch ML Nodes在采用期间继续受支持[7] 定价与可用性 - 服务采用基于消费的定价模式,按每个模型每百万tokens收费[7] - Elastic Inference Service已在Serverless和Elastic Cloud Hosted部署上可用,所有云服务提供商和区域均可访问EIS上的推理端点[5] - 未来将很快提供对多语言嵌入、重新排序以及近期收购的Jina模型等额外模型的支持[3][5]
The Rise of Graph Database Market: A $2,143.0 million Industry Dominated by IBM Corporation (US), Oracle (US), Graphwise (Australia)| MarketsandMarkets™
GlobeNewswire News Room· 2025-04-11 22:00
文章核心观点 - 2024 - 2030年图数据库市场预计将从5.076亿美元增长到21.43亿美元,复合年增长率为27.1%,图数据库可助力企业知识管理、决策制定等,对大型组织尤为有用 [1] 市场规模与增长 - 2024年图数据库市场规模为5.076亿美元,预计到2030年将增长至21.43亿美元,复合年增长率为27.1% [1] 市场驱动因素 - 对AI/生成式AI解决方案的需求上升 [3] - 数据量和复杂性快速增长 [3] - 对语义搜索的需求增加 [3] 市场限制因素 - 数据质量和集成挑战 [3] - 饱和的数据管理工具格局导航困难 [3] - 可扩展性问题 [3] 市场机会 - 利用大语言模型降低知识图谱构建成本 [3] - 数据统一和知识图谱的快速普及 [3] - 在医疗保健和生命科学领域的应用增加,革新数据管理并改善患者治疗效果 [3] 模型类型 - 预测期内属性图细分市场将占据最大市场规模,属性图模型以节点、边和属性表示数据,适用于复杂查询和分析,常用于欺诈检测等领域 [3][4] 服务类型 - 预测期内服务细分市场将实现最高增长,图数据库服务分为托管服务和专业服务,有助于企业有效利用图数据库 [5] 地区市场 - 预测期内亚太地区预计将保持最高市场增长率,中国企业在多行业采用图数据库技术,澳大利亚构建国家规模图数据库,云平台扩张便于企业部署 [6] 市场参与者 - 图数据库市场主要供应商包括IBM、Oracle等众多公司,这些企业采用合作、新产品发布等策略扩大市场份额 [7]