写点什么

谷歌 Vertex AI 推出新的 RAG 引擎

作者:Sergio De Simone

  • 2025-02-11
    北京
  • 本文字数:1442 字

    阅读完需:约 5 分钟

谷歌Vertex AI推出新的RAG引擎

Vertex AI RAG Engine 是一项托管的编排服务,旨在简化大语言模型与外部数据源的连接,它能够帮助模型保持数据更新,生成更贴合需求的答案,并有效减少幻觉。


根据谷歌的说法,新的 RAG Engine 是使用 Vertex AI 实现基于 RAG 的 LLM 的“理想选择”,它在 Vertex AI Search 的易用性与基于底层 Vertex AI API(如文本嵌入 API、排名 API 等)构建自定义 RAG 管道的强大功能之间取得了平衡。


Vertex AI RAG Engine 支持的总体工作流包含了从多种不同来源摄取数据的步骤:数据转换,例如在索引之前将数据拆分为块;嵌入处理,将文本转换为数值向量,以捕捉其语义和上下文;数据索引,构建针对搜索进行了优化语料库;基于用户提示词从知识库中检索相关信息;最后是生成内容,将原始用户查询与检索到的信息结合,生成最终输出。


使用 Vertex AI RAG Engine,你可以很容易地将所有这些步骤集成到自己的解决方案中。集成 Vertex AI RAG Engine 最简单的方式是使用它的 Python 绑定 ,这些绑定位于 google-cloud-aiplatform 包中。在设置 Google Cloud 项目并初始化 Vertex AI 引擎后,你可以使用 upload_file 或 import_file 方法快速从本地文件、Google Cloud Storage 或 Google Drive 中的文档创建语料库。


# Currently supports Google first-party embedding modelsEMBEDDING_MODEL = "publishers/google/models/text-embedding-004"  # @param {type:"string", isTemplate: true}embedding_model_config = rag.EmbeddingModelConfig(publisher_model=EMBEDDING_MODEL)

rag_corpus = rag.create_corpus( display_name="my-rag-corpus", embedding_model_config=embedding_model_config)

rag_file = rag.upload_file( corpus_name=rag_corpus.name, path="test.txt", display_name="test.txt", description="my test file",)
复制代码


在有了语料库之后,你就可以创建一个检索工具,然后将其连接到 LLM,并暴露出端点,你可以使用该端点查询增强后的模型:


# Create a tool for the RAG Corpusrag_retrieval_tool = Tool.from_retrieval(    retrieval=rag.Retrieval(        source=rag.VertexRagStore(            rag_corpora=[rag_corpus.name],            similarity_top_k=10,            vector_distance_threshold=0.5,        ),    ))

# Load tool into Gemini modelrag_gemini_model = GenerativeModel( "gemini-1.5-flash-001", # your self-deployed endpoint tools=[rag_retrieval_tool],)

response = rag_gemini_model.generate_content("What is RAG?")
复制代码


根据谷歌的说法,Vertex AI RAG Engine 特别适合用于个性化投资建议与风险评估、加速药物发现与个性化治疗计划制定,以及增强尽职调查和合同审查等场景。


检索增强生成(RAG)是一种用于 “锚定” 大语言模型的技术,即使其更适合特定用例或企业环境。RAG 的核心是从模型训练时无法访问的外部数据源中检索与特定任务相关的信息,并将这些信息与提示词一起提供给模型。或者也可以通过微调来“锚定”模型,这是一个使用外部数据重新训练模型的过程,即使在提示词中未明确指定,模型也能在每次查询时提供更贴合需求的结果。


锚定模型使其能够更好地理解查询的上下文,并提供额外特定于任务的信息,从而生成更好的答案。更具体地说,在企业数据场景中,锚定旨在通过安全地提供防火墙内的私有数据来克服 LLM 的局限性。


查看英文原文


https://www.infoq.com/news/2025/01/google-vertes-ai-rag-engine/

2025-02-11 16:309580

评论

发布
暂无评论

私有云与公有云,哪种云模型最适合企业的需求

Ethereal

企业帮助中心的搭建步骤

小炮

帮助中心

抖音获客,抖音SEO询盘系统源码开发,思路分享,开发者掏心窝的说......

yunluohd168

短视频获客 抖音获客系统源码 大数据获客 抖音SEO获客源码

恒源云(Gpushare)_【存储优化】/hy-tmp可以扩/缩容啦

恒源云

云计算 存储 tmp

OceanBase 存储引擎详解

OceanBase 数据库

OceanBase 在线体验环境,现已上线!

OceanBase 数据库

资产管理系统开发解决方案

低代码小观

企业管理 资产管理 CRM系统 企业管理软件

Meetup预告| AIOps指标相关算法体系分享

云智慧AIOps社区

机器学习 大数据 算法 AIOPS 智能运维

【直播回顾】OpenHarmony知识赋能第四期第二课——GPIO驱动开发

OpenHarmony开发者

OpenHarmony GPIO 驱动开发

全新 OceanBase 社区版开发者中心 ODC 核心功能解读

OceanBase 数据库

oceanbase OceanBase 开源 OceanBase 社区版

如何使用 Checkmk 监控 SSL TLS 证书?

Ethereal

数字化时代,如何做好用户体验与应用性能管理

云智慧AIOps社区

监控宝 监控工具 自动化运维 数字化经济

一站式运维管理工具平台 OCP 到底有多好用,看这篇文章就够了!

OceanBase 数据库

数据对接 - 大屏云极简使用手册

shulinwu

可视化 数据可视化 大屏可视化 数据可视化控件 大屏

ZEGO 自研客户端配置管理系统 —— 云控

ZEGO即构

后台开发 客户端配置 音视频架构

Apifox才是最强Postman替代品,看看国产软件到底有对牛!

Liam

后端 Postman API swagger java开发工具

抓到Netty一个隐藏很深的内存泄露Bug | 详解Recycler对象池的精妙设计与实现

bin的技术小屋

中间件 池化技术 java netty 内存池

一个 测试岗 面了 30 多人,不能再真实了...

六十七点五

软件测试 面试题 自动化测试 经验总结 测试工程师

2022年济南正规等保测评公司名单(排名不分先后)

行云管家

等保 等保测评 等保2.0 济南

并发异步编程之争:协程(asyncio)到底需不需要加锁?(线程/协程安全/挂起/主动切换)Python3

刘悦的技术博客

多线程 协程 Python3 协程原理

Map-Reduce 思想在 ABAP 编程中的一个实际应用案例

汪子熙

mapreduce abap CRM系统 企业级应用 3月月更

电科申泰加入龙蜥社区并成为理事单位,共创基础软硬件生态新未来

OpenAnolis小助手

开源 理事单位 申威 软硬件

HSC推出「万物生长计划」 赋能虎符交易所HOO新应用场景

区块链前沿News

Hoo 虎符交易所 虎符智能链

Linux性能优化—内存实战篇

Linux服务器开发

性能优化 内存管理 Linux服务器开发 Linux内核 内核源码

Web 键盘输入法应用开发指南(9)—— 标准与实现

天择

JavaScript 键盘 输入法 3月月更

【三级等保】三级等保服务费用一年大概要多少?一年需要测评一次嘛?

行云管家

网络安全 等保 等级保护 三级等保

鸿蒙开发必备书籍【收藏】

坚果

鸿蒙 3月月更

测试开发【Mock平台】01开篇:平台设计和整体规划

MegaQi

测试开发 测试平台开发教程 测试干货

两小时,掌握四个数字化工具!

明道云

零基础学编程?从这本豆瓣评分9.2的入门级神作开始

图灵社区

Python 零基础

国内首届DataOps+MLOps meetup回顾

星策开源社区

人工智能 机器学习 DevOps Meetup MLOps

谷歌Vertex AI推出新的RAG引擎_AI&大模型_InfoQ精选文章