Spring AI探索
Spring AI概述
该Spring AI
项目旨在简化包含人工智能功能的应用程序的开发,避免不必要的复杂性。
该项目从著名的 Python 项目(例如 LangChain 和 LlamaIndex)中汲取灵感,但 Spring AI 并非这些项目的直接移植。该项目的成立基于这样的信念:下一波生成式 AI 应用将不仅面向 Python 开发人员,还将遍及多种编程语言。
Spring AI 的核心是提供抽象,作为开发 AI 应用程序的基础。这些抽象具有多种实现,只需进行最少的代码更改即可轻松交换组件。
Spring AI 提供以下功能:
- 支持所有主要模型提供商,例如 OpenAI、Microsoft、Amazon、Google 和 Hugging Face。
- 支持的模型类型包括聊天、文本到图像、音频转录、文本到语音等。
- 适用于所有模型的跨 AI 提供商的可移植 API。支持同步和流式 API 选项。还支持下拉以访问特定于模型的功能。
- 将 AI 模型输出映射到 POJO。
- 支持所有主要的矢量数据库提供商,例如 Apache Cassandra、Azure Vector Search、Chroma、Milvus、Neo4j、Oracle、PostgreSQL/PGVector、PineCone、Qdrant、Redis 和 Weaviate。
- 跨 Vector Store 提供商的可移植 API,包括一种新颖的类似 SQL 的元数据过滤器 API,它也是可移植的。
- 函数调用。
- 用于 AI 模型和向量存储的 Spring Boot 自动配置和启动器。
- 数据工程的 ETL 框架。
人工智能概念
本节介绍 Spring AI 使用的核心概念。
模型
AI 模型是用于处理和生成信息的算法,通常模仿人类的认知功能。通过从大型数据集中学习模式和见解,这些模型可以做出预测、文本、图像或其他输出,从而增强各行各业的各种应用。
人工智能模型有很多种,每种模型都适用于特定的用例。虽然 ChatGPT 及其生成式人工智能功能通过文本输入和输出吸引了用户,但许多模型和公司都提供多样化的输入和输出。在 ChatGPT 之前,许多人对文本到图像的生成模型着迷,例如 Midjourney 和 Stable Diffusion。
下表根据输入和输出类型对几种模型进行了分类:
Spring AI 目前支持以语言、图像和音频形式处理输入和输出的模型。上表中的最后一行接受文本作为输入并输出数字,通常称为嵌入文本,表示 AI 模型中使用的内部数据结构。Spring AI 支持嵌入以支持更高级的用例。
GPT 等模型的独特之处在于其预训练特性,正如 GPT 中的“P”所示——Chat Generative Pre-trained Transformer。这种预训练功能将 AI 转变为通用的开发工具,不需要广泛的机器学习或模型训练背景。
提示词
提示词基于语言的输入的基础,可指导 AI 模型产生特定输出。对于熟悉 ChatGPT 的人来说,提示词可能看起来只是输入到对话框中并发送到 API 的文本。然而,它包含的内容远不止这些。在许多 AI 模型中,提示词的文本不仅仅是一个简单的字符串。
ChatGPT 的 API 在一个提示词中有多个文本输入,每个文本输入都被分配一个角色。例如,系统角色会告诉模型如何表现并设置交互的上下文。还有用户角色,通常是来自用户的输入。
制作有效的提示词既是一门艺术,也是一门科学。ChatGPT 是为人类对话而设计的。这与使用 SQL 之类的东西来“‘提出问题’”有很大不同。人们必须像与另一个人交谈一样与人工智能模型进行交流。
这种互动方式如此重要,以至于“提示词工程”一词已经发展成为一门学科。有越来越多的技术可以提高提示词的有效性。花时间制作提示词可以大大改善最终的输出。
分享提示词已成为一种公共实践,学术界也正在积极研究这一主题。作为创建有效提示词(例如,与 SQL 形成对比)是多么违反直觉的一个例子,最近的一篇研究论文发现,您可以使用的最有效的提示词之一以“深呼吸,一步一步地进行操作”这句话开头。这应该能让您明白为什么语言如此重要。我们尚未完全了解如何最有效地利用该技术的先前版本,例如 ChatGPT 3.5,更不用说正在开发的新版本了。
提示词模板
创建有效的提示词包括建立请求的上下文并用特定于用户输入的值替换请求的各部分。
此过程使用传统的基于文本的模板引擎来快速创建和管理。Spring AI为此使用了 OSS 库StringTemplate 。
例如,考虑简单的提示词模板:
Tell me a {adjective} joke about {content}.
在 Spring AI 中,提示词模板可以比作 Spring MVC 架构中的“视图”。java.util.Map
提供一个模型对象(通常是),用于填充模板中的占位符。“rendered”字符串成为提供给 AI 模型的提示词内容。
发送给模型的提示词的具体数据格式存在相当大的差异。提示词最初只是简单的字符串,后来演变为包含多条消息,每条消息中的每个字符串都代表模型的不同角色。
嵌入
嵌入将文本转换为数值数组或向量,使 AI 模型能够处理和解释语言数据。从文本到数字的这种转换是 AI 与人类语言交互和理解的关键要素。
作为探索 AI 的 Java 开发人员,没有必要理解这些矢量表示背后的复杂数学理论或具体实现。对它们在 AI 系统中的作用和功能有基本的了解就足够了,特别是当您将 AI 功能集成到您的应用程序中时。
嵌入在实际应用中尤其重要,例如检索增强生成 (RAG) 模式。它们可以将数据表示为语义空间中的点,这类似于欧几里得几何的二维空间,但在更高的维度上。这意味着,就像欧几里得几何中平面上的点可以根据其坐标而接近或远离一样,在语义空间中,点的接近度反映了含义的相似性。关于相似主题的句子在这个多维空间中的位置更近,就像图上彼此靠近的点一样。这种接近度有助于文本分类、语义搜索甚至产品推荐等任务,因为它允许 AI 根据相关概念在这个扩展的语义景观中的“位置”来辨别和分组相关概念。
你可以把这个语义空间想象成一个向量。
Tokens
Tokens是 AI 模型工作原理的基石。输入时,模型将单词转换为Tokens。输出时,它们将Tokens转换回单词。
在英语中,一个 token 大约对应一个单词的 75%。作为参考,莎士比亚的全集总共约 90 万个单词,翻译过来大约有 120 万个 token。
也许更重要的是Tokens = 金钱。在托管 AI 模型的背景下,您的费用由使用的Tokens数量决定。输入和输出都会影响总Tokens数量。
此外,模型还受到 token 限制,这会限制单个 API 调用中处理的文本量。此阈值通常称为“上下文窗口”。模型不会处理超出此限制的任何文本。
例如,ChatGPT3 的Tokens限制为 4K,而 GPT4 则提供不同的选项,例如 8K、16K 和 32K。Anthropic 的 Claude AI 模型的Tokens限制为 100K,而 Meta 的最新研究则产生了 1M Tokens限制模型。
要使用 GPT4 总结莎士比亚全集,您需要制定软件工程策略来切分数据并在模型的上下文窗口限制内呈现数据。Spring AI 项目可以帮助您完成此任务。
模型输出
即使您要求回复为 JSON ,AI 模型的输出通常也会以 的形式出现java.lang.String
。它可能是正确的 JSON,但它不是 JSON 数据结构。它只是一个字符串。此外,在提示词中询问“需要 JSON”并非 100% 准确。
这种复杂性导致了一个专门领域的出现,涉及创建提示词以产生预期的输出,然后将生成的简单字符串转换为可用于应用程序集成的数据结构。
模型输出转换采用精心设计的提示词,通常需要与模型进行多次交互才能实现所需的格式。
将您的数据和 API 引入 AI 模型
如何为人工智能模型配备还未经过训练的信息?
请注意,GPT 3.5/4.0 数据集仅延续到 2021 年 9 月。因此,该模型表示它不知道需要该日期之后知识的问题的答案。一个有趣的小知识是,这个数据集大约有 650GB。
有三种技术可以定制 AI 模型以整合您的数据:
Fine Tuning
:这种传统的机器学习技术涉及定制模型并更改其内部权重。然而,对于机器学习专家来说,这是一个具有挑战性的过程,而且由于 GPT 等模型的大小,它极其耗费资源。此外,有些模型可能不提供此选项。Prompt Stuffing
:一种更实用的替代方案是将您的数据嵌入到提供给模型的提示词中。考虑到模型的令牌限制,需要使用技术在模型的上下文窗口中显示相关数据。这种方法俗称“填充提示词”。Spring AI 库可帮助您基于“填充提示词”技术(也称为检索增强生成 (RAG))实现解决方案。
- 函数调用:此技术允许注册自定义的用户函数,将大型语言模型连接到外部系统的 API。Spring AI 大大简化了支持函数调用所需编写的代码。
检索增强生成
一种称为检索增强生成 (RAG) 的技术已经出现,旨在解决将相关数据纳入准确的 AI 模型响应提示词的挑战。
该方法涉及批处理样式的编程模型,其中作业从文档中读取非结构化数据,对其进行转换,然后将其写入矢量数据库。从高层次上讲,这是一个 ETL(提取、转换和加载)管道。矢量数据库用于 RAG 技术的检索部分。
在将非结构化数据加载到矢量数据库的过程中,最重要的转换之一是将原始文档拆分成较小的部分。将原始文档拆分成较小部分的过程有两个重要步骤:
- 将文档拆分成几部分,同时保留内容的语义边界。例如,对于包含段落和表格的文档,应避免在段落或表格中间拆分文档。对于代码,应避免在方法实现的中间拆分代码。
- 将文档的各部分进一步拆分成大小仅为 AI 模型令牌限制的一小部分的部分。
RAG 的下一个阶段是处理用户输入。当用户的问题需要由 AI 模型回答时,问题和所有“类似”的文档片段都会被放入发送给 AI 模型的提示词中。这就是使用矢量数据库的原因。它非常擅长查找类似内容。
- ETL pipeline提供了有关协调从数据源提取数据并将其存储在结构化向量存储中的流程的更多信息,确保数据具有 AI 模型检索的最佳格式。
- ChatClient - RAG解释了如何使用
QuestionAnswerAdvisor
顾问为您的应用程序启用 RAG 功能。
函数调用
大型语言模型 (LLM) 在训练后被冻结,导致知识陈旧,并且无法访问或修改外部数据。
函数调用机制解决了这些缺点。它允许您注册自己的函数,以将大型语言模型连接到外部系统的 API。这些系统可以为 LLM 提供实时数据并代表它们执行数据处理操作。
Spring AI 大大简化了您需要编写的代码以支持函数调用。它为您处理函数调用对话。您可以将函数作为提供,@Bean
然后在提示词选项中提供该函数的 bean 名称以激活该函数。此外,您可以在单个提示词中定义和引用多个函数。
- (1)执行聊天请求以及函数定义信息。稍后提供
name
(description
例如,解释模型应何时调用该函数)和input parameters
(例如,函数的输入参数模式)。 - (2)当模型决定调用该函数时,它将使用输入参数调用该函数,并将输出返回给模型。
- (3)Spring AI 为您处理此对话。它将函数调用分派给适当的函数,并将结果返回给模型(4)。模型可以执行多个函数调用来检索所需的所有信息。
- (5)一旦获取了所有需要的信息,模型就会生成响应。
请关注函数调用文档以获取有关如何在不同 AI 模型中使用此功能的更多信息。
AI响应评估
有效评估人工智能系统响应用户请求的输出对于确保最终应用程序的准确性和实用性非常重要。一些新兴技术使得预训练模型本身能够用于此目的。
此评估过程涉及分析生成的响应是否符合用户的意图和查询的上下文。相关性、连贯性和事实正确性等指标用于衡量 AI 生成的响应的质量。
一种方法是向模型呈现用户的请求和人工智能模型的响应,查询响应是否与提供的数据一致。
此外,利用矢量数据库中存储的信息作为补充数据可以增强评估过程,有助于确定响应的相关性。
Spring AI 项目目前提供了一些非常基本的示例,说明如何以提示词的形式评估响应以包含在 JUnit 测试中。
入门
本节提供如何开始使用 Spring AI 的起点。
您应该根据需要执行以下每个部分中的步骤。
Spring CLI
Spring CLI简化了直接从终端创建新应用程序的过程。对于熟悉 JavaScript 生态系统的人来说,Spring CLI 提供了spring boot new
创建基于 Spring 的项目的命令,就像“create-react-app”命令一样。Spring CLI 还提供将外部代码库集成到当前项目中的功能,以及许多其他生产力功能。
重要的是要理解“Spring CLI”是一个与“Spring Boot CLI”不同的项目,每个项目都有自己的一套功能。 | |
---|---|
要开始创建 Spring AI 应用程序,请按照以下步骤操作:
-
下载最新的Spring CLI 版本 并按照安装说明进行操作。
-
要创建一个基于 OpenAI 的简单应用程序,请使用以下命令:
spring boot new --from ai --name myai
-
查阅生成的
README.md
文件以获取有关获取 OpenAI API 密钥和运行您的第一个 AI 应用程序的指导。
目前,Spring CLI 仅支持 Maven 项目。
要将相同的简单 AI 应用程序添加到现有的Maven 项目,请执行:
spring boot add ai
Spring CLI 允许用户定义自己的项目目录,定义可以创建哪些项目或将其添加到现有代码库中。
Spring 初始化
前往start.spring.io并选择您想要在新应用程序中使用的 AI 模型和矢量存储。
添加里程碑和快照存储库
如果您希望手动添加依赖项片段,请按照以下部分中的说明进行操作。
要使用 Milestone 和 Snapshot 版本,您需要在构建文件中添加对 Spring Milestone 和/或 Snapshot 存储库的引用。
对于 Maven,根据需要添加以下存储库定义:
<repositories><repository><id>spring-milestones</id><name>Spring Milestones</name><url>https://repo.spring.io/milestone</url><snapshots><enabled>false</enabled></snapshots></repository><repository><id>spring-snapshots</id><name>Spring Snapshots</name><url>https://repo.spring.io/snapshot</url><releases><enabled>false</enabled></releases></repository></repositories>
对于 Gradle,根据需要添加以下存储库定义:
repositories {mavenCentral()maven { url 'https://repo.spring.io/milestone' }maven { url 'https://repo.spring.io/snapshot' }
}
依赖管理
Spring AI 物料清单 (BOM) 声明了给定 Spring AI 版本使用的所有依赖项的推荐版本。使用应用程序构建脚本中的 BOM 可避免您自己指定和维护依赖项版本。相反,您使用的 BOM 版本决定了使用的依赖项版本。它还确保您默认使用受支持和经过测试的依赖项版本,除非您选择覆盖它们。
如果你是 Maven 用户,可以通过将以下内容添加到 pom.xml 文件来使用 BOM -
<dependencyManagement><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-bom</artifactId><version>1.0.0-SNAPSHOT</version><type>pom</type><scope>import</scope></dependency></dependencies>
</dependencyManagement>
Gradle 用户还可以通过利用 Gradle (5.0+) 原生支持使用 Maven BOM 声明依赖约束来使用 Spring AI BOM。这是通过向 Gradle 构建脚本的依赖项部分添加“平台”依赖项处理程序方法来实现的。如下面的代码片段所示,随后可以对您想要使用的一个或多个 spring-ai 模块(例如 spring-ai-openai)进行无版本的 Starter Dependencies 声明。
dependencies {implementation platform("org.springframework.ai:spring-ai-bom:1.0.0-SNAPSHOT")// Replace the following with the starter dependencies of specific modules you wish to useimplementation 'org.springframework.ai:spring-ai-openai'
}
添加特定组件的依赖项
文档中的以下每个部分都显示了您需要添加到项目构建系统中的依赖项。
嵌入模型
- Embeddings API
- Spring AI OpenAI Embeddings
- Spring AI Azure OpenAI Embeddings
- Spring AI Ollama Embeddings
- Spring AI Transformers (ONNX) Embeddings
- Spring AI PostgresML Embeddings
- Spring AI Bedrock Cohere Embeddings
- Spring AI Bedrock Titan Embeddings
- Spring AI VertexAI Embeddings
- Spring AI MistralAI Embeddings
聊天模型
- Chat Completion API
- OpenAI Chat Completion (流和函数调用支持)
- Microsoft Azure Open AI Chat Completion (流式传输和函数调用支持)
- Ollama Chat Completion
- Hugging Face Chat Completion (不支持流媒体)
- Google Vertex AI PaLM2 Chat Completion (不支持流媒体)
- Google Vertex AI Gemini Chat Completion (流媒体、多模式和函数调用支持)
- Amazon Bedrock
- Cohere Chat Completion
- Llama Chat Completion
- Titan Chat Completion
- Anthropic Chat Completion
- Jurassic2 Chat Completion
- MistralAI Chat Completion (流媒体和函数调用支持)
图像生成模型
- Image Model API
- OpenAI Image Generation
- StabilityAI Image Generation
音频模型
- Transcription Models
- OpenAI Transcriptions
- Text-To-Speech (TTS) Models
- OpenAI Text-To-Speech
矢量数据库
- Vector Database API
- Azure Vector Search - The Azure vector store.
- ChromaVectorStore - The Chroma vector store.
- MilvusVectorStore - The Milvus vector store.
- Neo4jVectorStore - The Neo4j vector store.
- PgVectorStore - The PostgreSQL/PGVector vector store.
- PineconeVectorStore - PineCone vector store.
- QdrantVectorStore - Qdrant vector store.
- RedisVectorStore - The Redis vector store.
- WeaviateVectorStore - The Weaviate vector store.
- SimpleVectorStore - A simple (in-memory) implementation of persistent vector storage, good for educational purposes.
示例项目
OpenAI
- github.com/rd-1-2022/ai-openai-helloworld
Azure OpenAI
- github.com/rd-1-2022/ai-azure-openai-helloworld
- github.com/Azure-Samples/spring-ai-azure-workshop
Spring AI API
介绍
Spring AI API 涵盖了广泛的功能。每个主要功能在其专门的部分中都有详细介绍。为了提供概述,以下是可用的关键功能:
AI 模型 API
Model API`可跨 AI 提供商移植,适用于`Chat`、`Text to Image`、`Audio Transcription`、`Text to Speech`和`Embedding`模型。支持`synchronous`和API 选项。还支持下拉以访问特定于模型的功能。`stream
支持 OpenAI、微软、亚马逊、谷歌、亚马逊 Bedrock、Hugging Face 等公司的 AI 模型。
矢量存储 API
可跨多个提供商移植Vector Store API
,包括也可移植的小说SQL-like metadata filter API
。支持 14 个矢量数据库。
函数调用 API
Function calling
。Spring AI 使得 AI 模型可以轻松调用您的 POJOjava.util.Function
对象。
查看 Spring AI函数调用文档。
自动配置
用于 AI 模型和向量存储的 Spring Boot 自动配置和启动器。
ETL数据工程
数据工程的 ETL 框架。这为将数据加载到矢量数据库提供了基础,有助于实现检索增强生成模式,使您能够将数据带入 AI 模型以纳入其响应中。
聊天客户端 API
它ChatClient
提供了与 AI 模型进行通信的流畅 API。它支持同步和反应式编程模型。
Fluent API 具有构建Prompt组成部分的方法,Prompt 将作为输入传递给 AI 模型。其中Prompt
包含指导 AI 模型输出和行为的说明性文本。从 API 的角度来看,提示词由一组消息组成。
AI 模型处理两种主要类型的消息:用户消息(来自用户的直接输入)和系统消息(由系统生成以引导对话)。
这些消息通常包含占位符,这些占位符在运行时根据用户输入进行替换,以定制 AI 模型对用户输入的响应。
还可以指定提示词选项,例如要使用的 AI 模型的名称和控制生成输出的随机性或创造性的温度设置。
创建 ChatClient
使用对象ChatClient
创建ChatClient.Builder
。您可以ChatClient.Builder
为任何ChatModel Spring Boot 自动配置获取一个自动配置实例,也可以通过编程创建一个。
使用自动配置的 ChatClient.Builder
在最简单的用例中,Spring AI 提供 Spring Boot 自动配置,ChatClient.Builder
为您创建一个原型 bean 以注入到您的类中。这是一个检索对简单用户请求的字符串响应的简单示例。
@RestController
class MyController {private final ChatClient chatClient;public MyController(ChatClient.Builder chatClientBuilder) {this.chatClient = chatClientBuilder.build();}@GetMapping("/ai")String generation(String userInput) {return this.chatClient.prompt().user(userInput).call().content();}
}
在这个简单的示例中,用户输入设置了用户消息的内容。call 方法向 AI 模型发送请求,content 方法以字符串形式返回 AI 模型的响应。
以编程方式创建 ChatClient
您可以ChatClient.Builder
通过设置属性来禁用自动配置spring.ai.chat.client.enabled=false
。如果多个聊天模型一起使用,这很有用。然后以编程方式ChatClient.Builder
为每个聊天模型创建一个实例ChatModel
:
ChatModel myChatModel = ... // usually autowiredChatClient.Builder builder = ChatClient.builder(myChatModel);// or create a ChatClient with the default builder settings:ChatClient chatClient = ChatClient.create(myChatModel);
聊天客户端响应
ChatClient API 提供了多种方法来格式化来自 AI 模型的响应。
返回 ChatResponse
AI 模型的响应是一种由ChatResponse类型定义的丰富结构。它包含有关如何生成响应的元数据,还可以包含多个响应(称为Generation),每个响应都有自己的元数据。元数据包括用于创建响应的令牌数量(每个令牌大约为一个单词的 3/4)。此信息很重要,因为托管 AI 模型根据每个请求使用的令牌数量收费。
ChatResponse
下面显示了通过调用chatResponse()
该方法返回包含元数据的对象的示例call()
。
ChatResponse chatResponse = chatClient.prompt().user("Tell me a joke").call().chatResponse();
返回实体
您经常希望返回从返回的映射而来的实体类String
。该entity
方法提供了此功能。
例如,给定 Java 记录:
record ActorFilms(String actor, List<String> movies) {
}
您可以使用该方法轻松地将 AI 模型的输出映射到此记录entity
,如下所示:
ActorFilms actorFilms = chatClient.prompt().user("Generate the filmography for a random actor.").call().entity(ActorFilms.class);
还有一种entity
带有签名的重载方法entity(ParameterizedTypeReference<T> type)
,可让您指定通用列表等类型:
List<ActorFilms> actorFilms = chatClient.prompt().user("Generate the filmography of 5 movies for Tom Hanks and Bill Murray.").call().entity(new ParameterizedTypeReference<List<ActorsFilms>>() {});
流式响应
让stream
您获得异步响应,如下所示
Flux<String> output = chatClient.prompt().user("Tell me a joke").stream().content();
您还可以ChatResponse
使用该方法进行流式传输Flux<ChatResponse> chatResponse()
。
在 1.0.0 M2 中,我们将提供一种便捷方法,让您使用反应式stream()
方法返回 Java 实体。同时,您应该使用结构化输出转换器明确转换聚合响应,如下所示。这也演示了流畅 API 中参数的使用,本文档后面的部分将对此进行更详细的讨论。
var converter = new BeanOutputConverter<>(new ParameterizedTypeReference<List<ActorsFilms>>() {});Flux<String> flux = this.chatClient.prompt().user(u -> u.text("""Generate the filmography for a random actor.{format}""").param("format", converter.getFormat())).stream().content();String content = flux.collectList().block().stream().collect(Collectors.joining());List<ActorFilms> actorFilms = converter.convert(content);
call() 返回值
指定call
方法后,ChatClient
响应类型有几种不同的选项。
String content()
:返回响应的字符串内容ChatResponse chatResponse()
:返回ChatResponse
包含多个代以及有关响应的元数据的对象,例如使用了多少个令牌来创建响应。entity
返回 Java 类型- entity(ParameterizedTypeReference type):用于返回实体类型的集合。
- entity(Class type): 用于返回特定的实体类型。
- entity(StructuredOutputConverter structuredOutputConverter): 用于指定一个实例,
StructuredOutputConverter
将一个实例转换String
为实体类型。
您还可以调用该stream
方法而call
不是
stream() 返回值
在指定stream
方法后ChatClient
,响应类型有几个选项:
Flux<String> content()
:返回由AI模型生成的字符串的Flux。Flux<ChatResponse> chatResponse()
:返回对象的 FluxChatResponse
,其中包含有关响应的附加元数据。
使用默认值
在@Configuration类中创建带有默认系统文本的ChatClient简化了运行时代码。通过设置默认值,您只需要在调用ChatClient时指定用户文本,从而消除了在运行时代码路径中为每个请求设置系统文本的需要。
默认系统文本
在以下示例中,我们将配置系统文本以始终以海盗的声音回复。为了避免在运行时代码中重复系统文本,我们将ChatClient
在类中创建一个实例@Configuration
。
@Configuration
class Config {@BeanChatClient chatClient(ChatClient.Builder builder) {return builder.defaultSystem("You are a friendly chat bot that answers question in the voice of a Pirate").build();}}
并@RestController
调用它
@RestController
class AIController {private final ChatClient chatClient;AIController(ChatClient chatClient) {this.chatClient = chatClient;}@GetMapping("/ai/simple")public Map<String, String> completion(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {return Map.of("completion", chatClient.prompt().user(message).call().content());}
}
通过 curl 调用它
❯ curl localhost:8080/ai/simple
{"generation":"Why did the pirate go to the comedy club? To hear some arrr-rated jokes! Arrr, matey!"}
带参数的默认系统文本
在下面的例子中,我们将使用系统文本中的占位符来指定在运行时而不是设计时完成的语音。
@Configuration
class Config {@BeanChatClient chatClient(ChatClient.Builder builder) {return builder.defaultSystem("You are a friendly chat bot that answers question in the voice of a {voice}").build();}}
@RestController
class AIController {private final ChatClient chatClientAIController(ChatClient chatClient) {this.chatClient = chatClient;}@GetMapping("/ai")Map<String, String> completion(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message, String voice) {return Map.of("completion",chatClient.prompt().system(sp -> sp.param("voice", voice)).user(message).call().content());}
}
答案是
http localhost:8080/ai voice=='Robert DeNiro'
{"completion": "You talkin' to me? Okay, here's a joke for ya: Why couldn't the bicycle stand up by itself? Because it was two tired! Classic, right?"
}
其他默认设置
在ChatClient.Builder
级别上,您可以指定默认提示词。
defaultOptions(ChatOptions chatOptions)
:传入ChatOptions
类中定义的可移植选项或特定于模型的选项(例如 中的选项)OpenAiChatOptions
。有关特定于模型的ChatOptions
实现的更多信息,请参阅 JavaDocs。defaultFunction(String name, String description, java.util.function.Function<I, O> function)
:name
用于在用户文本中引用该函数。description
解释该函数的用途并帮助 AI 模型选择正确的函数以获得准确的响应。参数function
是模型将在必要时执行的 Java 函数实例。defaultFunctions(String… functionNames)
:应用程序上下文中定义的 java.util.Function 的 bean 名称。defaultUser(String text)
、、defaultUser(Resource text)
:defaultUser(Consumer<UserSpec> userSpecConsumer)
这些方法允许您定义用户文本。Consumer<UserSpec>
允许您使用 lambda 指定用户文本和任何默认参数。defaultAdvisors(RequestResponseAdvisor… advisor)
:顾问允许修改用于创建的数据Prompt
。该实现通过在提示词中附加与用户文本相关的上下文信息来QuestionAnswerAdvisor
实现模式。Retrieval Augmented Generation
defaultAdvisors(Consumer<AdvisorSpec> advisorSpecConsumer)
:此方法允许您定义一个Consumer
以使用配置多个顾问AdvisorSpec
。顾问可以修改用于创建最终的数据Prompt
。Consumer<AdvisorSpec>
允许您指定 lambda 来添加顾问,例如QuestionAnswerAdvisor
,它Retrieval Augmented Generation
通过根据用户文本附加带有相关上下文信息的提示词来支持。
您可以在运行时使用不带前缀的相应方法覆盖这些默认值default
。
options(ChatOptions chatOptions)
function(String name, String description, java.util.function.Function<I, O> function)
- `函数(字符串… 函数名称)
user(String text)
,,user(Resource text)``user(Consumer<UserSpec> userSpecConsumer)
advisors(RequestResponseAdvisor… advisor)
advisors(Consumer<AdvisorSpec> advisorSpecConsumer)
提示
使用用户文本调用 AI 模型时的一个常见模式是使用上下文数据附加或扩充提示词。
这些上下文数据可以是不同类型的。常见类型包括:
- 您自己的数据:这是 AI 模型尚未训练过的数据。即使模型已经看到过类似的数据,附加的上下文数据也会优先生成响应。
- 对话历史记录:聊天模型的 API 是无状态的。如果您告诉 AI 模型您的姓名,它不会在后续交互中记住它。每次请求都必须发送对话历史记录,以确保在生成响应时考虑到之前的交互。
检索增强生成
向量数据库存储的是 AI 模型不知道的数据。当用户问题被发送到 AI 模型时,它会在QuestionAnswerAdvisor
向量数据库中查询与用户问题相关的文档。
来自向量数据库的响应被附加到用户文本中,为 AI 模型生成响应提供上下文。
假设您已将数据加载到中VectorStore
,则可以通过向提供实例来执行检索增强生成 (RAG QuestionAnswerAdvisor
) ChatClient
。
ChatResponse response = ChatClient.builder(chatModel).build().prompt().advisors(new QuestionAnswerAdvisor(vectorStore, SearchRequest.defaults())).user(userText).call().chatResponse();
在这个例子中,SearchRequest.defaults()
将对 Vector 数据库中的所有文档执行相似性搜索。为了限制要搜索的文档类型,采用SearchRequest
了可移植到所有数据库中的类似 SQL 的筛选表达式VectorStores
。
Chat Memory
该接口ChatMemory
表示聊天对话历史记录的存储。它提供向对话添加消息、从对话中检索消息以及清除对话历史记录的方法。
有一种实现InMemoryChatMemory
可以为聊天对话历史记录提供内存存储。
两个顾问实现都使用ChatMemory
接口来向提示词提供对话历史记录,它们在如何将记忆添加到提示词的细节上有所不同
MessageChatMemoryAdvisor
:内存被检索作为消息集合添加到提示词中PromptChatMemoryAdvisor
:内存被检索并添加到提示词的系统文本中。VectorStoreChatMemoryAdvisor
:构造函数“VectorStoreChatMemoryAdvisor(VectorStore vectorStore, String defaultConversationId, int chatHistoryWindowSize)”允许您指定要从中检索聊天历史记录的 VectorStore、唯一的对话 ID、要检索的聊天历史记录的大小(以令牌大小为单位)。
@Service
下面是一个使用多个顾问的示例实现
import static org.springframework.ai.chat.client.advisor.AbstractChatMemoryAdvisor.CHAT_MEMORY_CONVERSATION_ID_KEY;
import static org.springframework.ai.chat.client.advisor.AbstractChatMemoryAdvisor.CHAT_MEMORY_RETRIEVE_SIZE_KEY;@Service
public class CustomerSupportAssistant {private final ChatClient chatClient;public CustomerSupportAssistant(ChatClient.Builder builder, VectorStore vectorStore, ChatMemory chatMemory) {this.chatClient = builder.defaultSystem("""You are a customer chat support agent of an airline named "Funnair".", Respond in a friendly,helpful, and joyful manner.Before providing information about a booking or cancelling a booking, you MUST alwaysget the following information from the user: booking number, customer first name and last name.Before changing a booking you MUST ensure it is permitted by the terms.If there is a charge for the change, you MUST ask the user to consent before proceeding.""").defaultAdvisors(new PromptChatMemoryAdvisor(chatMemory),// new MessageChatMemoryAdvisor(chatMemory), // CHAT MEMORYnew QuestionAnswerAdvisor(vectorStore, SearchRequest.defaults()),new LoggingAdvisor()) // RAG.defaultFunctions("getBookingDetails", "changeBooking", "cancelBooking") // FUNCTION CALLING.build();
}public Flux<String> chat(String chatId, String userMessageContent) {return this.chatClient.prompt().user(userMessageContent).advisors(a -> a.param(CHAT_MEMORY_CONVERSATION_ID_KEY, chatId).param(CHAT_MEMORY_RETRIEVE_SIZE_KEY, 100)).stream().content();}
}
聊天模型 API
聊天模型 API 让开发人员能够将 AI 支持的聊天完成功能集成到他们的应用程序中。它利用预先训练的语言模型(例如 GPT(生成式预训练 Transformer))以自然语言生成对用户输入的类似人类的响应。
API 的工作原理通常是向 AI 模型发送提示词或部分对话,然后 AI 模型根据其训练数据和对自然语言模式的理解生成完整或延续的对话。完整的响应随后返回到应用程序,应用程序可以将其呈现给用户或用于进一步处理。
旨在Spring AI Chat Model API
成为一个简单且可移植的接口,用于与各种AI 模型进行交互,允许开发人员以最少的代码更改在不同的模型之间切换。这种设计符合 Spring 的模块化和可互换性理念。
此外,借助Prompt
用于输入封装和ChatResponse
输出处理的配套类,聊天模型 API 统一了与 AI 模型的通信。它管理请求准备和响应解析的复杂性,提供直接且简化的 API 交互。
API 概述
本节提供了 Spring AI 聊天模型 API 接口和相关类的指南。
ChatModel
以下是ChatModel接口定义:
public interface ChatModel extends Model<Prompt, ChatResponse> {default String call(String message) {// implementation omitted}@OverrideChatResponse call(Prompt prompt);
}
call`带参数的方法简化了初始使用,避免了更复杂的和类`String`的复杂性。在实际应用中,更常见的是使用接受实例并返回的方法。`Prompt``ChatResponse``call``Prompt``ChatResponse
StreamingChatModel
以下是StreamingChatModel接口定义:
public interface StreamingChatModel extends StreamingModel<Prompt, ChatResponse> {@OverrideFlux<ChatResponse> stream(Prompt prompt);
}
该stream
方法接受Prompt
类似的请求,ChatModel
但它使用反应式 Flux API 来流式传输响应。
Prompt
Prompt封装了一系列Message对象和可选的模型请求选项。以下列表显示了 Prompt 类的截断版本,不包括构造函数和其他实用方法:ModelRequest
public class Prompt implements ModelRequest<List<Message>> {private final List<Message> messages;private ChatOptions modelOptions;@Overridepublic ChatOptions getOptions() {..}@Overridepublic List<Message> getInstructions() {...}// constructors and utility methods omitted
}
Message
该Message
接口封装了文本消息、属性集合( )Map
和分类( )MessageType
。该接口定义如下:
public interface Message extends Node<String> {String getContent();List<Media> getMedia();MessageType getMessageType();
}
Node 接口是
public interface Node<T> {T getContent();Map<String, Object> getMetadata();
}
该Message
接口有多种实现,与 AI 模型可以处理的消息类别相对应。某些模型(如 OpenAI 的聊天完成端点)根据对话角色区分消息类别,这些角色由 有效映射MessageType
。
例如,OpenAI 可以识别不同对话角色的消息类别,如system
、或。user``function``assistant
虽然该术语MessageType
可能暗示特定的消息格式,但在这种情况下,它实际上指定了消息在对话中所扮演的角色。
对于不使用特定角色的 AI 模型,UserMessage
实现充当标准类别,通常表示用户生成的查询或指令。要了解实际应用以及Prompt
和之间的关系,特别是在这些角色或消息类别的上下文中,请参阅提示词Message
部分中的详细解释。
ChatOptions
表示可以传递给 AI 模型的选项。该类ChatOptions
是的子类ModelOptions
,用于定义可以传递给 AI 模型的一些可移植选项。该类ChatOptions
定义如下:
public interface ChatOptions extends ModelOptions {Float getTemperature();void setTemperature(Float temperature);Float getTopP();void setTopP(Float topP);Integer getTopK();void setTopK(Integer topK);
}
此外,每个特定于模型的 ChatModel/StreamingChatModel 实现都可以有自己的选项,这些选项可以传递给 AI 模型。例如,OpenAI Chat Completion 模型有自己的选项,如、presencePenalty
等。frequencyPenalty``bestOf
这是一个强大的功能,允许开发人员在启动应用程序时使用特定于模型的选项,然后在运行时使用提示词请求覆盖它们:
ChatResponse
该类的结构ChatResponse
如下:
public class ChatResponse implements ModelResponse<Generation> {private final ChatResponseMetadata chatResponseMetadata;private final List<Generation> generations;@Overridepublic ChatResponseMetadata getMetadata() {...}@Overridepublic List<Generation> getResults() {...}// other methods omitted
}
ChatResponse类保存 AI 模型的输出,每个Generation
实例包含单个提示词产生的多个潜在输出之一。
该ChatResponse
类别还携带ChatResponseMetadata
有关 AI 模型响应的元数据。
Generation
最后,Generation类从 扩展而来,ModelResult
表示关于此结果的输出助手消息响应和相关元数据:
public class Generation implements ModelResult<AssistantMessage> {private AssistantMessage assistantMessage;private ChatGenerationMetadata chatGenerationMetadata;@Overridepublic AssistantMessage getOutput() {...}@Overridepublic ChatGenerationMetadata getMetadata() {...}// other methods omitted
}
实现案例
为以下模型提供程序提供了和ChatModel
实现:StreamingChatModel
- OpenAI Chat Completion (streaming & function-calling support)
- Microsoft Azure Open AI Chat Completion (streaming & function-calling support)
- Ollama Chat Completion
- Hugging Face Chat Completion (no streaming support)
- Google Vertex AI PaLM2 Chat Completion (no streaming support)
- Google Vertex AI Gemini Chat Completion (streaming, multi-modality & function-calling support)
- Amazon Bedrock
- Cohere Chat Completion
- Llama Chat Completion
- Titan Chat Completion
- Anthropic Chat Completion
- Jurassic2 Chat Completion
- Mistral AI Chat Completion (streaming & function-calling support)
- Anthropic Chat Completion (streaming)
聊天模型 API
Spring AI 聊天模型 API 建立在 Spring AI 之上,Generic Model API
提供特定于聊天的抽象和实现。以下类图说明了 Spring AI 聊天模型 API 的主要类和接口。
OpenAI 聊天
Spring AI 支持 OpenAI 的 AI 语言模型 ChatGPT。ChatGPT 凭借其创建业界领先的文本生成模型和嵌入,在激发人们对 AI 驱动的文本生成的兴趣方面发挥了重要作用。
先决条件
您需要使用 OpenAI 创建 API 来访问 ChatGPT 模型。在OpenAI 注册页面创建一个帐户,并在API 密钥页面生成令牌。Spring AI 项目定义了一个名为的配置属性spring.ai.openai.api-key
,您应该将其设置为从 openai.com 获取的值API Key
。导出环境变量是设置该配置属性的一种方法:
export SPRING_AI_OPENAI_API_KEY=<INSERT KEY HERE>
添加存储库和 BOM
Spring AI 工件已发布在 Spring Milestone 和 Snapshot 存储库中。请参阅存储库部分以将这些存储库添加到您的构建系统中。
为了帮助进行依赖项管理,Spring AI 提供了 BOM(物料清单),以确保在整个项目中使用一致版本的 Spring AI。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。
自动配置
Spring AI 为 OpenAI Chat Client 提供 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai-spring-boot-starter'
}
依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
聊天属性
重试属性
该前缀spring.ai.retry
用作属性前缀,可让您配置 OpenAI 聊天模型的重试机制。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.retry.max-attempts | 最大重试次数。 | 10 |
spring.ai.retry.backoff.initial-interval | 指数退避策略的初始睡眠持续时间。 | 2 sec. |
spring.ai.retry.backoff.multiplier | 退避间隔乘数。 | 5 |
spring.ai.retry.backoff.max-interval | 最大退避持续时间。 | 3 min. |
spring.ai.retry.on-client-errors | 如果为 false,则抛出 NonTransientAiException,并且不要尝试重试4xx 客户端错误代码 | false |
spring.ai.retry.exclude-on-http-codes | 不应触发重试的 HTTP 状态代码列表(例如抛出 NonTransientAiException)。 | empty |
spring.ai.retry.on-http-codes | 应触发重试的 HTTP 状态代码列表(例如抛出 TransientAiException)。 | empty |
连接属性
该前缀spring.ai.openai
用作允许您连接到 OpenAI 的属性前缀。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.base-url | 要连接的 URL | api.openai.com |
spring.ai.openai.api-key | API 密钥 | - |
配置属性
前缀spring.ai.openai.chat
是允许您为 OpenAI 配置聊天模型实现的属性前缀。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.chat.enabled | 启用 OpenAI 聊天模型。 | true |
spring.ai.openai.chat.base-url | 可选覆盖 spring.ai.openai.base-url 以提供聊天特定的 url | - |
spring.ai.openai.chat.api-key | 可选覆盖 spring.ai.openai.api-key 以提供聊天特定的 api-key | - |
spring.ai.openai.chat.options.model | 这是要使用的OpenAI Chat 模型。gpt-4o ,,,,,,,,,,。有关更多信息gpt-4-turbo ,请参阅模型页面gpt-4-turbo-2024-04-09 。gpt-4-0125-preview``gpt-4-turbo-preview``gpt-4-vision-preview``gpt-4-32k``gpt-3.5-turbo``gpt-3.5-turbo-0125``gpt-3.5-turbo-1106 | gpt-3.5-turbo |
spring.ai.openai.chat.options.temperature | 用来控制生成的完成的表观创造性的采样温度。较高的值将使输出更加随机,而较低的值将使结果更加集中和确定。不建议修改同一完成请求的温度和 top_p,因为这两个设置的相互作用很难预测。 | 0.8 |
spring.ai.openai.chat.options.frequencyPenalty | -2.0 到 2.0 之间的数字。正值会根据新标记在文本中出现的频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 | 0.0f |
spring.ai.openai.chat.options.logitBias | 修改指定标记在完成中出现的可能性。 | - |
spring.ai.openai.chat.options.maxTokens | 聊天完成中要生成的最大标记数。输入标记和生成的标记的总长度受模型的上下文长度限制。 | - |
spring.ai.openai.chat.options.n | 为每个输入消息生成多少个聊天完成选项。请注意,您将根据所有选项中生成的令牌数量付费。将 n 保持为 1 以最小化成本。 | 1 |
spring.ai.openai.chat.options.presencePenalty | -2.0 到 2.0 之间的数字。正值会根据新标记是否出现在文本中来惩罚新标记,从而增加模型讨论新主题的可能性。 | - |
spring.ai.openai.chat.options.responseFormat | 指定模型必须输出的格式的对象。设置为{ "type": "json_object" } 启用 JSON 模式,可确保模型生成的消息是有效的 JSON。 | - |
spring.ai.openai.chat.options.seed | 此功能处于测试阶段。如果指定,我们的系统将尽最大努力进行确定性采样,以便使用相同种子和参数的重复请求应返回相同的结果。 | - |
spring.ai.openai.chat.options.stop | 最多 4 个序列,API 将停止生成进一步的令牌。 | - |
spring.ai.openai.chat.options.topP | 温度采样的替代方法是核采样,其中模型考虑具有 top_p 概率质量的标记的结果。因此 0.1 表示仅考虑包含前 10% 概率质量的标记。我们通常建议更改此值或温度,但不能同时更改两者。 | - |
spring.ai.openai.chat.options.tools | 模型可调用的工具列表。目前,仅支持将函数用作工具。使用此列表提供模型可为其生成 JSON 输入的函数列表。 | - |
spring.ai.openai.chat.options.toolChoice | 控制模型调用哪个函数(如果有)。none 表示模型不会调用函数,而是生成一条消息。auto 表示模型可以在生成消息或调用函数之间进行选择。通过 {"type: “function”, “function”: {“name”: “my_function”}} 指定特定函数会强制模型调用该函数。当没有函数时,none 是默认值。如果存在函数,则 auto 是默认值。 | - |
spring.ai.openai.chat.options.user | 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。 | - |
spring.ai.openai.chat.options.functions | 函数列表,按其名称标识,用于在单个提示词请求中启用函数调用。具有这些名称的函数必须存在于 functionCallbacks 注册表中。 | - |
您可以覆盖和实现的通用 和spring.ai.openai.base-url
。如果设置了和属性,则它们优先于通用属性。如果您想对不同的模型和不同的模型端点使用不同的 OpenAI 帐户,这将非常有用。 spring.ai.openai.api-key``ChatModel``EmbeddingModel``spring.ai.openai.chat.base-url``spring.ai.openai.chat.api-key
通过在调用中添加请求特定的运行时选项,spring.ai.openai.chat.options
可以在运行时覆盖 所有以 为前缀的属性。 Prompt
运行时选项
OpenAiChatOptions.java提供模型配置,例如要使用的模型、温度、频率惩罚等。
在启动时,可以使用OpenAiChatModel(api, options)
构造函数或spring.ai.openai.chat.options.*
属性配置默认选项。
在运行时,您可以通过向调用添加新的、特定于请求的选项来覆盖默认选项Prompt
。例如,要覆盖特定请求的默认模型和温度:
ChatResponse response = chatModel.call(new Prompt("Generate the names of 5 famous pirates.",OpenAiChatOptions.builder().withModel("gpt-4-32k").withTemperature(0.4).build()));
除了模型特定的OpenAiChatOptions之外,您还可以使用通过ChatOptionsBuilder#builder()创建的可移植ChatOptions实例。
函数调用
您可以使用 OpenAiChatModel 注册自定义 Java 函数,并让 OpenAI 模型智能地选择输出包含参数的 JSON 对象以调用一个或多个已注册函数。这是一种将 LLM 功能与外部工具和 API 连接起来的强大技术。阅读有关OpenAI 函数调用的更多信息。
多模态
多模态是指模型能够同时理解和处理来自各种来源的信息,包括文本、图像、音频和其他数据格式。目前,OpenAIgpt-4-visual-preview
和模型提供多模态支持。有关更多信息,gpt-4o
请参阅Vision指南。
OpenAI用户消息 API可以将 base64 编码的图像或图像 URL 列表与消息合并。Spring AI 的消息接口通过引入媒体类型来促进多模式 AI 模型。此类型包含有关消息中媒体附件的数据和详细信息,利用 Spring 的org.springframework.util.MimeType
和java.lang.Object
原始媒体数据。
下面是摘录自OpenAiChatModelIT.java的代码示例,说明了如何使用该模型将用户文本与图像融合GPT_4_VISION_PREVIEW
。
byte[] imageData = new ClassPathResource("/multimodal.test.png").getContentAsByteArray();var userMessage = new UserMessage("Explain what do you see on this picture?",List.of(new Media(MimeTypeUtils.IMAGE_PNG, imageData)));ChatResponse response = chatModel.call(new Prompt(List.of(userMessage),OpenAiChatOptions.builder().withModel(OpenAiApi.ChatModel.GPT_4_VISION_PREVIEW.getValue()).build()));
或者使用模型等效的图像 URL GPT_4_O
:
var userMessage = new UserMessage("Explain what do you see on this picture?",List.of(new Media(MimeTypeUtils.IMAGE_PNG,"https://docs.spring.io/spring-ai/reference/1.0-SNAPSHOT/_images/multimodal.test.png")));ChatResponse response = chatModel.call(new Prompt(List.of(userMessage),OpenAiChatOptions.builder().withModel(OpenAiApi.ChatModel.GPT_4_O.getValue()).build()));
您也可以传递多幅图像。
它将图像作为输入multimodal.test.png
:
以及文本消息“解释一下你在图片上看到了什么?”,并生成如下响应:
这是一张设计简单的水果碗图片。碗由金属制成,边缘有弯曲的金属丝,
创造一个开放的结构,让水果从各个角度都可见。碗内有两个
黄色的香蕉放在看起来像是红苹果的东西上面。香蕉有点熟了,因为
果皮上有棕色斑点,表明该属植物是野生的。碗的顶部有一个金属环,可能用作把手
便于携带。碗放在平坦的表面上,背景为中性色,可以提供清晰的
查看水果内部。
Sample Controller
创建一个新的 Spring Boot 项目并将其添加spring-ai-openai-spring-boot-starter
到您的 pom(或 gradle)依赖项中。
在目录下添加一个application.properties
文件src/main/resources
,以启用和配置 OpenAi 聊天模型:
spring.ai.openai.api-key=YOUR_API_KEY
spring.ai.openai.chat.options.model=gpt-3.5-turbo
spring.ai.openai.chat.options.temperature=0.7
将api-key
替换成你的OpenAI凭证
这将创建一个OpenAiChatModel
可以注入到类中的实现。下面是一个@Controller
使用聊天模型进行文本生成的简单类的示例。
@RestController
public class ChatController {private final OpenAiChatModel chatModel;@Autowiredpublic ChatController(OpenAiChatModel chatModel) {this.chatModel = chatModel;}@GetMapping("/ai/generate")public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {return Map.of("generation", chatModel.call(message));}@GetMapping("/ai/generateStream")public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {Prompt prompt = new Prompt(new UserMessage(message));return chatModel.stream(prompt);}
}
手动配置
OpenAiChatModel实现了并ChatModel
使用StreamingChatModel
Low -level OpenAiApi Client连接到 OpenAI 服务。
将spring-ai-openai
依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
接下来,创建一个OpenAiChatModel
并使用它进行文本生成:
var openAiApi = new OpenAiApi(System.getenv("OPENAI_API_KEY"));
var openAiChatOptions = OpenAiChatOptions.builder().withModel("gpt-3.5-turbo").withTemperature(0.4).withMaxTokens(200).build();
var chatModel = new OpenAiChatModel(openAiApi, openAiChatOptions)ChatResponse response = chatModel.call(new Prompt("Generate the names of 5 famous pirates."));// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(new Prompt("Generate the names of 5 famous pirates."));
提供OpenAiChatOptions
聊天请求的配置信息。OpenAiChatOptions.Builder
是流畅的选项生成器。
Low-level OpenAiApi Client
OpenAiApi为 OpenAI Chat API OpenAI Chat API提供了轻量级 Java 客户端。
下面的类图说明了OpenAiApi
聊天接口和构建块:
以下是以编程方式使用 API 的简单代码片段:
OpenAiApi openAiApi =new OpenAiApi(System.getenv("OPENAI_API_KEY"));ChatCompletionMessage chatCompletionMessage =new ChatCompletionMessage("Hello world", Role.USER);// Sync request
ResponseEntity<ChatCompletion> response = openAiApi.chatCompletionEntity(new ChatCompletionRequest(List.of(chatCompletionMessage), "gpt-3.5-turbo", 0.8f, false));// Streaming request
Flux<ChatCompletionChunk> streamResponse = openAiApi.chatCompletionStream(new ChatCompletionRequest(List.of(chatCompletionMessage), "gpt-3.5-turbo", 0.8f, true));
请关注OpenAiApi.java的 JavaDoc 以获取更多信息。
Low-level API Examples
- OpenAiApiIT.java测试提供了一些如何使用轻量级库的一般示例。
- OpenAiApiToolFunctionCallIT.java测试展示了如何使用低级 API 调用工具函数。基于OpenAI 函数调用教程。
嵌入模型 API
该EmbeddingModel
接口旨在直接与人工智能和机器学习中的嵌入模型集成。其主要功能是将文本转换为数字向量,通常称为嵌入。这些嵌入对于语义分析和文本分类等各种任务至关重要。
EmbeddingModel 接口的设计围绕两个主要目标:
- 可移植性:此接口确保轻松适应各种嵌入模型。它允许开发人员以最少的代码更改在不同的嵌入技术或模型之间切换。此设计符合 Spring 的模块化和可互换性理念。
- 简单性:EmbeddingModel 简化了将文本转换为嵌入的过程。通过提供
embed(String text)
和等简单方法embed(Document document)
,它消除了处理原始文本数据和嵌入算法的复杂性。这种设计选择使开发人员(尤其是 AI 新手)更容易在其应用程序中使用嵌入,而无需深入研究底层机制。
API 概述
嵌入模型 API 建立在通用Spring AI 模型 API之上,后者是 Spring AI 库的一部分。因此,EmbeddingModel 接口扩展了该Model
接口,该接口提供了一组用于与 AI 模型交互的标准方法。EmbeddingRequest
和EmbeddingResponse
类扩展自ModelRequest
和ModelResponse
,分别用于封装嵌入模型的输入和输出。
反过来,嵌入 API 被更高级别的组件用来实现特定嵌入模型的嵌入客户端,例如 OpenAI、Titan、Azure OpenAI、Ollie 等。
下图说明了嵌入 API 及其与 Spring AI 模型 API 和嵌入客户端的关系:
EmbeddingModel
EmbeddingModel
本节提供了接口和相关类的指南。
public interface EmbeddingModel extends Model<EmbeddingRequest, EmbeddingResponse> {@OverrideEmbeddingResponse call(EmbeddingRequest request);/*** Embeds the given document's content into a vector.* @param document the document to embed.* @return the embedded vector.*/List<Double> embed(Document document);/*** Embeds the given text into a vector.* @param text the text to embed.* @return the embedded vector.*/default List<Double> embed(String text) {Assert.notNull(text, "Text must not be null");return this.embed(List.of(text)).iterator().next();}/*** Embeds a batch of texts into vectors.* @param texts list of texts to embed.* @return list of list of embedded vectors.*/default List<List<Double>> embed(List<String> texts) {Assert.notNull(texts, "Texts must not be null");return this.call(new EmbeddingRequest(texts, EmbeddingOptions.EMPTY)).getResults().stream().map(Embedding::getOutput).toList();}/*** Embeds a batch of texts into vectors and returns the {@link EmbeddingResponse}.* @param texts list of texts to embed.* @return the embedding response.*/default EmbeddingResponse embedForResponse(List<String> texts) {Assert.notNull(texts, "Texts must not be null");return this.call(new EmbeddingRequest(texts, EmbeddingOptions.EMPTY));}/*** @return the number of dimensions of the embedded vectors. It is generative* specific.*/default int dimensions() {return embed("Test String").size();}}
嵌入方法提供了将文本转换为嵌入、容纳单个字符串、结构化Document
对象或文本批次的各种选项。
为嵌入文本提供了多种快捷方法,包括方法embed(String text)
,该方法接受单个字符串并返回相应的嵌入向量。所有快捷方式都是围绕该call
方法实现的,该方法是调用嵌入模型的主要方法。
通常,嵌入会返回双精度列表,以数值向量格式表示嵌入。
该embedForResponse
方法提供了更全面的输出,可能包括有关嵌入的附加信息。
维度方法是帮助开发人员快速确定嵌入向量大小的便捷工具,这对于理解嵌入空间和后续处理步骤非常重要。
EmbeddingRequest
是EmbeddingRequest
一个ModelRequest
采用文本对象列表和可选嵌入请求选项的函数。以下列表显示了 EmbeddingRequest 类的截断版本,不包括构造函数和其他实用方法:
public class EmbeddingRequest implements ModelRequest<List<String>> {private final List<String> inputs;private final EmbeddingOptions options;// other methods omitted
}
EmbeddingResponse
该类的结构EmbeddingResponse
如下:
public class EmbeddingResponse implements ModelResponse<Embedding> {private List<Embedding> embeddings;private EmbeddingResponseMetadata metadata = new EmbeddingResponseMetadata();// other methods omitted
}
该类EmbeddingResponse
保存 AI 模型的输出,每个Embedding
实例包含来自单个文本输入的结果向量数据。
该EmbeddingResponse
类别还携带EmbeddingResponseMetadata
有关 AI 模型响应的元数据。
Embedding
代表Embedding
单个嵌入向量。
public class Embedding implements ModelResult<List<Double>> {private List<Double> embedding;private Integer index;private EmbeddingResultMetadata metadata;// other methods omitted
}
实现案例
内部,各种EmbeddingModel
实现使用不同的低级库和 API 来执行嵌入任务。以下是一些可用的实现EmbeddingModel
:
- Spring AI OpenAI Embeddings
- Spring AI Azure OpenAI Embeddings
- Spring AI Ollama Embeddings
- Spring AI Transformers (ONNX) Embeddings
- Spring AI PostgresML Embeddings
- Spring AI Bedrock Cohere Embeddings
- Spring AI Bedrock Titan Embeddings
- Spring AI VertexAI PaLM2 Embeddings
- Spring AI Mistral AI Embeddings
OpenAI 嵌入
Spring AI 支持 OpenAI 的文本嵌入模型。OpenAI 的文本嵌入可以测量文本字符串的相关性。嵌入是浮点数的向量(列表)。两个向量之间的距离可以测量它们的相关性。距离越小,相关性越高;距离越大,相关性越低。
先决条件
您需要使用 OpenAI 创建一个 API 来访问 OpenAI 嵌入模型。
在OpenAI 注册页面创建一个帐户,并在API 密钥页面生成令牌。Spring AI 项目定义了一个名为的配置属性spring.ai.openai.api-key
,您应该将其设置为从 openai.com 获取的值API Key
。导出环境变量是设置该配置属性的一种方法:
export SPRING_AI_OPENAI_API_KEY=<INSERT KEY HERE>
添加存储库和 BOM
Spring AI 工件已发布在 Spring Milestone 和 Snapshot 存储库中。请参阅存储库部分以将这些存储库添加到您的构建系统中。
为了帮助进行依赖项管理,Spring AI 提供了 BOM(物料清单),以确保在整个项目中使用一致版本的 Spring AI。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。
自动配置
Spring AI 为 Azure OpenAI 嵌入客户端提供 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai-spring-boot-starter'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
嵌入属性
重试属性
该前缀spring.ai.retry
用作属性前缀,可让您配置 OpenAI Embedding 客户端的重试机制。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.retry.max-attempts | 最大重试次数。 | 10 |
spring.ai.retry.backoff.initial-interval | 指数退避策略的初始睡眠持续时间。 | 2 sec. |
spring.ai.retry.backoff.multiplier | 退避间隔乘数。 | 5 |
spring.ai.retry.backoff.max-interval | 最大退避持续时间。 | 3 min. |
spring.ai.retry.on-client-errors | 如果为 false,则抛出 NonTransientAiException,并且不要尝试重试4xx 客户端错误代码 | false |
spring.ai.retry.exclude-on-http-codes | 不应触发重试的 HTTP 状态代码列表(例如抛出 NonTransientAiException)。 | empty |
spring.ai.retry.on-http-codes | 应触发重试的 HTTP 状态代码列表(例如抛出 TransientAiException)。 | empty |
连接属性
该前缀spring.ai.openai
用作允许您连接到 OpenAI 的属性前缀。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.base-url | 要连接的 URL | api.openai.com |
spring.ai.openai.api-key | API 密钥 | - |
配置属性
前缀是配置OpenAI 实现的spring.ai.openai.embedding
属性前缀。EmbeddingModel
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.embedding.enabled | 启用 OpenAI 嵌入模型。 | true |
spring.ai.openai.embedding.base-url | 可选覆盖 spring.ai.openai.base-url 以提供嵌入特定 url | - |
spring.ai.openai.embedding.api-key | 可选覆盖 spring.ai.openai.api-key 以提供嵌入特定的 api-key | - |
spring.ai.openai.embedding.metadata-mode | 文档内容提取模式。 | EMBED |
spring.ai.openai.embedding.options.model | 要使用的模型 | text-embedding-ada-002(其他选项:text-embedding-3-large、text-embedding-3-small) |
spring.ai.openai.embedding.options.encodingFormat | 返回嵌入的格式。可以是浮点数或 base64。 | - |
spring.ai.openai.embedding.options.user | 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。 | - |
spring.ai.openai.embedding.options.dimensions | 生成的输出嵌入应具有的维数。仅在text-embedding-3 及更高版本的模型中受支持。 | - |
您可以为和实现 覆盖通用spring.ai.openai.base-url
和。如果设置了和属性,则它们优先于通用属性。同样,如果设置了和属性,则它们优先于通用属性。如果您想为不同的模型和不同的模型端点使用不同的 OpenAI 帐户,这将非常有用。 spring.ai.openai.api-key``ChatModel``EmbeddingModel``spring.ai.openai.embedding.base-url``spring.ai.openai.embedding.api-key``spring.ai.openai.embedding.base-url``spring.ai.openai.embedding.api-key
通过在调用中添加请求特定的运行时选项,spring.ai.openai.embedding.options
可以在运行时覆盖 所有以 为前缀的属性。 EmbeddingRequest
运行时选项
OpenAiEmbeddingOptions.java提供 OpenAI 配置,例如要使用的模型等。
spring.ai.openai.embedding.options
也可以使用属性来配置默认选项。
在启动时使用OpenAiEmbeddingModel
构造函数设置用于所有嵌入请求的默认选项。在运行时,您可以使用实例OpenAiEmbeddingOptions
作为 的一部分来覆盖默认选项EmbeddingRequest
。
例如,要覆盖特定请求的默认模型名称:
EmbeddingResponse embeddingResponse = embeddingModel.call(new EmbeddingRequest(List.of("Hello World", "World is big and salvation is near"),OpenAiEmbeddingOptions.builder().withModel("Different-Embedding-Model-Deployment-Name").build()));
样品控制器
这将创建一个EmbeddingModel
可以注入到类中的实现。下面是一个@Controller
使用该EmbeddingModel
实现的简单类的示例。
spring.ai.openai.api-key=YOUR_API_KEY
spring.ai.openai.embedding.options.model=text-embedding-ada-002
@RestController
public class EmbeddingController {private final EmbeddingModel embeddingModel;@Autowiredpublic EmbeddingController(EmbeddingModel embeddingModel) {this.embeddingModel = embeddingModel;}@GetMapping("/ai/embedding")public Map embed(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {EmbeddingResponse embeddingResponse = this.embeddingModel.embedForResponse(List.of(message));return Map.of("embedding", embeddingResponse);}
}
手动配置
如果您不使用 Spring Boot,则可以手动配置 OpenAI Embedding Client。为此,将spring-ai-openai
依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
依赖项spring-ai-openai
还提供对的访问OpenAiChatModel
。有关的更多信息,请OpenAiChatModel
参阅OpenAI 聊天客户端部分。
接下来,创建一个OpenAiEmbeddingModel
实例并用它来计算两个输入文本之间的相似度:
var openAiApi = new OpenAiApi(System.getenv("OPENAI_API_KEY"));var embeddingModel = new OpenAiEmbeddingModel(openAiApi,MetadataMode.EMBED,OpenAiEmbeddingOptions.builder().withModel("text-embedding-ada-002").withUser("user-6").build(),RetryUtils.DEFAULT_RETRY_TEMPLATE);EmbeddingResponse embeddingResponse = embeddingModel.embedForResponse(List.of("Hello World", "World is big and salvation is near"));
提供OpenAiEmbeddingOptions
嵌入请求的配置信息。选项类提供了builder()
用于轻松创建选项的选项。
图像模型 API
该设计Spring Image Model API
旨在成为一个简单且可移植的接口,用于与各种专门用于图像生成的AI 模型进行交互,允许开发人员以最少的代码更改在不同的与图像相关的模型之间切换。这种设计符合 Spring 的模块化和可互换性理念,确保开发人员可以快速使其应用程序适应与图像处理相关的不同 AI 功能。
ImagePrompt
此外,借助输入封装和输出处理等配套类的支持ImageResponse
,图像模型 API 统一了与专用于图像生成的 AI 模型的通信。它管理请求准备和响应解析的复杂性,为图像生成功能提供直接且简化的 API 交互。
Spring Image Model API 建立在 Spring AI 之上Generic Model API
,提供特定于图像的抽象和实现。
API 概述
本节提供了 Spring Image Model API 接口和相关类的指南。
ImageModel
以下是ImageModel接口定义:
@FunctionalInterface
public interface ImageModel extends Model<ImagePrompt, ImageResponse> {ImageResponse call(ImagePrompt request);}
ImagePrompt
ImagePrompt封装了ImageMessage对象列表和可选模型请求选项。以下列表显示了该类的精简版本,不包括构造函数和其他实用方法:ModelRequest``ImagePrompt
public class ImagePrompt implements ModelRequest<List<ImageMessage>> {private final List<ImageMessage> messages;private ImageOptions imageModelOptions;@Overridepublic List<ImageMessage> getInstructions() {...}@Overridepublic ImageOptions getOptions() {...}// constructors and utility methods omitted
}
ImageMessage
该类ImageMessage
封装了要使用的文本以及文本对生成图像的影响应具有的权重。对于支持权重的模型,权重可以是正的,也可以是负的。
public class ImageMessage {private String text;private Float weight;public String getText() {...}public Float getWeight() {...}// constructors and utility methods omitted
}
ImageOptions
表示可以传递给图像生成模型的选项。该类ImageOptions
扩展了ModelOptions
接口,用于定义一些可以传递给 AI 模型的可移植选项。
该类ImageOptions
定义如下:
public interface ImageOptions extends ModelOptions {Integer getN();String getModel();Integer getWidth();Integer getHeight();String getResponseFormat(); // openai - url or base64 : stability ai byte[] or base64}
此外,每个特定于模型的 ImageModel 实现都可以有自己的选项,这些选项可以传递给 AI 模型。例如,OpenAI 图像生成模型有自己的选项,如quality
、style
等。
这是一个强大的功能,允许开发人员在启动应用程序时使用特定于模型的选项,然后在运行时使用覆盖它们ImagePrompt
。
ImageResponse
该类的结构ChatResponse
如下:
public class ImageResponse implements ModelResponse<ImageGeneration> {private final ImageResponseMetadata imageResponseMetadata;private final List<ImageGeneration> imageGenerations;@Overridepublic ImageGeneration getResult() {// get the first result}@Overridepublic List<ImageGeneration> getResults() {...}@Overridepublic ImageResponseMetadata getMetadata() {...}// other methods omitted}
ImageResponse类保存 AI 模型的输出,每个ImageGeneration
实例包含单个提示产生的多个潜在输出之一。
该ImageResponse
类别还携带ImageResponseMetadata
有关 AI 模型响应的元数据。
ImageGeneration
最后,ImageGeneration类从中扩展以ModelResult
表示有关此结果的输出响应和相关元数据:
public class ImageGeneration implements ModelResult<Image> {private ImageGenerationMetadata imageGenerationMetadata;private Image image;@Overridepublic Image getOutput() {...}@Overridepublic ImageGenerationMetadata getMetadata() {...}// other methods omitted}
实现案例
ImageModel
为以下模型提供程序提供了实现:
- OpenAI 图像生成
- 稳定性AI图像生成
API 文档
您可以在这里找到 Javadoc 。
OpenAI 图像生成
Spring AI 支持 OpenAI 的图像生成模型 DALL-E。
先决条件
您需要使用 OpenAI 创建 API 密钥才能访问 ChatGPT 模型。在OpenAI 注册页面创建一个帐户,并在API 密钥页面生成令牌。Spring AI 项目定义了一个名为的配置属性spring.ai.openai.api-key
,您应该将其设置为从 openai.com 获取的值API Key
。导出环境变量是设置该配置属性的一种方法:
export SPRING_AI_OPENAI_API_KEY=<INSERT KEY HERE>
自动配置
Spring AI 为 OpenAI 图像生成客户端提供了 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai-spring-boot-starter'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
图像生成属性
前缀是允许您配置OpenAI 实现的spring.ai.openai.image
属性前缀。ImageModel
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.image.enabled | 启用 OpenAI 图像模型。 | true |
spring.ai.openai.image.base-url | 可选覆盖 spring.ai.openai.base-url 以提供聊天特定的 url | - |
spring.ai.openai.image.api-key | 可选覆盖 spring.ai.openai.api-key 以提供聊天特定的 api-key | - |
spring.ai.openai.image.options.n | 要生成的图像数量。必须介于 1 到 10 之间。对于 dall-e-3,仅支持 n=1。 | - |
spring.ai.openai.image.options.model | 用于图像生成的模型。 | OpenAiImageApi.DEFAULT_IMAGE_MODEL |
spring.ai.openai.image.options.quality | 将生成的图像的质量。高清图像具有更精细的细节和更高的图像一致性。此参数仅支持 dall-e-3。 | - |
spring.ai.openai.image.options.response_format | 返回生成的图像的格式。必须是 URL 或 b64_json 之一。 | - |
spring.ai.openai.image.options.size | 所生成图像的大小。对于 dall-e-2,必须是 256x256、512x512 或 1024x1024 之一。对于 dall-e-3 模型,必须是 1024x1024、1792x1024 或 1024x1792 之一。 | - |
spring.ai.openai.image.options.size_width | 所生成图像的宽度。对于 dall-e-2,必须是 256、512 或 1024 之一。 | - |
spring.ai.openai.image.options.size_height | 所生成图像的高度。对于 dall-e-2,必须是 256、512 或 1024 之一。 | - |
spring.ai.openai.image.options.style | 生成图像的风格。必须是生动或自然之一。生动使模型倾向于生成超现实和戏剧性的图像。自然使模型生成更自然、不太超现实的图像。此参数仅支持 dall-e-3。 | - |
spring.ai.openai.image.options.user | 代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。 | - |
连接属性
该前缀spring.ai.openai
用作允许您连接到 OpenAI 的属性前缀。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.base-url | 要连接的 URL | api.openai.com |
spring.ai.openai.api-key | API 密钥 | - |
配置属性
重试属性
该前缀spring.ai.retry
用作属性前缀,可让您配置 OpenAI Image 客户端的重试机制。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.retry.max-attempts | 最大重试次数。 | 10 |
spring.ai.retry.backoff.initial-interval | 指数退避策略的初始睡眠持续时间。 | 2 sec. |
spring.ai.retry.backoff.multiplier | 退避间隔乘数。 | 5 |
spring.ai.retry.backoff.max-interval | 最大退避持续时间。 | 3 min. |
spring.ai.retry.on-client-errors | 如果为 false,则抛出 NonTransientAiException,并且不要尝试重试4xx 客户端错误代码 | false |
spring.ai.retry.exclude-on-http-codes | 不应触发重试的 HTTP 状态代码列表(例如抛出 NonTransientAiException)。 | empty |
spring.ai.retry.on-http-codes | 应触发重试的 HTTP 状态代码列表(例如抛出 TransientAiException)。 | empty |
运行时选项
OpenAiImageOptions.java提供模型配置,例如要使用的模型、质量、尺寸等。
启动时,可以使用OpenAiImageModel(OpenAiImageApi openAiImageApi)
构造函数和withDefaultOptions(OpenAiImageOptions defaultOptions)
方法配置默认选项。或者,使用spring.ai.openai.image.options.*
前面描述的属性。
在运行时,您可以通过向调用添加新的、特定于请求的选项来覆盖默认选项ImagePrompt
。例如,要覆盖 OpenAI 特定选项(如质量和要创建的图像数量),请使用以下代码示例:
ImageResponse response = openaiImageModel.call(new ImagePrompt("A light cream colored mini golden doodle",OpenAiImageOptions.builder().withQuality("hd").withN(4).withHeight(1024).withWidth(1024).build()));
除了模型特定的OpenAiImageOptions之外,您还可以使用通过ImageOptionsBuilder#builder()创建的可移植ImageOptions实例。
音频模型 API
OpenAI 转录
Spring AI 支持OpenAI 的转录模型。
先决条件
您需要使用 OpenAI 创建 API 密钥才能访问 ChatGPT 模型。在OpenAI 注册页面创建一个帐户,并在API 密钥页面生成令牌。Spring AI 项目定义了一个名为的配置属性spring.ai.openai.api-key
,您应该将其设置为从 openai.com 获取的值API Key
。导出环境变量是设置该配置属性的一种方法:
自动配置
Spring AI 为 OpenAI 图像生成客户端提供了 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai-spring-boot-starter'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
转录属性
该前缀spring.ai.openai.audio.transcription
用作属性前缀,可让您配置 OpenAI 图像模型的重试机制。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.audio.transcription.options.model | 要使用的模型的 ID。目前只有 whisper-1(由我们的开源 Whisper V2 模型提供支持)可用。 | whisper-1 |
spring.ai.openai.audio.transcription.options.response-format | 输出的格式,可以是以下选项之一:json、text、srt、verbose_json 或 vtt。 | json |
spring.ai.openai.audio.transcription.options.prompt | 可选文本,用于指导模特的风格或继续之前的音频片段。提示应与音频语言相匹配。 | |
spring.ai.openai.audio.transcription.options.language | 输入音频的语言。以 ISO-639-1 格式提供输入语言将提高准确性并减少延迟。 | |
spring.ai.openai.audio.transcription.options.temperature | 采样温度,介于 0 和 1 之间。较高的值(如 0.8)会使输出更加随机,而较低的值(如 0.2)会使输出更加集中和确定。如果设置为 0,模型将使用对数概率自动增加温度,直到达到某些阈值。 | 0 |
spring.ai.openai.audio.transcription.options.timestamp_granularities | 此转录要填充的时间戳粒度。response_format 必须设置为 verbose_json 才能使用时间戳粒度。支持以下任一选项或两个选项:word 或segment。注意:segment 时间戳没有额外的延迟,但生成 word 时间戳会产生额外的延迟。 | segment |
运行时选项
该类OpenAiAudioTranscriptionOptions
提供转录时要使用的选项。启动时,spring.ai.openai.audio.transcription
将使用指定的选项,但您可以在运行时覆盖这些选项。
例如:
OpenAiAudioApi.TranscriptResponseFormat responseFormat = OpenAiAudioApi.TranscriptResponseFormat.VTT;OpenAiAudioTranscriptionOptions transcriptionOptions = OpenAiAudioTranscriptionOptions.builder().withLanguage("en").withPrompt("Ask not this, but ask that").withTemperature(0f).withResponseFormat(responseFormat).build();
AudioTranscriptionPrompt transcriptionRequest = new AudioTranscriptionPrompt(audioFile, transcriptionOptions);
AudioTranscriptionResponse response = openAiTranscriptionModel.call(transcriptionRequest);
手动配置
将spring-ai-openai
依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件。
dependencies {implementation 'org.springframework.ai:spring-ai-openai'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
接下来,创建一个OpenAiAudioTranscriptionModel
var openAiAudioApi = new OpenAiAudioApi(System.getenv("OPENAI_API_KEY"));var openAiAudioTranscriptionModel = new OpenAiAudioTranscriptionModel(openAiAudioApi);var transcriptionOptions = OpenAiAudioTranscriptionOptions.builder().withResponseFormat(TranscriptResponseFormat.TEXT).withTemperature(0f).build();var audioFile = new FileSystemResource("/path/to/your/resource/speech/jfk.flac");AudioTranscriptionPrompt transcriptionRequest = new AudioTranscriptionPrompt(audioFile, transcriptionOptions);
AudioTranscriptionResponse response = openAiTranscriptionModel.call(transcriptionRequest);
示例代码
- OpenAiTranscriptionModelIT.java测试提供了一些如何使用该库的一般示例。
OpenAI 文本转语音 (TTS) 集成
介绍
音频 API 提供了基于 OpenAI 的 TTS(文本转语音)模型的语音端点,使用户能够:
- 叙述一篇书面博客文章。
- 制作多种语言的音频。
- 使用流媒体提供实时音频输出。
先决条件
- 创建 OpenAI 帐户并获取 API 密钥。您可以在OpenAI 注册页面注册,并在API 密钥页面生成 API 密钥。
- 将依赖项添加
spring-ai-openai
到项目的构建文件中。有关更多信息,请参阅依赖项管理部分。
自动配置
Spring AI 为 OpenAI 文本转语音客户端提供 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件:
dependencies {implementation 'org.springframework.ai:spring-ai-openai-spring-boot-starter'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
TTS 属性
该前缀spring.ai.openai.audio.speech
用作属性前缀,可让您配置 OpenAI 文本到语音客户端。
属性 | 描述 | 默认 |
---|---|---|
spring.ai.openai.audio.speech.options.model | 要使用的模型的 ID。目前只有 tts-1 可用。 | tts-1 |
spring.ai.openai.audio.speech.options.voice | 用于 TTS 输出的语音。可用选项有:alloy、echo、fable、onyx、nova 和 shimmer。 | alloy |
spring.ai.openai.audio.speech.options.response-format | 音频输出的格式。支持的格式有 mp3、opus、aac、flac、wav 和 pcm。 | mp3 |
spring.ai.openai.audio.speech.options.speed | 语音合成的速度。可接受的范围是 0.0(最慢)到 1.0(最快)。 | 1.0 |
运行时选项
该类OpenAiAudioSpeechOptions
提供发出文本转语音请求时要使用的选项。启动时,spring.ai.openai.audio.speech
将使用指定的选项,但您可以在运行时覆盖这些选项。
例如:
OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder().withModel("tts-1").withVoice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY).withResponseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3).withSpeed(1.0f).build();SpeechPrompt speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);
手动配置
将spring-ai-openai
依赖项添加到项目的 Mavenpom.xml
文件中:
<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-openai</artifactId>
</dependency>
或者你的 Gradlebuild.gradle
构建文件:
dependencies {implementation 'org.springframework.ai:spring-ai-openai'
}
请参阅依赖管理部分,将 Spring AI BOM 添加到您的构建文件中。
接下来,创建一个OpenAiAudioSpeechModel
:
var openAiAudioApi = new OpenAiAudioApi(System.getenv("OPENAI_API_KEY"));var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);var speechOptions = OpenAiAudioSpeechOptions.builder().withResponseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3).withSpeed(1.0f).withModel(OpenAiAudioApi.TtsModel.TTS_1.value).build();var speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);// Accessing metadata (rate limit info)
OpenAiAudioSpeechResponseMetadata metadata = response.getMetadata();byte[] responseAsBytes = response.getResult().getOutput();
流式传输实时音频
Speech API 使用块传输编码支持实时音频流。这意味着可以在生成完整文件并使其可访问之前播放音频。
var openAiAudioApi = new OpenAiAudioApi(System.getenv("OPENAI_API_KEY"));var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder().withVoice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY).withSpeed(1.0f).withResponseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3).withModel(OpenAiAudioApi.TtsModel.TTS_1.value).build();SpeechPrompt speechPrompt = new SpeechPrompt("Today is a wonderful day to build something people love!", speechOptions);Flux<SpeechResponse> responseStream = openAiAudioSpeechModel.stream(speechPrompt);
示例代码
- OpenAiSpeechModelIT.java测试提供了一些如何使用该库的一般示例。
相关文章:
Spring AI探索
Spring AI概述 该Spring AI项目旨在简化包含人工智能功能的应用程序的开发,避免不必要的复杂性。 该项目从著名的 Python 项目(例如 LangChain 和 LlamaIndex)中汲取灵感,但 Spring AI 并非这些项目的直接移植。该项目的成立基于…...
【代码随想录算法训练Day39】LeetCode 62.不同路径、LeetCode 63.不同路径II
Day39 动态规划第二天 LeetCode 62.不同路径 二维dp数组的含义:走到位置为(i,j)的格子的走法为dp[i][j]种。 递推公式:dp[i][j]dp[i-1][j]dp[i][j-1]。 初始化:dp[i][0]和dp[0][j]都赋值为1. 递归顺序:从左往右,从上…...
浙大版PTA Python程序设计 题目与知识点整理(综合版)
目录 第一章 一、高级语言程序的执行方式 二、变量赋值与内存地址 三、字符编码 3.1 Unicode 3.2 ASCII(American Standard Code for Information Interchange) 四、编程语言分类按照编程范式分类 4.1 面向过程语言 4.2 面向对象语言 五、原码…...
HTML表单深度解析:构建互动的网页界面
表单是HTML中用于收集用户输入信息的重要元素,是网页与用户交互的关键组件。以下是一个典型的HTML表单示例,我们将会详细解析其中的各个元素及属性含义。 <form action"https://xx.xxx.xx/search" target"_self" method"ge…...
git 分支管理规范
分支命名 master 分支 master 为主分支,也是用于部署生产环境的分支,需要确保master分支稳定性。master 分支一般由 release 以及 hotfix 分支合并,任何时间都不能直接修改代码。 develop 分支 develop 为开发环境分支,始终保持…...
Spring Cloud Gateway 详解:构建高效的API网关解决方案
Spring Cloud Gateway 详解:构建高效的API网关解决方案 Spring Cloud Gateway 是 Spring Cloud 生态系统中用于构建 API 网关的核心组件。它基于 Spring WebFlux 构建,旨在提供简单且有效的方式来路由和增强 API 请求。以下是 Spring Cloud Gateway 的详…...
基于Quartus Prime18.1的安装与FPGA的基础仿真教程
Quartus是一种美国科技公司Intel(英特尔)公司开发的FPGA(现场可编辑门阵列)设计编译软件,用作设计、仿真、综合和布局、支持多种编程语言,包括VHDL、Verilog等,并具有丰富的功能和工具库&#x…...
AJAX 和 XML:现代 Web 开发的关键技术
AJAX 和 XML:现代 Web 开发的关键技术 引言 在当今的 Web 开发领域,AJAX 和 XML 是两项至关重要的技术。AJAX(Asynchronous JavaScript and XML)允许网页在不重新加载整个页面的情况下,与服务器交换数据和更新部分网页内容。而 XML(eXtensible Markup Language)则是一…...
vue实现图片预览
在 Vue 中实现图片预览功能,通常涉及监听文件输入的变化,并在用户选择文件后,使用 FileReader API 来读取文件内容,然后显示这个内容作为图片的预览。以下是一个简单的 Vue 组件示例,它实现了图片预览功能:…...
C语言入门系列:流程控制
一,C代码执行顺序 默认情况下,C语言程序从main()函数开始执行,随后按源代码中语句出现的顺序逐一执行。 这意味着,如果不考虑任何控制结构,程序会自上而下,逐行执行每条语句,直到遇到函数调用…...
【深度学习】NLP,Transformer讲解,代码实战
文章目录 1. 前言2. Transformer结构训练过程1. 输入嵌入和位置编码2. 编码器层2.1 单头的注意力机制(便于理解)2.2 多头的注意力机制(Transformer真实使用的)2.3 残差连接和层归一化2.4 前馈神经网络(FFN)2.5 残差连接和层归一化2.6 总结 3. 解码器层 推…...
ES6 .entries用法
.entries() 返回数组的可迭代对象itarator,可以通过for of 来遍历数组或对象的值。但是它们的写法不一样。 数组用法 obj [apple,bananer,orange] for(let [i,v] of obj.entries()){console.log(i)console.log(v) } //输出 // 0 // apple // 1 // bananer // 2 //orange对象…...
【LeetCode 动态规划】买卖股票的最佳时机问题合集
文章目录 1. 买卖股票的最佳时机含冷冻期 1. 买卖股票的最佳时机含冷冻期 题目链接🔗 🍎题目思路: 🍎题目代码: class Solution { public:int maxProfit(vector<int>& prices) {int n prices.size();ve…...
python学习:语法(2)
目录 对象的布尔值 分支结构 双分支结构 多分支结构 嵌套if的使用 条件表达式 Pass语句 range()函数的使用 流程控制语句 对象的布尔值 Python一切皆对象,所有对象都有一个布尔值,通过内置函数bool()获取对象的布尔值 这些…...
经典电源电路基础(变压-整流-滤波-稳压)
1.电源电路的功能和组成 电子电路中的电源一般是低压直流电,先把220v交流电变换成低压直流电,再用整流电路变成脉动的直流电,最后用滤波电路滤除掉脉动直流中的交流成分后才能得到直流电。有的电子设备对电源的质量要求很高,所以…...
生成式人工智能备案办理指南,深度解析大模型备案全流程
早在2023年年初,国家互联网信息办公室、工业和信息化部、公安部针对深度合成服务制定的《互联网信息服务深度合成管理规定》(“《深度合成管理规定》”)顺利施行,其明确了深度合成服务相关方的义务与主体责任,强化了对…...
1527. 患某种疾病的患者
1527. 患某种疾病的患者 题目链接:1527. 患某种疾病的患者 代码如下: # Write your MySQL query statement below select patient_id,patient_name,conditions from Patients where conditions like "DIAB1%" or conditions like "% DI…...
【C/C++】【学生成绩管理系统】深度剖析
可接各类C/C管理系统课设 目录 实现功能 部分1:系统设置和主菜单 1. 引入头文件 2. 定义结构体 3. 函数声明 4. 主函数 部分2:添加学生信息 部分3:删除学生信息 部分4:修改学生信息 部分5:查询学生信息 部分…...
C++作业第四天
#include <iostream> using namespace std; class Per { private: string name; int age; int *high; double *weight; public: //构造函数 Per() { cout << "Per的无参构造" << endl; } Per(str…...
设计模式之工厂方法模式(Factory Method Pattern)
目录 1.1、前言1.2、工厂方法模式简介1.2.1、工厂方法模式的主要特点1.2.2、工厂方法模式的主要结构1.2.3、使用工厂方法模式的好处 1.3、SpringBoot中那些场景使用了工厂方法模式1.4、日常工作中那些业务场景可以使用工厂方法模式1.5、工厂方法模式实战(以某商场一…...
API接口设计的18条规范
API接口设计的18条规范 签名 目的:防止数据被篡改 实现方法: 接口请求方将请求参数、时间戳和密钥拼接成一个字符串使用MD5等hash算法生成签名sign在请求参数或请求头中增加sign参数,传递给API接口API接口网关服务验证传递的sign值&#…...
adb简单使用命令
1. 查看当前连接的设备 adb devices 2. 文件路径 adb install apk 注意文件路径中不能有中文 3. adb shell ps Toplogcatlogcat可以结合greplogcat *:w 显示警告级别以上de 4. adb uninstall 软件名 1.软件名如何查看? 使用命令adb shell pm list packages会…...
构建 deno/fresh 的 docker 镜像
众所周知, 最近 docker 镜像的使用又出现了新的困难. 但是不怕, 窝们可以使用曲线救国的方法: 自己制作容器镜像 ! 下面以 deno/fresh 举栗, 部署一个简单的应用. 目录 1 创建 deno/fresh 项目2 构建 docker 镜像3 部署和测试4 总结与展望 1 创建 deno/fresh 项目 执行命令…...
数据库 | 数据库设计的步骤
1.需求分析 调查机构情况与熟悉业务活动,明确用户的需求,确定系统的边界,生成数据字典和用户需求规格说明书 2.概念结构设计 将从需求分析中得到的用户需求抽象为概念模型,设计E-R模型 3.逻辑结构设计 将E-R图转换为和DBMS相…...
改进YOLO系列 | CVPR 2021 | Involution:超越convolution和self-attention的神经网络算子
Involution:超越卷积和自注意力的新型神经网络算子(中文综述) 简介 Involuton是CVPR 2021上提出的新型神经网络算子,旨在超越卷积和自注意力,提供更高效、更具表达力的特征提取能力。 Involution原理 Involution的…...
落地速度与效果之争,通用VS垂直,我的观点和预测。
标题:AI大模型战场:通用VS垂直,谁将领跑落地新纪元? 摘要:随着人工智能技术的飞速发展,大模型的应用场景日益广泛。在这场竞赛中,通用大模型和垂直大模型各有优势,落地速度和可能性也…...
【Android面试八股文】在Android中,出现ClassNotFound的有可能的原因是什么?
在Android环境下类未找到的可能原因 在Android环境下,类未找到的可能原因包括但不限于以下几点: 类路径问题:Android应用使用的类通常存储在APK文件中。如果类所在的APK文件没有被正确加载,或者应用的类路径配置有误,就会导致类未找到的错误。 多DEX文件加载问题:在一些…...
模板引擎与 XSS 防御
在 View 层,可以解决 XSS 问题。在本书的“跨站脚本攻击”一章中,阐述了“输入检查” 与“输出编码”这两种方法在 XSS 防御效果上的差异。XSS 攻击是在用户的浏览器上执行的, 其形成过程则是在服务器端页面渲染时,注入了恶意的 H…...
vue3轮播图怎么做
先看效果 实现代码 <n-carouseleffect"card"dot-type"line"draggable:autoplay"!isHovered":current-index"currentIndex"prev-slide-style"transform: translateX(-150%) translateZ(-450px);opacity:1"next-slide-st…...
ubuntu中安装docker并换源
使用 Ubuntu 的仓库安装 Docker sudo apt update现在,你可以使用以下命令在 Ubuntu 中安装 Docker 以及 Docker Compose: sudo apt install docker.io docker-composeDocker 包被命名为 docker.io,因为在 Docker 出现之前就已经存在一个名为…...
树莓派wordpress速度如何/google广告投放
2019年中国振动测试设备市场规模达到了XX亿元,预计2026年可以达到XX亿元,未来几年年复合增长率(CAGR)为XX%。本报告研究中国市场振动测试设备的生产、消费及进出口情况,重点关注在中国市场扮演重要角色的全球及本土振动测试设备生产商&#x…...
招聘网站比对表怎么做/网站排名seo培训
本文转自:http://www.cnblogs.com/henw/archive/2011/09/23/2186387.html 1. 需要引用的类库 ?1234using System.Net; using System.IO; using System.Text; using System.Text.RegularExpressions;2. 获取其他网站网页内容的关键代码 ?12345WebRequest request …...
艺术字体转换器/新区快速seo排名
1、监理单位的体系建设分为哪3部分?答:①业务体系建设、②质保体系建设、③管理体系建设2、监理单位监理服务质量管理的方式有2种,哪2种?优缺点是什么?答:①以单位管理、②以监理项目部自我管理单位管理的优…...
wordpress 摘要函数/网站建设黄页视频
本文讲的是阿里云已成国内最大金融云服务提供商?【IT168 云计算】“目前,阿里金融云服务了超过2000家金融机构,其中包括几十家银行、50多家保险公司、70多家证券公司和千余家互联网金融机构。” 阿里金融云总经理徐敏表示,阿里金融…...
网站开发架构mvc/优化推广方案
花火网消息,如果你有4000元左右的预算,你会选择什么国产手机呢?近年来一加和华为其实在海外市场都得难分难解,尤其是今年一加7TPro和华为mate30Pro,更是引发了北美市场消费者的抢购,那么究竟这两款手机谁更好一些呢?…...
网站开发网页/宁波seo网页怎么优化
随着分布式技术的发展,MQ技术产品也出现井喷。目前除了各类常用的MQ,比如Apache的ActiveMQ,Kafka,Pulsar,RocketMQ(既是Apache,也是阿里的,头条也是基于RocketMQ)&#x…...