您好,登录后才能下订单哦!
本篇内容主要讲解“Prompt工具PromptLayer如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Prompt工具PromptLayer如何使用”吧!
我们基于gpt开发的时候,其实调试prompt的时间占比的很大的,90%的时间花在prompt调试也不过分。今天给大家介绍一个最近在使用上来比较好的Prompt工具,开发起来简单,功能非常实用。
它就是:promptlayer.com/
PromptLayer 是一个开发工具,可让您跟踪、管理和共享 GPT 提示工程。它充当您的代码和 OpenAI 的 python 库之间的中间件,记录您的所有 API 请求并保存相关元数据,以便在 PromptLayer 仪表板中轻松浏览和搜索。
PromptLayer 通过包装您的 OpenAI API 请求并在发送后记录有关它们的数据来工作。这一切都在您的机器上完成,您的 API 密钥永远不会发送。这意味着它不会干扰您现有代码库的功能,也不需要对您的应用程序架构进行任何更改。您需要做的就是将 PromptLayer 作为附加组件添加到您现有的 LLM 应用程序中,然后像往常一样开始发出请求。
当您发出 OpenAI API 请求时,PromptLayer 会记录它们并保存相关元数据,例如使用的提示、返回的响应以及传递的任何其他参数。此数据由 PromptLayer 存储,可以通过 PromptLayer 仪表板轻松访问。
PromptLayer 的一些主要功能包括:
API 请求日志记录: PromptLayer 记录您所有的 OpenAI API 请求,允许您在 PromptLayer 仪表板中搜索和探索请求历史记录。
元数据跟踪: 在后台,PromptLayer在请求发出后记录每个 OpenAI 请求,保存相关元数据,例如使用的提示、返回的响应以及传递的任何其他参数。
易于集成: PromptLayer 是现有 LLM 应用程序的附加组件,无需更改应用程序的体系结构。
专为生产而设计: PromptLayer 旨在帮助维护生产中的 LLM 并协助开发过程。它是产品就绪的,即使失败也不会干扰您的应用程序的功能。
协作: PromptLayer 允许您与他人分享您的提示工程,从而轻松地与队友协作项目或与更广泛的社区分享您的工作。
安装
pip install promptlayer
导入,并重新赋值openai = promptlayer.openai
,官方文档上是说:所有 OpenAI 请求都是从您的机器本地发出的,PromptLayer 只是记录请求
import promptlayer promptlayer.api_key = "<YOUR PromptLayer API KEY pl_xxxxxx>" openai = promptlayer.openai
跟原生的openai调用一样,使用create创建,区别是pl_tags
是你在promptlayer创建的标签
openai.Completion.create( engine="text-ada-001", prompt="My name is", pl_tags=["name-guessing", "pipeline-2"] )
完整代码如下:
import promptlayer import os promptlayer.api_key = os.environ.get("PROMPTLAYER_API_KEY") openai=promptlayer.openai openai.api_key = os.environ.get("OPENAI_API_KEY") openai.Completion.create( engine="text-ada-001", prompt="My name is", pl_tags=["name-guessing", "pipeline-2"] )
导入
import os from langchain.chat_models import PromptLayerChatOpenAI from langchain.schema import HumanMessage
设置PROMPTLAYER_API_KEY
os.environ["PROMPTLAYER_API_KEY"] = "**********"
使用
chat = PromptLayerChatOpenAI(pl_tags=["langchain"]) chat([HumanMessage(content="I am a cat and I want")])
import requests request_response = requests.post( "https://api.promptlayer.com/rest/track-request", json={ "function_name": "openai.Completion.create", // kwargs will need messages if using chat-based completion "kwargs": {"engine": "text-ada-001", "prompt": "My name is"}, "tags": ["hello", "world"], "request_response": {"id": "cmpl-6TEeJCRVlqQSQqhD8CYKd1HdCcFxM", "object": "text_completion", "created": 1672425843, "model": "text-ada-001", "choices": [{"text": " advocacy"\n\nMy name is advocacy.", "index": 0, "logprobs": None, "finish_reason": "stop"}]}, "request_start_time": 1673987077.463504, "request_end_time": 1673987077.463504, "prompt_id": "<PROMPT ID>", "prompt_input_variables": "<Dictionary of variables for prompt>" "api_key": "pl_<YOUR API KEY>", }, )
参数:
api_key
function_name
— 函数的名称。它应该是以下之一openai.Completion.create
,或者openai.ChatCompletion.create
我们使用它来知道如何正确解析响应
kwargs
— 传递给 OpenAI API 的关键字参数。通常它至少应该包括engine
。prompt
如果您使用的是聊天完成或 GPT-4,它应该包含messages
而不是prompt
.
request_response
— OpenAI 的回应(他们是如何把它还给你的)
request_start_time
— 你开始向 OpenAI 发出请求的时间
request_end_time
— 你结束对 OpenAI 的请求的时间
tags
— 可选的字符串标签数组,用于在 PL 仪表板上标记此请求
prompt_id
— 可选的您用于此请求的 PL 注册表中提示的 ID(请参阅get-prompt-template
如何获取此 ID,或者您可以从仪表板中的 URL 获取它)
prompt_input_variables
— 可选的用于模板的输入变量。这用于语法突出显示,更重要的是,用于在您想要迭代提示时进行回测。
到此,相信大家对“Prompt工具PromptLayer如何使用”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。