首页 前端知识 ChatPromptTemplate的使用

ChatPromptTemplate的使用

2025-03-23 11:03:20 前端知识 前端哥 954 568 我要收藏

ChatPromptTemplate 是 LangChain 中专门用于管理多角色对话结构的提示词模板工具。它的核心价值在于,开发者可以预先定义不同类型的对话角色消息(如系统指令、用户提问、AI历史回复),并通过数据绑定动态生成完整对话上下文。

1.角色消息模板化

为每类对话角色设置预设的消息格式,支持动态变量插值:

from langchain_core.prompts import ChatPromptTemplate
template = ChatPromptTemplate.from_messages([
("system", "你是一个{topic}领域的专家"), # 系统指令,可替换topic变量
("user", "{query}"), # 用户提问内容占位符
("assistant", "好的,我会仔细思考这个问题"), # 预置AI回复样本
("human", "请继续分析以下内容:{input}") # 新用户信息输入
])
复制

2.动态参数注入

通过字典传入变量值,自动生成完整对话结构:

prompt = template.format_messages(
topic="量子物理",
query="如何解释量子纠缠现象?",
input="量子纠缠与时空结构的关系是什么"
)
复制

3.关联模型调用链路

搭配模型组成处理链条,可直接生成响应:

chain = template | llm # llm为语言模型实例
response = chain.invoke({
"topic": "编程教学",
"query": "如何学习Python?",
"input": "推荐具体的学习路径"
})
复制

演示:

转载请注明出处或者链接地址:https://www.qianduange.cn//article/24360.html
标签
评论
发布的文章

【Linux笔记】基础IO(上)

2025-03-27 13:03:40

大家推荐的文章
会员中心 联系我 留言建议 回顶部
浏览器升级提示:您的浏览器版本较低,建议您立即升级为知了极速浏览器,极速、安全、简约,上网速度更快!立即下载
复制成功!