一級(jí)a做愛(ài)視頻網(wǎng)站互聯(lián)網(wǎng)推廣方案
GPT實(shí)戰(zhàn)系列-一種構(gòu)建LangChain自定義Tool工具的簡(jiǎn)單方法
LLM大模型:
GPT實(shí)戰(zhàn)系列-探究GPT等大模型的文本生成
GPT實(shí)戰(zhàn)系列-Baichuan2等大模型的計(jì)算精度與量化
GPT實(shí)戰(zhàn)系列-GPT訓(xùn)練的Pretraining,SFT,Reward Modeling,RLHF
GPT實(shí)戰(zhàn)系列-ChatGLM3本地部署CUDA11+1080Ti+顯卡24G實(shí)戰(zhàn)方案
GPT實(shí)戰(zhàn)系列-Baichuan2本地化部署實(shí)戰(zhàn)方案
GPT實(shí)戰(zhàn)系列-大話LLM大模型訓(xùn)練
隨著OpenAI的GPT-4這樣的大型語(yǔ)言模型(LLMs)已經(jīng)風(fēng)靡全球,現(xiàn)在讓它們自動(dòng)執(zhí)行各種任務(wù),如回答問(wèn)題、翻譯語(yǔ)言、分析文本等。LLMs是在交互上真正體驗(yàn)到像“人工智能”。
如何管理這些模塊呢?
LangChain在這方面發(fā)揮重要作用。LangChain使構(gòu)建由LLMs驅(qū)動(dòng)的應(yīng)用程序變得簡(jiǎn)單,使用LangChain,可以在統(tǒng)一的界面中輕松與不同類型的LLMs進(jìn)行交互,管理模型版本,管理對(duì)話版本,并將LLMs連接在一起。
from langchain.llms import OpenAI
llm = OpenAI(openai_api_key="...")
用@tool 構(gòu)建自定義的tools
LangChain可以連接到自己定義的工具,也可以連接到內(nèi)嵌的tool提供商。這里介紹一種簡(jiǎn)單的構(gòu)造方法。
定義引用需要用的模塊:
from langchain.pydantic_v1 import BaseModel, Field
from langchain.tools import BaseTool, StructuredTool, tool
自帶的工具并不能解決我們面臨的問(wèn)題,就需要自己構(gòu)造自己的tools,怎么構(gòu)造呢?
tool裝飾器是一種簡(jiǎn)單的方法,工具的name就是函數(shù)名稱,以下你可以看到tool需要的參數(shù)。
定義一個(gè)簡(jiǎn)單返回字符串的搜索工具,為了簡(jiǎn)單起見(jiàn),并沒(méi)有實(shí)現(xiàn)真正搜索。
# 使用tool裝飾器
@tool
def search(query: str) -> str:""" Look up things online."""return "Wellcome LangChain! This is a search tool example."print(search.name)
print(search.description)
print(search.args)
這會(huì)得到類似這樣的輸出,表明工具的屬性參數(shù):
search
search(query: str) -> str - Look up things online.
{'query': {'title': 'Query', 'type': 'string'}}
當(dāng)我們測(cè)試工具時(shí),例如隨便輸入字符串:
print(search.invoke("test"))
都得到類似的輸出:
Wellcome LangChain! This is a search tool example.
LangChain是一個(gè)Python框架,可以使用LLMs構(gòu)建應(yīng)用程序。它與各種模塊連接,使與LLM和提示管理,一切變得簡(jiǎn)單。
覺(jué)得有用 收藏 收藏 收藏
點(diǎn)個(gè)贊 點(diǎn)個(gè)贊 點(diǎn)個(gè)贊
End
GPT專欄文章:
GPT實(shí)戰(zhàn)系列-ChatGLM3本地部署CUDA11+1080Ti+顯卡24G實(shí)戰(zhàn)方案
GPT實(shí)戰(zhàn)系列-LangChain + ChatGLM3構(gòu)建天氣查詢助手
大模型查詢工具助手之股票免費(fèi)查詢接口
GPT實(shí)戰(zhàn)系列-簡(jiǎn)單聊聊LangChain
GPT實(shí)戰(zhàn)系列-大模型為我所用之借用ChatGLM3構(gòu)建查詢助手
GPT實(shí)戰(zhàn)系列-P-Tuning本地化訓(xùn)練ChatGLM2等LLM模型,到底做了什么?(二)
GPT實(shí)戰(zhàn)系列-P-Tuning本地化訓(xùn)練ChatGLM2等LLM模型,到底做了什么?(一)
GPT實(shí)戰(zhàn)系列-ChatGLM2模型的微調(diào)訓(xùn)練參數(shù)解讀
GPT實(shí)戰(zhàn)系列-如何用自己數(shù)據(jù)微調(diào)ChatGLM2模型訓(xùn)練
GPT實(shí)戰(zhàn)系列-ChatGLM2部署Ubuntu+Cuda11+顯存24G實(shí)戰(zhàn)方案
GPT實(shí)戰(zhàn)系列-Baichuan2本地化部署實(shí)戰(zhàn)方案
GPT實(shí)戰(zhàn)系列-Baichuan2等大模型的計(jì)算精度與量化
GPT實(shí)戰(zhàn)系列-GPT訓(xùn)練的Pretraining,SFT,Reward Modeling,RLHF
GPT實(shí)戰(zhàn)系列-探究GPT等大模型的文本生成-CSDN博客