Kako koristiti memoriju u LLMChainu kroz LangChain?

Kako Koristiti Memoriju U Llmchainu Kroz Langchain



LangChain je okvir koji se može koristiti za uvoz biblioteka i ovisnosti za izgradnju velikih jezičnih modela ili LLM-ova. Jezični modeli koriste memoriju za pohranjivanje podataka ili povijesti u bazu podataka kao opažanja kako bi dobili kontekst razgovora. Memorija je konfigurirana za pohranjivanje najnovijih poruka tako da model može razumjeti dvosmislene upite koje daje korisnik.

Ovaj blog objašnjava postupak korištenja memorije u LLMChainu kroz LangChain.







Kako koristiti memoriju u LLMChainu kroz LangChain?

Za dodavanje memorije i korištenje u LLMChainu putem LangChaina, biblioteka ConversationBufferMemory može se koristiti uvozom iz LangChaina.



Da biste naučili postupak korištenja memorije u LLMChainu kroz LangChain, prođite kroz sljedeći vodič:



Korak 1: Instalirajte module

Prvo pokrenite proces korištenja memorije instaliranjem LangChaina pomoću naredbe pip:





pip instalirati langchain

Instalirajte module OpenAI kako biste dobili njegove ovisnosti ili biblioteke za izgradnju LLM-ova ili modela chata:



pip instaliraj openai

Postavite okruženje za OpenAI koristeći svoj API ključ uvozom biblioteka os i getpass:

uvezi nas
import getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API ključ:')

Korak 2: Uvoz biblioteka

Nakon postavljanja okruženja jednostavno uvezite biblioteke poput ConversationBufferMemory iz LangChaina:

iz langchain.chains import LLMChain
iz langchain.llms uvozi OpenAI

iz langchain.memory import ConversationBufferMemory

from langchain.prompts import PromptTemplate

Konfigurirajte predložak za prompt koristeći varijable kao što je 'input' za dobivanje upita od korisnika i 'hist' za pohranu podataka u međuspremnik:

predložak = '''Vi ste model koji razgovara s čovjekom

{hist}
Čovjek: {input}
Chatbot:'''

prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
memorija = ConversationBufferMemory(memory_key='hist')

Korak 3: Konfiguriranje LLM-a

Nakon što se izradi predložak za upit, konfigurirajte metodu LLMChain() koristeći više parametara:

llm = OpenAI()
llm_lanac = LLMClanac(
llm=llm,
prompt=prompt,
verbose=Istina,
memory=memorija,
)

Korak 4: Testiranje LLMChaina

Nakon toga testirajte LLMChain pomoću ulazne varijable da biste dobili upit od korisnika u tekstualnom obliku:

llm_chain.predict(input='Bok prijatelju')

Upotrijebite drugi unos za dobivanje podataka pohranjenih u memoriji za izdvajanje izlaza pomoću konteksta:

llm_chain.predict(input='Dobro! Ja sam dobro - kako si')

Korak 5: Dodavanje memorije modelu razgovora

Memorija se može dodati u LLMChain koji se temelji na modelu chata uvozom biblioteka:

iz langchain.chat_models uvesti ChatOpenAI
iz langchain.schema import SystemMessage
from langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Konfigurirajte predložak upita koristeći ConversationBufferMemory() koristeći različite varijable za postavljanje unosa korisnika:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Vi ste model koji razgovarate s čovjekom'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

memorija = ConversationBufferMemory(memory_key='hist', return_messages=True)

Korak 6: Konfiguriranje LLMChaina

Postavite metodu LLMChain() za konfiguraciju modela pomoću različitih argumenata i parametara:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Istina,
memory=memorija,
)

Korak 7: Testiranje LLMChaina

Na kraju jednostavno testirajte LLMChain pomoću unosa tako da model može generirati tekst prema upitu:

chat_llm_chain.predict(input='Bok prijatelju')

Model je pohranio prethodni razgovor u memoriju i prikazuje ga prije stvarnog izlaza upita:

llm_chain.predict(input='Dobro! Ja sam dobro - kako si')

To je sve o korištenju memorije u LLMChainu pomoću LangChaina.

Zaključak

Da biste koristili memoriju u LLMChainu kroz okvir LangChain, jednostavno instalirajte module kako biste postavili okruženje za dobivanje ovisnosti o modulima. Nakon toga jednostavno uvezite biblioteke iz LangChaina da biste koristili međuspremnik za pohranu prethodnog razgovora. Korisnik također može dodati memoriju modelu chata izgradnjom LLMChaina i zatim testiranjem lanca pružanjem ulaznih podataka. Ovaj vodič razradio je postupak korištenja memorije u LLMChainu kroz LangChain.