LangChain je okvir koji se može koristiti za uvoz biblioteka i ovisnosti za izgradnju velikih jezičnih modela ili LLM-ova. Jezični modeli koriste memoriju za pohranjivanje podataka ili povijesti u bazu podataka kao opažanja kako bi dobili kontekst razgovora. Memorija je konfigurirana za pohranjivanje najnovijih poruka tako da model može razumjeti dvosmislene upite koje daje korisnik.
Ovaj blog objašnjava postupak korištenja memorije u LLMChainu kroz LangChain.
Kako koristiti memoriju u LLMChainu kroz LangChain?
Za dodavanje memorije i korištenje u LLMChainu putem LangChaina, biblioteka ConversationBufferMemory može se koristiti uvozom iz LangChaina.
Da biste naučili postupak korištenja memorije u LLMChainu kroz LangChain, prođite kroz sljedeći vodič:
Korak 1: Instalirajte module
Prvo pokrenite proces korištenja memorije instaliranjem LangChaina pomoću naredbe pip:
pip instalirati langchain
Instalirajte module OpenAI kako biste dobili njegove ovisnosti ili biblioteke za izgradnju LLM-ova ili modela chata:
pip instaliraj openai
Postavite okruženje za OpenAI koristeći svoj API ključ uvozom biblioteka os i getpass:
uvezi nasimport getpass
os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API ključ:')
Korak 2: Uvoz biblioteka
Nakon postavljanja okruženja jednostavno uvezite biblioteke poput ConversationBufferMemory iz LangChaina:
iz langchain.chains import LLMChainiz langchain.llms uvozi OpenAI
iz langchain.memory import ConversationBufferMemory
from langchain.prompts import PromptTemplate
Konfigurirajte predložak za prompt koristeći varijable kao što je 'input' za dobivanje upita od korisnika i 'hist' za pohranu podataka u međuspremnik:
predložak = '''Vi ste model koji razgovara s čovjekom{hist}
Čovjek: {input}
Chatbot:'''
prompt = PromptTemplate(
input_variables=['hist', 'input'], template=template
)
memorija = ConversationBufferMemory(memory_key='hist')
Korak 3: Konfiguriranje LLM-a
Nakon što se izradi predložak za upit, konfigurirajte metodu LLMChain() koristeći više parametara:
llm = OpenAI()llm_lanac = LLMClanac(
llm=llm,
prompt=prompt,
verbose=Istina,
memory=memorija,
)
Korak 4: Testiranje LLMChaina
Nakon toga testirajte LLMChain pomoću ulazne varijable da biste dobili upit od korisnika u tekstualnom obliku:
llm_chain.predict(input='Bok prijatelju')
Upotrijebite drugi unos za dobivanje podataka pohranjenih u memoriji za izdvajanje izlaza pomoću konteksta:
llm_chain.predict(input='Dobro! Ja sam dobro - kako si')
Korak 5: Dodavanje memorije modelu razgovora
Memorija se može dodati u LLMChain koji se temelji na modelu chata uvozom biblioteka:
iz langchain.chat_models uvesti ChatOpenAIiz langchain.schema import SystemMessage
from langchain.prompts import ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder
Konfigurirajte predložak upita koristeći ConversationBufferMemory() koristeći različite varijable za postavljanje unosa korisnika:
prompt = ChatPromptTemplate.from_messages([SystemMessage(content='Vi ste model koji razgovarate s čovjekom'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])
memorija = ConversationBufferMemory(memory_key='hist', return_messages=True)
Korak 6: Konfiguriranje LLMChaina
Postavite metodu LLMChain() za konfiguraciju modela pomoću različitih argumenata i parametara:
llm = ChatOpenAI()chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verbose=Istina,
memory=memorija,
)
Korak 7: Testiranje LLMChaina
Na kraju jednostavno testirajte LLMChain pomoću unosa tako da model može generirati tekst prema upitu:
chat_llm_chain.predict(input='Bok prijatelju')
Model je pohranio prethodni razgovor u memoriju i prikazuje ga prije stvarnog izlaza upita:
llm_chain.predict(input='Dobro! Ja sam dobro - kako si')
To je sve o korištenju memorije u LLMChainu pomoću LangChaina.
Zaključak
Da biste koristili memoriju u LLMChainu kroz okvir LangChain, jednostavno instalirajte module kako biste postavili okruženje za dobivanje ovisnosti o modulima. Nakon toga jednostavno uvezite biblioteke iz LangChaina da biste koristili međuspremnik za pohranu prethodnog razgovora. Korisnik također može dodati memoriju modelu chata izgradnjom LLMChaina i zatim testiranjem lanca pružanjem ulaznih podataka. Ovaj vodič razradio je postupak korištenja memorije u LLMChainu kroz LangChain.