Kako dodati stanje memorije u lanac koristeći LangChain?

Kako Dodati Stanje Memorije U Lanac Koristeci Langchain



LangChain programerima omogućuje izradu modela chata koji mogu razgovarati s ljudima koristeći prirodne jezike. Da bi vodio učinkovit razgovor, model mora imati memoriju gdje je pohranjen kontekst razgovora. LangChain modeli mogu pohraniti chat poruke kao zapažanja tako da izlaz može cijelo vrijeme biti unutar konteksta razgovora

Ovaj će vodič ilustrirati proces učitavanja lanaca iz LangChain Huba.

Kako dodati stanje memorije u lanac koristeći LangChain?

Stanje memorije može se koristiti za inicijalizaciju lanaca jer se može odnositi na nedavnu vrijednost pohranjenu u lancima koja će se koristiti za vraćanje izlaza. Da biste naučili postupak dodavanja stanja memorije u lance pomoću okvira LangChain, jednostavno prođite kroz ovaj jednostavan vodič:







Korak 1: Instalirajte module

Prvo, uđite u proces instaliranjem okvira LangChain s njegovim ovisnostima pomoću naredbe pip:



pip instalirati langchain



Instalirajte i modul OpenAI kako biste dobili njegove biblioteke koje se mogu koristiti za dodavanje stanja memorije u lancu:





pip instaliraj openai

Preuzmite API ključ s OpenAI računa i postaviti okruženje koristeći ga tako da mu lanci mogu pristupiti:



uvoz vas

uvoz getpass

vas . približno [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API ključ:' )

Ovaj korak je važan za pravilan rad koda.

Korak 2: Uvezite biblioteke

Nakon postavljanja okruženja jednostavno uvezite biblioteke za dodavanje stanja memorije kao što su LLMChain, ConversationBufferMemory i mnoge druge:

iz langchain. lanci uvoz Lanac razgovora

iz langchain. memorija uvoz ConversationBufferMemory

iz langchain. chat_modeli uvoz ChatOpenAI

iz langchain. lanci . llm uvoz LLMClanac

iz langchain. upita uvoz PromptTemplate

Korak 3: Izgradnja lanaca

Sada jednostavno izgradite lance za LLM koristeći metodu OpenAI() i predložak upita koristeći upit za pozivanje lanca:

razgovor = ChatOpenAI ( temperatura = 0 )

prompt_template = 'Napišite {style} vic'

llm_lanac = LLMClanac ( llm = razgovor , potaknuti = PromptTemplate. iz_predloška ( prompt_template ) )

llm_lanac ( ulazi = { 'stil' : 'banalan' } )

Model je prikazao izlaz koristeći LLM model kao što je prikazano na snimci zaslona u nastavku:

Korak 4: Dodavanje stanja memorije

Ovdje ćemo dodati stanje memorije u lanac koristeći ConversationBufferMemory() metodu i pokrenuti lanac da dobijemo 3 boje iz duge:

razgovor = Lanac razgovora (

llm = razgovor ,

memorija = ConversationBufferMemory ( )

)

razgovor. trčanje ( 'ukratko daj 3 dugine boje' )

Model je prikazao samo tri dugine boje, a kontekst je pohranjen u memoriji lanca:

Ovdje pokrećemo lanac s dvosmislenom naredbom kao ' ostalih 4? ” tako da sam model dobiva kontekst iz memorije i prikazuje preostale dugine boje:

razgovor. trčanje ( 'drugih 4?' )

Model je učinio upravo to jer je razumio kontekst i vratio preostale četiri boje iz duginog skupa:

To je sve o utovarnim lancima iz LangChain Huba.

Zaključak

Da biste dodali memoriju u lance pomoću okvira LangChain, jednostavno instalirajte module za postavljanje okruženja za izgradnju LLM-a. Nakon toga uvezite biblioteke potrebne za izgradnju lanaca u LLM-u, a zatim mu dodajte stanje memorije. Nakon dodavanja stanja memorije u lanac, jednostavno dajte naredbu lancu da dobije izlaz, a zatim dajte drugu naredbu u kontekstu prethodne da biste dobili točan odgovor. Ovaj post razradio je proces dodavanja stanja memorije u lancima pomoću okvira LangChain.