Kako koristiti prozor međuspremnika razgovora u LangChainu?

Kako Koristiti Prozor Meduspremnika Razgovora U Langchainu



LangChain je okvir koji se može koristiti u Python bilježnici za obuku jezičnih modela ili chatbota pomoću modela strojnog učenja. Ti se jezični modeli koriste za razgovor s ljudima na njihovom prirodnom jeziku nakon što su ih obučeni za jezike slične ljudima. Ovaj će post ilustrirati postupak korištenja prozora međuspremnika razgovora u LangChainu.

Kako koristiti prozor međuspremnika razgovora u LangChainu?

Prozor međuspremnika razgovora koristi se za čuvanje najnovijih poruka razgovora u memoriji kako bi se dobio najnoviji kontekst. Koristi vrijednost K za pohranjivanje poruka ili nizova u memoriju pomoću okvira LangChain.

Kako biste naučili postupak korištenja prozora međuspremnika razgovora u LangChainu, jednostavno prođite kroz sljedeći vodič:







Korak 1: Instalirajte module

Započnite postupak korištenja prozora međuspremnika razgovora instaliranjem modula LangChain s potrebnim ovisnostima za izgradnju modela razgovora:



pip instalirati langchain



Nakon toga instalirajte OpenAI modul koji se može koristiti za izgradnju velikih jezičnih modela u LangChainu:





pip instaliraj openai

Sada, postaviti OpenAI okruženje za izgradnju LLM lanaca pomoću API ključa s OpenAI računa:



uvoz vas
uvoz getpass

vas . približno [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API ključ:' )

Korak 2: Korištenje memorije prozora međuspremnika razgovora

Za korištenje memorije prozora međuspremnika razgovora u LangChainu, uvezite ConversationBufferWindowMemory knjižnica:

iz langchain. memorija uvoz ConversationBufferWindowMemory

Konfigurirajte memoriju pomoću ConversationBufferWindowMemory () metoda s vrijednošću k kao argumentom. Vrijednost k koristit će se za čuvanje najnovijih poruka iz razgovora i zatim konfiguriranje podataka o obuci pomoću ulaznih i izlaznih varijabli:

memorija = ConversationBufferWindowMemory ( k = 1 )

memorija. spremi_kontekst ( { 'ulazni' : 'zdravo' } , { 'izlaz' : 'Kako si' } )

memorija. spremi_kontekst ( { 'ulazni' : 'Ja sam dobar, a ti' } , { 'izlaz' : 'ne mnogo' } )

Testirajte memoriju pozivom na load_memory_variables () metoda za početak razgovora:

memorija. load_memory_variables ( { } )

Da biste dobili povijest razgovora, konfigurirajte funkciju ConversationBufferWindowMemory() pomoću povratne_poruke argument:

memorija = ConversationBufferWindowMemory ( k = 1 , povratne_poruke = Pravi )

memorija. spremi_kontekst ( { 'ulazni' : 'bok' } , { 'izlaz' : 'što ima' } )

memorija. spremi_kontekst ( { 'ulazni' : 'ne baš ti' } , { 'izlaz' : 'ne mnogo' } )

Sada pozovite memoriju pomoću load_memory_variables () metoda za dobivanje odgovora s poviješću razgovora:

memorija. load_memory_variables ( { } )

Korak 3: Korištenje prozora međuspremnika u lancu

Izgradite lanac pomoću OpenAI i Lanac razgovora biblioteke, a zatim konfigurirajte međuspremnik za pohranjivanje najnovijih poruka u razgovoru:

iz langchain. lanci uvoz Lanac razgovora
iz langchain. llms uvoz OpenAI
#izrada sažetka razgovora pomoću više parametara
razgovor_sa_sažetkom = Lanac razgovora (
llm = OpenAI ( temperatura = 0 ) ,
#building memorijski međuspremnik koristeći njegovu funkciju s vrijednošću k za pohranu nedavnih poruka
memorija = ConversationBufferWindowMemory ( k = 2 ) ,
#configure verbose varijablu da biste dobili čitljiviji izlaz
opširno = Pravi
)
razgovor_sa_sažetkom. predvidjeti ( ulazni = 'Hej što ima' )

Sada nastavite razgovor postavljanjem pitanja u vezi s rezultatom koji daje model:

razgovor_sa_sažetkom. predvidjeti ( ulazni = 'Koji su njihovi problemi' )

Model je konfiguriran za pohranu samo jedne prethodne poruke koja se može koristiti kao kontekst:

razgovor_sa_sažetkom. predvidjeti ( ulazni = 'Ide li dobro' )

Zatražite rješenje problema i izlazna struktura nastavit će kliziti kroz prozor međuspremnika uklanjanjem ranijih poruka:

razgovor_sa_sažetkom. predvidjeti ( ulazni = 'Koje je rješenje' )

To je sve o procesu korištenja međuspremnika za razgovore Windows LangChain.

Zaključak

Da biste koristili memoriju prozora međuspremnika razgovora u LangChainu, jednostavno instalirajte module i postavite okruženje pomoću API ključa OpenAI-ja. Nakon toga izgradite međuspremnik pomoću vrijednosti k da biste zadržali najnovije poruke u razgovoru kako biste zadržali kontekst. Međuspremnik se također može koristiti s lancima za poticanje razgovora s LLM-om ili lancem. Ovaj vodič razradio je postupak korištenja prozora međuspremnika razgovora u LangChainu.