Kako koristiti funkciju LangChain LLMChain u Pythonu

Kako Koristiti Funkciju Langchain Llmchain U Pythonu



LangChain ima mnoštvo modula za izradu aplikacija jezičnih modela. Aplikacije se mogu komplicirati kombiniranjem modula ili se mogu pojednostaviti korištenjem jednog modula. Pozivanje LLM-a na određenom unosu najbitnija je LangChain komponenta.

Lanci ne rade samo za jedan LLM poziv; to su zbirke poziva, bilo LLM-u ili drugom uslužnom poduzeću. Lang-to-end lance za široko korištene aplikacije pruža LangChain zajedno sa standardnim API-jem za lanac i brojnim integracijama alata.

Fleksibilnost i mogućnost povezivanja više elemenata u jednu cjelinu može biti korisna kada želimo dizajnirati lanac koji prihvaća korisnički unos, postavlja ga pomoću PromptTemplate, a zatim isporučuje generirani rezultat LLM-u.







Ovaj vam članak pomaže u razumijevanju upotrebe funkcije LangChain LLMchain u Pythonu.



Primjer: Kako koristiti LLMchain funkciju u LangChainu

Razgovarali smo o tome što su lanci. Sada ćemo vidjeti praktičnu demonstraciju ovih lanaca koji su implementirani u Python skriptu. U ovom primjeru koristimo najosnovniji LangChain lanac koji je LLMchain. Sadrži PromptTemplate i LLM te ih povezuje u lance kako bi generirao izlaz.



Da bismo započeli implementaciju koncepta, moramo instalirati neke potrebne biblioteke koje nisu uključene u Python standardnu ​​biblioteku. Biblioteke koje trebamo instalirati su LangChain i OpenAI. Instaliramo biblioteku LangChain jer moramo koristiti njen LLMchain modul kao i PromptTemplate. OpenAI biblioteka nam omogućuje da koristimo OpenAI modele za predviđanje izlaza, tj. GPT-3.





Da biste instalirali biblioteku LangChain, pokrenite sljedeću naredbu na terminalu:

$ pip instaliraj langchain

Instalirajte OpenAI biblioteku sljedećom naredbom:



$ pip instaliraj openai

Po završetku instalacija možemo pristupiti izradi glavnog projekta.

iz langchain. upita uvoz PromptTemplate

iz langchain. llms uvoz OpenAI

uvoz vas

vas . približno [ 'OPENAI_API_KEY' ] = 'sk-VAŠ API KLJUČ'

Glavni projekt počinje uvozom potrebnih modula. Dakle, prvo uvozimo PromptTemplate iz biblioteke “langchain.prompts”. Zatim uvozimo OpenAI iz biblioteke 'langchain.llms'. Zatim uvozimo 'os' za postavljanje varijable okruženja.

U početku smo postavili OpenAI API ključ kao varijablu okruženja. Varijabla okruženja je varijabla koja se sastoji od imena i vrijednosti i postavlja se na naš operativni sustav. “Os.environ” je objekt koji se koristi za mapiranje varijabli okoline. Dakle, zovemo 'os.environ'. Naziv koji postavljamo za API ključ je OPENAI_API_KEY. Zatim dodjeljujemo API ključ kao njegovu vrijednost. API ključ je jedinstven za svakog korisnika. Dakle, kada budete vježbali ovu skriptu koda, napišite svoj tajni API ključ.

llm = OpenAI ( temperatura = 0.9 )

potaknuti = PromptTemplate (

ulazne_varijable = [ 'proizvodi' ] ,

šablona = 'Kako bi se nazvao brend koji prodaje {proizvode}?' ,

)

Sada kada je ključ postavljen kao varijabla okruženja, inicijaliziramo omotač. Postavite temperaturu za OpenAI GPT modele. Temperatura je karakteristika koja nam pomaže odrediti koliko će odgovor biti nepredvidiv. Što je viša vrijednost temperature, to su odgovori nepravilniji. Ovdje postavljamo vrijednost temperature na 0,9. Tako dobivamo najslučajnije rezultate.

Zatim inicijaliziramo klasu PromptTemplate. Kada koristimo LLM, generiramo prompt iz unosa koji je uzet od korisnika i zatim ga proslijeđujemo LLM-u umjesto da unos šaljemo izravno LLM-u što zahtijeva tvrdo kodiranje (prompt je unos koji smo preuzeli od korisnika i na kojem definirani AI model treba kreirati odgovor). Dakle, inicijaliziramo PromptTemplate. Zatim unutar vitičastih zagrada definiramo input_varijablu kao 'Proizvodi', a tekst predloška je 'Kako bi se nazvao brend koji prodaje {proizvode}?' Korisnički unos govori što brend radi. Zatim formatira upit na temelju tih informacija.

iz langchain. lanci uvoz LLMClanac

lanac = LLMClanac ( llm = llm , potaknuti = potaknuti )

Sada kada je naš PromptTemplate formatiran, sljedeći korak je izrada LLMchaina. Prvo uvezite modul LLMchain iz biblioteke 'langchain.chain'. Zatim stvaramo lanac pozivanjem funkcije LLMchain() koja uzima korisnički unos i njime oblikuje upit. Na kraju, šalje odgovor LLM-u. Dakle, povezuje PromptTemplate i LLM.

ispisati ( lanac. trčanje ( 'Umjetnički pribor' ) )

Da bismo izvršili lanac, pozivamo metodu chain.run() i pružamo korisnički unos kao parametar koji je definiran kao 'Umjetnički pribor'. Zatim ovu metodu prosljeđujemo Python print() funkciji za prikaz predviđenog ishoda na Python konzoli.

AI model čita upit i daje odgovor na temelju njega.

Budući da smo tražili da imenujemo robnu marku koja prodaje umjetničke potrepštine, naziv predviđen od strane AI modela može se vidjeti na sljedećoj snimci:

Ovaj nam primjer pokazuje LLMchaining kada je navedena jedna ulazna varijabla. Ovo je također moguće kada se koristi više varijabli. Za to jednostavno moramo stvoriti rječnik varijabli kako bismo ih unijeli zajedno. Pogledajmo kako ovo funkcionira:

iz langchain. upita uvoz PromptTemplate

iz langchain. llms uvoz OpenAI

uvoz vas

vas . približno [ 'OPENAI_API_KEY' ] = 'sk- Vaš-API-KLJUČ'

llm = OpenAI (temperatura=0,9)

prompt = PromptTemplate(

ulazne_varijable=['
Marka ', ' Proizvod '],

predložak='
Kako bi se zvao { Marka } koji prodaje { Proizvod } ? ',

)

iz langchain.chains import LLMChain

lanac = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Marka': '
Likovne potrepštine ',

'Proizvod': '
boje '

}))

Kod je isti kao u prethodnom primjeru, osim što moramo proslijediti dvije varijable u klasu predloška upita. Dakle, stvorite rječnik input_variables. Duge zagrade predstavljaju rječnik. Ovdje imamo dvije varijable – “Brand” i “Product” – koje su odvojene zarezom. Sada, tekst predloška koji nudimo je 'Kako bi se zvao {Brand} koji prodaje {Proizvod}?' Dakle, AI model predviđa naziv koji se fokusira na ove dvije ulazne varijable.

Zatim stvaramo LLMchain koji formatira korisnički unos s upitom za slanje odgovora LLM-u. Za pokretanje ovog lanca koristimo metodu chain.run() i prosljeđujemo rječnik varijabli s korisničkim unosom kao “Brand”: “Umjetnički pribor” i “Proizvod” kao “Boje”. Zatim ovu metodu prosljeđujemo funkciji Python print() za prikaz dobivenog odgovora.

Izlazna slika prikazuje predviđeni rezultat:

Zaključak

Lanci su građevni blokovi LangChaina. Ovaj članak opisuje koncept korištenja LLMchaina u LangChainu. Napravili smo uvod u LLMchain i prikazali potrebu njihovog zapošljavanja u Python projektu. Zatim smo izveli praktičnu ilustraciju koja demonstrira implementaciju LLMchaina povezivanjem PromptTemplate i LLM. Ove lance možete izraditi s jednom ulaznom varijablom kao i s više korisničkih varijabli. Prikazani su i generirani odgovori iz GPT modela.