Kako izgraditi LLM i LLMChain u LangChainu?

Kako Izgraditi Llm I Llmchain U Langchainu



LangChain je okvir s aplikacijom u domeni obrade prirodnog jezika ili NLP za izgradnju modela na jezicima sličnim ljudima. Ljudi mogu koristiti ove modele da dobiju odgovore od modela ili da vode razgovor kao bilo koji drugi čovjek. LangChain se koristi za izgradnju lanaca pohranjivanjem svake rečenice u razgovoru i daljnjom interakcijom koristeći je kao kontekst.

Ovaj post će ilustrirati proces izgradnje LLM i LLMChaina u LangChainu.







Kako izgraditi LLM i LLMChain u LangChainu?

Da biste izgradili LLM i LLMChain u LangChainu, jednostavno prođite kroz navedene korake:



Korak 1: Instalirajte module

Najprije instalirajte modul LangChain da biste koristili njegove biblioteke za izgradnju LLM-a i LLMChaina:



pip instalirati langchain





Drugi modul koji je potreban za izgradnju LLM-ova je OpenAI, a može se instalirati pomoću naredbe pip:

pip instaliraj openai



Korak 2: Postavite okruženje

Postavite okruženje koristeći OpenAI API ključ iz njegovog okruženja:

uvezi nas
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API ključ:')

Primjer 1: Izgradite LLM-ove koristeći LangChain

Prvi primjer je izgradnja velikih jezičnih modela pomoću LangChaina uvozom OpenAI i ChatOpenAI biblioteka i korištenjem funkcije llm():

Korak 1: Korištenje LLM Chat modela

Uvezite OpenAI i ChatOpenAI module za izgradnju jednostavnog LLM-a koristeći OpenAI okruženje iz LangChaina:

iz langchain.chat_models uvesti ChatOpenAI

iz langchain.llms uvozi OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('bok!')

Model je odgovorio odgovorom 'bok' kao što je prikazano na sljedećoj snimci zaslona u nastavku:

Funkcija predict() iz chat_modela koristi se za dobivanje odgovora ili odgovora iz modela:

chat_model.predict('bok!')

Izlaz pokazuje da je model na raspolaganju korisniku koji postavlja upite:

2. korak: korištenje tekstualnog upita

Korisnik također može dobiti odgovore iz modela davanjem cijele rečenice u tekstualnu varijablu:

text = 'Koje bi bilo dobro ime za tvrtku koja proizvodi šarene čarape?'

llm.predict(tekst)

Model je prikazao više kombinacija boja za šarene čarape:

Dobijte detaljan odgovor od modela pomoću funkcije predict() s kombinacijama boja za čarape:

chat_model.predict(tekst)

Korak 3: Korištenje teksta sa sadržajem

Korisnik može dobiti odgovor uz malo objašnjenje odgovora:

iz langchain.schema import HumanMessage

text = 'Koji bi bio dobar naslov za tvrtku koja proizvodi šarenu odjeću'
poruke = [HumanMessage(content=text)]

llm.predict_messages(poruke)

Model je generirao naslov za tvrtku koja je 'Creative Clothing Co':

Predvidite poruku kako biste dobili odgovor i za naziv tvrtke uz njezino objašnjenje:

chat_model.predict_messages(poruke)

Primjer 2: Izgradite LLMChain koristeći LangChain

Drugi primjer našeg vodiča gradi LLMChain kako bi se dobio model u formatu ljudske interakcije kako bi se kombinirali svi koraci iz prethodnog primjera:

iz langchain.chat_models uvesti ChatOpenAI
iz langchain.prompts.chat import ChatPromptTemplate
iz langchain.prompts.chat import ChatPromptTemplate
from langchain.prompts.chat import  SystemMessagePromptTemplatfrom langchain.prompts.chat import HumanMessagePromptTemplate
iz langchain.chains import LLMChain
iz langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
vrati tekst.strip().split(', ')

Izgradite predložak za model chata dajući detaljno objašnjenje njegovog rada, a zatim izgradite funkciju LLMChain() koja sadrži LLM, izlazni parser i chat_prompt biblioteke:

predložak = '''Morate pomoći u generiranju popisa odvojenih zarezima
Dobijte kategoriju od korisnika i generirajte popis odijeljen zarezima s pet objekata
Jedino bi trebao biti objekt iz kategorije'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
ljudski_predložak = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurirajte LLMChain sa strukturom upita
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
lanac = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('boje')

Model je dao odgovor s popisom boja jer bi kategorija trebala sadržavati samo 5 objekata navedenih u upitu:

To je sve o izgradnji LLM i LLMChaina u LangChainu.

Zaključak

Da biste izgradili LLM i LLMChain koristeći LangChain, jednostavno instalirajte LangChain i OpenAI module kako biste postavili okruženje koristeći njegov API ključ. Nakon toga, izgradite LLM model koristeći chat_model nakon stvaranja predloška upita za jedan upit za cijeli chat. LLMChain se koristi za izgradnju lanaca svih zapažanja u razgovoru i njihovu upotrebu kao kontekst interakcije. Ovaj post ilustrira proces izgradnje LLM i LLMChaina pomoću okvira LangChain.