Kuidas lisada ahelasse mälu olekut LangChaini abil?

Kuidas Lisada Ahelasse Malu Olekut Langchaini Abil



LangChain võimaldab arendajatel luua vestlusmudeleid, mis võimaldavad inimestega vestelda loomulikke keeli kasutades. Tõhusa vestluse pidamiseks peab mudelil olema mälu selle kohta, kuhu vestluse kontekst talletatakse. LangChaini mudelid suudavad vestlussõnumeid salvestada vaatlustena, nii et väljund võib olla kogu aeg vestluse kontekstis

See juhend illustreerib LangChain Hubist kettide laadimise protsessi.

Kuidas lisada ahelasse mälu olekut LangChaini abil?

Mälu olekut saab kasutada kettide lähtestamiseks, kuna see võib viidata ahelatesse salvestatud hiljutisele väärtusele, mida kasutatakse väljundi tagastamisel. LangChaini raamistiku abil kettides mäluoleku lisamise protsessi õppimiseks lugege lihtsalt läbi see lihtne juhend:







1. samm: installige moodulid

Esiteks sisenege protsessi, installides LangChaini raamistiku koos selle sõltuvustega, kasutades käsku pip:



pip install langchain



Installige ka OpenAI moodul, et saada selle teegid, mida saab kasutada ahelasse mälu oleku lisamiseks:





pip install openai

Hankige OpenAI kontolt API võti ja seada keskkonda kasutades seda nii, et kettidel oleks sellele juurdepääs:



importida sina

importida saada pass

sina . umbes [ 'OPENAI_API_KEY' ] = saada pass . saada pass ( 'OpenAI API võti:' )

See samm on koodi õigeks toimimiseks oluline.

2. samm: importige teegid

Pärast keskkonna seadistamist importige lihtsalt mälu oleku lisamiseks teegid, nagu LLMChain, ConversationBufferMemory ja palju muud:

alates langchain. ketid importida Vestlusahel

alates langchain. mälu importida ConversationBufferMemory

alates langchain. chat_models importida ChatOpenAI

alates langchain. ketid . llm importida LLMChain

alates langchain. viipasid importida PromptMall

3. samm: kettide ehitamine

Nüüd looge lihtsalt LLM-i jaoks ketid, kasutades OpenAI() meetodit ja viipa malli, kasutades ahela kutsumiseks päringut:

vestlus = ChatOpenAI ( temperatuuri = 0 )

prompt_template = 'Kirjutage {style} nalja'

llm_chain = LLMChain ( llm = vestlus , viip = PromptMall. from_template ( prompt_template ) )

llm_chain ( sisendid = { 'stiil' : 'korny' } )

Mudel on kuvanud väljundi LLM-mudeli abil, nagu on näidatud alloleval ekraanipildil:

4. samm: mälu oleku lisamine

Siin lisame ahelasse mälu oleku, kasutades meetodit ConversationBufferMemory() ja käivitame ahela, et saada vikerkaarest kolm värvi:

vestlus = Vestlusahel (

llm = vestlus ,

mälu = ConversationBufferMemory ( )

)

vestlus. jooksma ( 'Andke lühidalt vikerkaare 3 värvi' )

Mudelil on kuvatud ainult kolm vikerkaarevärvi ja kontekst on salvestatud keti mällu:

Siin juhime ketti mitmetähendusliku käsuga ' muud 4? ” seega saab mudel ise mälust konteksti ja kuvab ülejäänud vikerkaarevärvid:

vestlus. jooksma ( 'muud 4?' )

Mudel on teinud täpselt seda, kuna ta mõistis konteksti ja tagastas ülejäänud neli värvi vikerkaarekomplektist:

See kõik puudutab LangChain Hubi laadimiskettide laadimist.

Järeldus

Mälu lisamiseks ahelatesse LangChaini raamistiku abil installige lihtsalt moodulid, et seadistada keskkond LLM-i ehitamiseks. Pärast seda importige LLM-i kettide loomiseks vajalikud teegid ja lisage sellele mälu olek. Pärast mälu oleku ahelasse lisamist andke ahelale lihtsalt käsk väljundi saamiseks ja seejärel õige vastuse saamiseks teine ​​käsk eelmise kontekstis. See postitus on üksikasjalikult käsitlenud mälu oleku lisamise protsessi ahelatesse, kasutades LangChaini raamistikku.