See juhend illustreerib vestlusloa puhvri kasutamist LangChainis.
Kuidas kasutada vestlusloa puhvrit LangChainis?
The ConversationTokenBufferMemory teeki saab importida LangChaini raamistikust, et salvestada puhvermällu kõige värskemad sõnumid. Tokeneid saab konfigureerida puhvris salvestatavate sõnumite arvu piiramiseks ja varasemad sõnumid kustutatakse automaatselt.
LangChainis vestlusloa puhvri kasutamise protsessi tundmaõppimiseks kasutage järgmist juhendit.
1. samm: installige moodulid
Esmalt installige käsku pip kasutades LangChaini raamistik, mis sisaldab kõiki vajalikke mooduleid:
pip install langchain
Nüüd installige OpenAI moodul, et luua LLM-id ja ketid, kasutades OpenAI() meetodit:
pip install openai
Pärast moodulite installimist kasutage lihtsalt OpenAI API-võtit seada keskkonda kasutades OS-i ja getpassi teeke:
importida sinaimportida saada pass
sina . umbes [ 'OPENAI_API_KEY' ] = saada pass . saada pass ( 'OpenAI API võti:' )
2. samm: vestlusloa puhvermälu kasutamine
Looge LLM-id, kasutades OpenAI() meetodit pärast importimist ConversationTokenBufferMemory teek LangChaini raamistikust:
alates langchain. mälu importida ConversationTokenBufferMemoryalates langchain. llms importida OpenAI
llm = OpenAI ( )
Seadistage mälu märgi määramiseks, see kustutab vanad sõnumid ja salvestab need puhvermällu. Pärast seda salvestage vestluse sõnumid ja hankige uusimad, et neid kontekstina kasutada:
mälu = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Kuidas sul läheb' } )
mälu. salvesta_kontekst ( { 'sisend' : 'Ma olen hea, aga sina' } , { 'väljund' : 'mitte palju' } )
Käivitage mälu, et saada puhvermällu salvestatud andmed, kasutades meetodit load_memory_variables():
mälu. load_memory_variables ( { } )
3. samm: vestlusloa puhvermälu kasutamine ahelas
Ehitage ketid, konfigureerides Vestlusahel() mitme argumendiga meetod vestluse märgi puhvermälu kasutamiseks:
alates langchain. ketid importida Vestlusahelvestlus_kokkuvõttega = Vestlusahel (
llm = llm ,
mälu = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
paljusõnaline = Tõsi ,
)
vestlus_kokkuvõttega. ennustada ( sisend = 'Tere, mis teoksil?' )
Nüüd pange vestlus käima, esitades küsimusi loomulikus keeles kirjutatud viipade abil:
vestlus_kokkuvõttega. ennustada ( sisend = 'Töötan just NLP projekti kallal' )
Hankige puhvermällu salvestatud andmete väljund, kasutades žetoonide arvu:
vestlus_kokkuvõttega. ennustada ( sisend = 'Töötan lihtsalt LLM-ide kujundamise kallal' )
Puhvrit värskendatakse pidevalt iga uue sisendiga, kuna eelmisi sõnumeid loputatakse regulaarselt:
vestlus_kokkuvõttega. ennustada (sisend = 'LLM kasutab LangChaini! Kas olete sellest kuulnud'
)
See kõik puudutab vestluslubade puhvri kasutamist LangChainis.
Järeldus
LangChainis vestlusloa puhvri kasutamiseks installige lihtsalt moodulid, et seadistada keskkond OpenAI konto API-võtme abil. Pärast seda importige vestluse puhvrisse salvestamiseks mooduli LangChain abil teek ConversationTokenBufferMemory. Puhvermälu saab kasutada ahelas, et tühjendada vanemaid sõnumeid iga uue sõnumiga vestluses. Selles postituses on käsitletud vestluslubade puhvermälu kasutamist LangChainis.