Kuidas kasutada vestluse kokkuvõtte puhvrit LangChainis?

Kuidas Kasutada Vestluse Kokkuvotte Puhvrit Langchainis



LangChain on raamistik kõigi sõltuvuste ja teekidega, et luua mudeleid, mis mõistavad loomulikes keeltes andmekogumeid. Need mudelid võivad ka luua teksti loomulikes keeltes või eraldada kõige sarnasemaid andmeid kasutaja sisestatud sisendite põhjal. Vestlusroboteid või LLM-e kasutatakse inimestega vestluste loomiseks ja vestluse kokkuvõtte tegemiseks, kasutades kõiki sõnumeid.

See juhend illustreerib vestluse kokkuvõtte puhvri kasutamist LangChainis.

Kuidas kasutada vestluse kokkuvõtte puhvrit LangChainis?

Vestlus võib sisaldada mitut sõnumit, mis on nagu inimese ja masina vaheline suhtlus, ning puhver võib salvestada kõige värskemaid sõnumeid. The ConversationSummaryBufferMemory teeki kasutatakse mõlema kontseptsiooni ühendamiseks, nagu viimaste sõnumite salvestamine ja nende kokkuvõtte ekstraheerimine.







Vestluste kokkuvõtte puhvri kasutamise protsessi õppimiseks LangChainis lugege lihtsalt läbi järgmine juhend:



1. samm: installige moodulid

Esmalt installige vajalike teekide saamiseks moodul LangChain, kasutades käsku pip:



pip install langchain





Paigaldage tiktokeni žetoon, mida saab kasutada tekstidokumentide jagamiseks väikesteks tükkideks:

pip install tiktoken



Pärast seda installige OpenAI moodulid, mida saab kasutada keelemudelite (nt LLM-id ja ketid) koostamiseks:

pip install openai

Nüüd seada keskkonda hankides OpenAI kontolt API võtme ja kasutades seda mudelis:

importida sina
importida saada pass

sina . umbes [ 'OPENAI_API_KEY' ] = saada pass . saada pass ( 'OpenAI API võti:' )

2. samm: vestluse kokkuvõtte puhvri kasutamine

Alustage vestluse kokkuvõtte puhvri kasutamist, importides teegid, et luua OpenAI() meetodit kasutades LLM-i:

alates langchain. mälu importida ConversationSummaryBufferMemory

alates langchain. llms importida OpenAI

llm = OpenAI ( )

Looge mälu meetodi ConversationSummaryBufferMemory() abil ja seejärel salvestage vestlus mällu:

mälu = ConversationSummaryBufferMemory ( llm = llm , max_token_limit = 10 )

mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Kuidas sul läheb' } )

mälu. salvesta_kontekst ( { 'sisend' : 'Ma olen hea, aga sina' } , { 'väljund' : 'mitte palju' } )

Nüüd käivitage mälu, helistades load_memory_variables () meetod sõnumite mälust eraldamiseks:

mälu. load_memory_variables ( { } )

Nüüd kasutage puhvri konfigureerimiseks vestluse puhvri kokkuvõtet, piirates puhvrisse salvestatavate sõnumite arvu. Pärast seda ekstraheerige nende puhvrisse salvestatud sõnumite kokkuvõte ja seejärel salvestage vestlus mällu:

mälu = ConversationSummaryBufferMemory (

llm = llm , max_token_limit = 10 , return_messages = Tõsi

)

mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Kuidas sul läheb' } )

mälu. salvesta_kontekst ( { 'sisend' : 'Ma olen hea, aga sina' } , { 'väljund' : 'mitte palju' } )

Hankige puhvermällu salvestatud eelmiste teadete kokkuvõte, kasutades järgmist koodi:

sõnumid = mälu. vestlus_mälu . sõnumid

eelmine_kokkuvõte = ''

mälu. ennusta_uus_kokkuvõte ( sõnumid , eelmine_kokkuvõte )

3. samm: vestluse kokkuvõtte puhvri kasutamine ahelas

Ehitage ketid kasutades Vestlusahel() meetod, mis sisaldab puhvermälu väärtust sõnumi salvestamiseks:

alates langchain. ketid importida Vestlusahel

vestlus_kokkuvõttega = Vestlusahel (
llm = llm ,
mälu = ConversationSummaryBufferMemory ( llm = OpenAI ( ) , max_token_limit = 40 ) ,
paljusõnaline = Tõsi ,
)
vestlus_kokkuvõttega. ennustada ( sisend = 'Tere, mis teoksil?' )

Vestluse kokkuvõtte saamiseks sisestage sisend teksti kujul, kasutades ennustamismeetodit().

vestlus_kokkuvõttega. ennustada ( sisend = 'Töötan just NLP projekti kallal' )

Kasutage mudeli väljundit ja lisage puhvermälus olevate teadete abil rohkem andmeid ning kuvage selle kokkuvõte:

vestlus_kokkuvõttega. ennustada ( sisend = 'Jah, see on! Ma töötan LLM-ide kujundamise kallal' )

Kokkuvõttes on väljund hõlpsasti arusaadav ja inimsõbralikum ning sobib rohkem vestlusrobotidele:

vestlus_kokkuvõttega. ennustada (

sisend = 'Ma tahan kasutada LangChaini! Kas olete sellest kuulnud'

)

See kõik puudutab vestluse kokkuvõtte puhvri kasutamist LangChainis.

Järeldus

Vestluse kokkuvõtte puhvermälu kasutamiseks LangChainis installige lihtsalt moodulid või raamistikud, et hankida vajalikud teegid. Kui teegid on imporditud, looge LLM-id või vestlusrobotid, et kasutada vestluse kokkuvõtte saamiseks funktsiooni ConverstaionSummaryBufferMemory(). Puhvermälu kasutatakse kokkuvõtte väljavõtmiseks kasutatavate mällu salvestatud sõnumite arvu piiramiseks. Selles postituses on käsitletud vestluste kokkuvõtte puhvermälu kasutamist LangChainis.