Kuidas kasutada vestlusloa puhvrit LangChainis?

Kuidas Kasutada Vestlusloa Puhvrit Langchainis



LangChain võimaldab arendajatel luua masinõppe või süvaõppe abil mudeleid, mis võivad andmekogumeid kasutades mudeleid koolitada. Need mudelid võivad saada andmetest erinevaid mustreid või mõista andmestiku vormi ja selle keelt teabe hankimiseks. Suuri keelemudeleid või LLM-e saab konfigureerida või kujundada LangChaini raamistike abil, mis mõistavad ja genereerivad teksti loomulikes keeltes.

See juhend illustreerib vestlusloa puhvri kasutamist LangChainis.

Kuidas kasutada vestlusloa puhvrit LangChainis?

The ConversationTokenBufferMemory teeki saab importida LangChaini raamistikust, et salvestada puhvermällu kõige värskemad sõnumid. Tokeneid saab konfigureerida puhvris salvestatavate sõnumite arvu piiramiseks ja varasemad sõnumid kustutatakse automaatselt.







LangChainis vestlusloa puhvri kasutamise protsessi tundmaõppimiseks kasutage järgmist juhendit.



1. samm: installige moodulid

Esmalt installige käsku pip kasutades LangChaini raamistik, mis sisaldab kõiki vajalikke mooduleid:



pip install langchain





Nüüd installige OpenAI moodul, et luua LLM-id ja ketid, kasutades OpenAI() meetodit:

pip install openai



Pärast moodulite installimist kasutage lihtsalt OpenAI API-võtit seada keskkonda kasutades OS-i ja getpassi teeke:

importida sina

importida saada pass

sina . umbes [ 'OPENAI_API_KEY' ] = saada pass . saada pass ( 'OpenAI API võti:' )

2. samm: vestlusloa puhvermälu kasutamine

Looge LLM-id, kasutades OpenAI() meetodit pärast importimist ConversationTokenBufferMemory teek LangChaini raamistikust:

alates langchain. mälu importida ConversationTokenBufferMemory

alates langchain. llms importida OpenAI

llm = OpenAI ( )

Seadistage mälu märgi määramiseks, see kustutab vanad sõnumid ja salvestab need puhvermällu. Pärast seda salvestage vestluse sõnumid ja hankige uusimad, et neid kontekstina kasutada:

mälu = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Kuidas sul läheb' } )

mälu. salvesta_kontekst ( { 'sisend' : 'Ma olen hea, aga sina' } , { 'väljund' : 'mitte palju' } )

Käivitage mälu, et saada puhvermällu salvestatud andmed, kasutades meetodit load_memory_variables():

mälu. load_memory_variables ( { } )

3. samm: vestlusloa puhvermälu kasutamine ahelas

Ehitage ketid, konfigureerides Vestlusahel() mitme argumendiga meetod vestluse märgi puhvermälu kasutamiseks:

alates langchain. ketid importida Vestlusahel

vestlus_kokkuvõttega = Vestlusahel (
llm = llm ,
mälu = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
paljusõnaline = Tõsi ,
)
vestlus_kokkuvõttega. ennustada ( sisend = 'Tere, mis teoksil?' )

Nüüd pange vestlus käima, esitades küsimusi loomulikus keeles kirjutatud viipade abil:

vestlus_kokkuvõttega. ennustada ( sisend = 'Töötan just NLP projekti kallal' )

Hankige puhvermällu salvestatud andmete väljund, kasutades žetoonide arvu:

vestlus_kokkuvõttega. ennustada ( sisend = 'Töötan lihtsalt LLM-ide kujundamise kallal' )

Puhvrit värskendatakse pidevalt iga uue sisendiga, kuna eelmisi sõnumeid loputatakse regulaarselt:

vestlus_kokkuvõttega. ennustada (

sisend = 'LLM kasutab LangChaini! Kas olete sellest kuulnud'

)

See kõik puudutab vestluslubade puhvri kasutamist LangChainis.

Järeldus

LangChainis vestlusloa puhvri kasutamiseks installige lihtsalt moodulid, et seadistada keskkond OpenAI konto API-võtme abil. Pärast seda importige vestluse puhvrisse salvestamiseks mooduli LangChain abil teek ConversationTokenBufferMemory. Puhvermälu saab kasutada ahelas, et tühjendada vanemaid sõnumeid iga uue sõnumiga vestluses. Selles postituses on käsitletud vestluslubade puhvermälu kasutamist LangChainis.