Kuidas kasutada vestluse kokkuvõtet LangChainis?

Kuidas Kasutada Vestluse Kokkuvotet Langchainis



LangChain on raamistik, mida saab kasutada keelemudelite koostamiseks, kasutades tohutul hulgal loomulikesse keeltesse ehitatud koolitusandmekogumeid. LangChain pakub teeke ja sõltuvusi, mida saab kasutada vestlusrobotite ja keelemudelite (nt LLM-ide) koostamiseks ja haldamiseks. Neid mudeleid peetakse enamasti masinateks, mis vestlevad inimestega sarnases keeles kirjutatud juhiste põhjal või võtavad teavet.

See juhend illustreerib vestluse kokkuvõtte kasutamist LangChainis.

Kuidas kasutada vestluse kokkuvõtet LangChainis?

LangChain pakub teeke, nagu ConversationSummaryMemory, mis saavad vestluse või vestluse täieliku kokkuvõtte välja võtta. Seda saab kasutada vestluse põhiteabe saamiseks, ilma et peaksite lugema kõiki vestluses saadaolevaid sõnumeid ja teksti.







Vestluse kokkuvõtte kasutamise protsessi õppimiseks LangChainis tehke lihtsalt järgmised sammud.



1. samm: installige moodulid

Esmalt installige LangChaini raamistik, et hankida selle sõltuvused või teegid järgmise koodi abil:



pip install langchain





Nüüd installige OpenAI moodulid pärast LangChaini installimist, kasutades käsku pip:

pip install openai



Pärast moodulite paigaldamist lihtsalt seada keskkonda kasutades järgmist koodi pärast API võtme saamist OpenAI kontolt:

importida sina

importida saada pass

sina . umbes [ 'OPENAI_API_KEY' ] = saada pass . saada pass ( 'OpenAI API võti:' )

2. samm: vestluse kokkuvõtte kasutamine

Alustage vestluse kokkuvõtte kasutamist, importides LangChainist teegid:

alates langchain. mälu importida Vestluse kokkuvõteMälu , ChatMessageHistory

alates langchain. llms importida OpenAI

Konfigureerige mudeli mälu meetodite ConversationSummaryMemory() ja OpenAI() abil ning salvestage sinna andmed:

mälu = Vestluse kokkuvõteMälu ( llm = OpenAI ( temperatuuri = 0 ) )

mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Tere' } )

Käivitage mälu, helistades numbrile load_memory_variables() meetod andmete mälust eraldamiseks:

mälu. load_memory_variables ( { } )

Kasutaja saab andmeid hankida ka vestluse vormis nagu iga olem eraldi sõnumiga:

mälu = Vestluse kokkuvõteMälu ( llm = OpenAI ( temperatuuri = 0 ) , return_messages = Tõsi )

mälu. salvesta_kontekst ( { 'sisend' : 'Tere' } , { 'väljund' : 'Tere, kuidas sul läheb' } )

Tehisintellekti ja inimeste sõnumite eraldi hankimiseks käivitage meetod load_memory_variables():

mälu. load_memory_variables ( { } )

Salvestage vestluse kokkuvõte mällu ja seejärel käivitage mälu, et kuvada ekraanil vestluse/vestluse kokkuvõte:

sõnumid = mälu. vestlus_mälu . sõnumid

eelmine_kokkuvõte = ''

mälu. ennusta_uus_kokkuvõte ( sõnumid , eelmine_kokkuvõte )

3. samm: Vestluse kokkuvõtte kasutamine olemasolevate sõnumitega

Kasutaja saab ChatMessageHistory() sõnumi abil hankida ka väljaspool klassi või vestlust toimuva vestluse kokkuvõtte. Neid sõnumeid saab mällu lisada, et see genereeriks automaatselt kogu vestluse kokkuvõtte:

ajalugu = ChatMessageHistory ( )

ajalugu. add_user_message ( 'Tere' )

ajalugu. add_ai_message ( 'Tere!' )

Looge mudel, näiteks LLM, kasutades OpenAI() meetodit, et käivitada rakenduses olemasolevad sõnumid vestlus_mälu muutuja:

mälu = Vestluse kokkuvõteMälu. from_messages (
llm = OpenAI ( temperatuuri = 0 ) ,
vestlus_mälu = ajalugu ,
return_messages = Tõsi
)

Käivitage mälu puhvri abil, et saada olemasolevate teadete kokkuvõte:

mälu. puhver

LLM-i loomiseks käivitage järgmine kood, konfigureerides vestlussõnumite abil puhvermälu:

mälu = Vestluse kokkuvõteMälu (
llm = OpenAI ( temperatuuri = 0 ) ,
puhver = '''Inimene küsib küsimasinalt enda kohta
Süsteem vastab, et AI on loodud heaks, kuna see võib aidata inimestel oma potentsiaali realiseerida'''
,
vestlus_mälu = ajalugu ,
return_messages = Tõsi
)

4. samm: vestluse kokkuvõtte kasutamine ahelas

Järgmine samm selgitab vestluse kokkuvõtte kasutamist ahelas, kasutades LLM-i:

alates langchain. llms importida OpenAI
alates langchain. ketid importida Vestlusahel
llm = OpenAI ( temperatuuri = 0 )
vestlus_kokkuvõttega = Vestlusahel (
llm = llm ,
mälu = Vestluse kokkuvõteMälu ( llm = OpenAI ( ) ) ,
paljusõnaline = Tõsi
)
vestlus_kokkuvõttega. ennustada ( sisend = 'Tere kuidas sul läheb' )

Siin oleme alustanud kettide ehitamist, alustades vestlust viisaka päringuga:

Nüüd asuge vestlusesse, küsides veidi rohkem viimase väljundi kohta, et seda laiendada:

vestlus_kokkuvõttega. ennustada ( sisend = 'Räägi mulle sellest lähemalt!' )

Mudel on selgitanud viimast sõnumit tehisintellekti tehnoloogia või vestlusroti üksikasjaliku sissejuhatusega:

Vestluse kindlas suunas viimiseks eraldage eelmisest väljundist huvipakkuv punkt:

vestlus_kokkuvõttega. ennustada ( sisend = 'Hämmastav Kui hea see projekt on?' )

Siin saame vestluse kokkuvõtte mäluteegi abil robotilt üksikasjalikud vastused:

See kõik puudutab vestluse kokkuvõtte kasutamist LangChainis.

Järeldus

Vestluse kokkuvõtte sõnumi kasutamiseks LangChainis installige lihtsalt keskkonna seadistamiseks vajalikud moodulid ja raamistikud. Kui keskkond on seadistatud, importige Vestluse kokkuvõteMälu teek LLM-ide loomiseks OpenAI() meetodi abil. Pärast seda kasutage lihtsalt vestluse kokkuvõtet, et eraldada mudelitest üksikasjalik väljund, mis on eelmise vestluse kokkuvõte. Selles juhendis on käsitletud vestluste kokkuvõttemälu kasutamist LangChaini mooduli abil.