Kuidas kasutada Pythonis funktsiooni LangChain LLMChain

Kuidas Kasutada Pythonis Funktsiooni Langchain Llmchain



LangChainil on keelemudeli rakenduste loomiseks palju mooduleid. Rakendusi saab muuta keerulisemaks mooduleid kombineerides või lihtsamaks teha ühe mooduli abil. LLM-i kutsumine teatud sisendil on LangChaini kõige olulisem komponent.

Ketid ei tööta ainult ühe LLM-kõne puhul; need on kõnede kogumid kas LLM-ile või muule utiliidile. LangChain pakub laialdaselt kasutatavate rakenduste jaoks otsast lõpuni kette koos standardse keti API ja paljude tööriistade integreerimisega.

Paindlikkus ja võimalus siduda mitu elementi üheks üksuseks võib olla kasulik, kui tahame kujundada ahela, mis aktsepteerib kasutaja sisendit, seadistab selle PromptTemplate abil ja edastab seejärel loodud tulemuse LLM-ile.







See artikkel aitab teil mõista funktsiooni LangChain LLMchain kasutamist Pythonis.



Näide: kuidas kasutada funktsiooni LLMchain LangChainis

Rääkisime, mis on ketid. Nüüd näeme nende Pythoni skriptis rakendatud kettide praktilist demonstratsiooni. Selles näites kasutame kõige lihtsamat LangChaini ahelat, milleks on LLMchain. See sisaldab PromptTemplate'i ja LLM-i ning aheldab need väljundi genereerimiseks.



Kontseptsiooni juurutamise alustamiseks peame installima mõned nõutavad teegid, mis ei sisaldu Pythoni standardteegis. Teegid, mida peame installima, on LangChain ja OpenAI. Installime LangChaini teegi, kuna peame kasutama nii selle LLMchaini moodulit kui ka PromptTemplate'i. OpenAI teek võimaldab meil kasutada OpenAI mudeleid väljundite, st GPT-3 ennustamiseks.





LangChaini teegi installimiseks käivitage terminalis järgmine käsk:

$ pip installige langchain

Installige OpenAI teek järgmise käsuga:



$ pip install openai

Kui paigaldused on lõpetatud, saame asuda põhiprojekti kallale.

alates langchain. viipasid importida PromptMall

alates langchain. llms importida OpenAI

importida sina

sina . umbes [ 'OPENAI_API_KEY' ] = 'sk-SINU API VÕTI'

Põhiprojekt algab vajalike moodulite importimisega. Niisiis, esmalt impordime PromptTemplate teegist 'langchain.prompts'. Seejärel impordime OpenAI teegist 'langchain.llms'. Järgmisena impordime keskkonnamuutuja määramiseks 'os'.

Algselt määrasime keskkonnamuutujaks OpenAI API võtme. Keskkonnamuutuja on muutuja, mis koosneb nimest ja väärtusest ning on meie operatsioonisüsteemis määratud. 'os.environ' on objekt, mida kasutatakse keskkonnamuutujate kaardistamiseks. Niisiis, me kutsume 'os.environ'. Nimi, mille me API võtmele määrame, on OPENAI_API_KEY. Seejärel määrame selle väärtuseks API võtme. API võti on iga kasutaja jaoks kordumatu. Seega, kui te seda koodiskripti harjutate, kirjutage oma salajane API võti.

llm = OpenAI ( temperatuuri = 0.9 )

viip = PromptMall (

sisend_muutujad = [ 'tooted' ] ,

malli = 'Mis oleks brändi nimi, mis müüb {products}?' ,

)

Nüüd, kui võti on seatud keskkonnamuutujaks, initsialiseerime ümbrise. Määrake OpenAI GPT mudelite temperatuur. Temperatuur on omadus, mis aitab meil määrata, kui ettearvamatu reaktsioon on. Mida kõrgem on temperatuuri väärtus, seda ebastabiilsemad on vastused. Seadsime siin temperatuuri väärtuseks 0,9. Seega saame kõige juhuslikumad tulemused.

Seejärel initsialiseerime klassi PromptTemplate. Kui kasutame LLM-i, genereerime kasutajalt võetud sisendist viipa ja edastame selle seejärel LLM-ile, mitte ei saada sisendit otse LLM-ile, mis nõuab kõva kodeerimist (viip on sisend, mille võtsime kasutaja ja millele määratletud tehisintellekti mudel peaks vastuse looma). Niisiis, initsialiseerime PromptTemplate. Seejärel määratleme selle lokkis sulgudes muutuja input_variable kui „Tooted” ja malli tekstiks on „Mis oleks brändi nimi, mis müüb {products}?” Kasutaja sisend ütleb, mida bränd teeb. Seejärel vormindab see selle teabe põhjal viipa.

alates langchain. ketid importida LLMChain

kett = LLMChain ( llm = llm , viip = viip )

Nüüd, kui meie PromptTemplate on vormindatud, on järgmine samm LLMchaini loomine. Esiteks importige moodul LLMchain teegist 'langchain.chain'. Seejärel loome ahela, kutsudes välja funktsiooni LLMchain(), mis võtab kasutaja sisendi ja vormindab sellega viipa. Lõpuks saadab see vastuse LLM-ile. Niisiis, see ühendab PromptTemplate ja LLM-i.

printida ( kett. jooksma ( 'Kunstitarbed' ) )

Ahela käivitamiseks kutsume välja meetodi chain.run() ja esitame parameetrina kasutaja sisendi, mis on määratletud kui 'Kunstitarvikud'. Seejärel edastame selle meetodi funktsioonile Python print(), et kuvada Pythoni konsoolis ennustatud tulemus.

AI-mudel loeb viipa ja annab selle põhjal vastuse.

Kuna palusime nimetada brändi, mis müüb kunstitarbeid, on AI mudeli ennustatud nimi näha järgmisel pildil:

See näide näitab meile LLMchainingut, kui on ette nähtud üks sisendmuutuja. See on võimalik ka mitme muutuja kasutamisel. Selleks peame lihtsalt looma muutujate sõnastiku, et need täielikult sisestada. Vaatame, kuidas see toimib:

alates langchain. viipasid importida PromptMall

alates langchain. llms importida OpenAI

importida sina

sina . umbes [ 'OPENAI_API_KEY' ] = 'sk - teie API-VÕTI'

llm = OpenAI (temperatuur = 0,9)

prompt = PromptTemplate(

input_variables=['
Bränd ', ' Toode '],

mall='
Mis selle nimi oleks { Bränd } mis müüb { Toode } ? ',

)

saidilt langchain.chains impordi LLMChain

kett = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'Bränd': '
Kunstitarbed ',

'Toode': '
värvid '

}))

Kood käib samamoodi nagu eelmine näide, välja arvatud see, et peame viipamalli klassis edastama kaks muutujat. Looge sisendmuutujate sõnastik. Pikad sulud tähistavad sõnaraamatut. Siin on meil kaks muutujat – “Bränd” ja “Toode” –, mis on eraldatud komaga. Nüüd on mallitekst, mille pakume: „Mis oleks toote {toodet} müüva {Brand} nimi?” Seega ennustab AI mudel nime, mis keskendub neile kahele sisendmuutujale.

Seejärel loome LLM-ahela, mis vormindab kasutaja sisendi koos viipaga saata vastus LLM-ile. Selle ahela käitamiseks kasutame meetodit chain.run() ja edastame muutujate sõnastiku, mille kasutaja on sisestanud kui 'Bränd': 'Kunstitarbed' ja 'Toode' kui 'Värvid'. Seejärel edastame saadud vastuse kuvamiseks selle meetodi Pythoni print() funktsioonile.

Väljundpilt näitab prognoositavat tulemust:

Järeldus

Ketid on LangChaini ehitusplokid. See artikkel käsitleb LLMchaini kasutamise kontseptsiooni LangChainis. Tutvustasime LLMchaini ja kirjeldasime vajadust neid Pythoni projektis rakendada. Seejärel viisime läbi praktilise illustratsiooni, mis demonstreerib LLMchaini rakendamist, ühendades PromptTemplate ja LLM. Neid ahelaid saate luua nii ühe sisendmuutuja kui ka mitme kasutaja antud muutujaga. Samuti on esitatud GPT mudeli genereeritud vastused.