จะใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain ได้อย่างไร

Ca Chi Baffexr Tho Khe Nka Rs Nth Na Ni Langchain Di Xyangri



LangChain ช่วยให้นักพัฒนาสามารถสร้างโมเดลโดยใช้การเรียนรู้ของเครื่องหรือการเรียนรู้เชิงลึกซึ่งสามารถฝึกโมเดลโดยใช้ชุดข้อมูลได้ โมเดลเหล่านี้สามารถรับรูปแบบที่แตกต่างจากข้อมูลหรือเข้าใจรูปแบบของชุดข้อมูลและภาษาในการดึงข้อมูล โมเดลภาษาขนาดใหญ่หรือ LLM สามารถกำหนดค่าหรือออกแบบได้โดยใช้เฟรมเวิร์ก LangChain ซึ่งสามารถเข้าใจและสร้างข้อความในภาษาธรรมชาติได้

คู่มือนี้จะแสดงขั้นตอนการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain

จะใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain ได้อย่างไร

ที่ โทเค็นการสนทนาBufferMemory สามารถนำเข้าไลบรารีจากกรอบงาน LangChain เพื่อจัดเก็บข้อความล่าสุดในหน่วยความจำบัฟเฟอร์ โทเค็นสามารถกำหนดค่าเพื่อจำกัดจำนวนข้อความที่จัดเก็บไว้ในบัฟเฟอร์ และข้อความก่อนหน้าจะถูกล้างโดยอัตโนมัติ







หากต้องการเรียนรู้กระบวนการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain ให้ใช้คำแนะนำต่อไปนี้:



ขั้นตอนที่ 1: ติดตั้งโมดูล

ขั้นแรก ให้ติดตั้งเฟรมเวิร์ก LangChain ที่มีโมดูลที่จำเป็นทั้งหมดโดยใช้คำสั่ง pip:



pip ติดตั้ง langchain





ตอนนี้ ให้ติดตั้งโมดูล OpenAI เพื่อสร้าง LLM และเชนโดยใช้เมธอด OpenAI():

pip ติดตั้ง openai



หลังจากติดตั้งโมดูลแล้ว เพียงใช้คีย์ API ของ OpenAI เพื่อ ตั้งค่าสภาพแวดล้อม ใช้ไลบรารีระบบปฏิบัติการและ getpass:

นำเข้า คุณ

นำเข้า รับผ่าน

คุณ . ประมาณ [ 'OPENAI_API_KEY' ] = รับผ่าน . รับผ่าน ( 'คีย์ OpenAI API:' )

ขั้นตอนที่ 2: การใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนา

สร้าง LLM โดยใช้วิธี OpenAI() หลังจากนำเข้าไฟล์ โทเค็นการสนทนาBufferMemory ไลบรารีจากกรอบงาน LangChain:

จาก แลงเชน หน่วยความจำ นำเข้า โทเค็นการสนทนาBufferMemory

จาก แลงเชน llms นำเข้า OpenAI

llm = OpenAI ( )

กำหนดค่าหน่วยความจำเพื่อตั้งค่าโทเค็น โดยจะล้างข้อความเก่าและจัดเก็บไว้ในหน่วยความจำบัฟเฟอร์ หลังจากนั้น จัดเก็บข้อความจากการสนทนาและรับข้อความล่าสุดเพื่อใช้เป็นบริบท:

หน่วยความจำ = โทเค็นการสนทนาBufferMemory ( llm = llm , max_token_limit = 10 )

หน่วยความจำ. บันทึก_บริบท ( { 'ป้อนข้อมูล' : : 'สวัสดี' } , { 'เอาท์พุท' : : 'เป็นอย่างไรบ้าง' } )

หน่วยความจำ. บันทึก_บริบท ( { 'ป้อนข้อมูล' : : “ฉันสบายดี แล้วคุณล่ะ” } , { 'เอาท์พุท' : : 'ไม่มาก' } )

ดำเนินการหน่วยความจำเพื่อรับข้อมูลที่จัดเก็บไว้ในหน่วยความจำบัฟเฟอร์โดยใช้เมธอด load_memory_variables():

หน่วยความจำ. load_memory_variables ( { } )

ขั้นตอนที่ 3: การใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนาในห่วงโซ่

สร้างโซ่โดยการกำหนดค่า ห่วงโซ่การสนทนา() วิธีการที่มีข้อโต้แย้งหลายข้อเพื่อใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนา:

จาก แลงเชน ห่วงโซ่ นำเข้า การสนทนาห่วงโซ่

การสนทนา_กับ_สรุป = การสนทนาห่วงโซ่ (
llm = llm ,
หน่วยความจำ = โทเค็นการสนทนาBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
รายละเอียด = จริง ,
)
การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = 'ว่าไงมีไร?' )

ตอนนี้ ให้เริ่มบทสนทนาด้วยการถามคำถามโดยใช้ข้อความที่เขียนด้วยภาษาธรรมชาติ:

การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = “เพิ่งทำโครงการ NLP” )

รับเอาต์พุตจากข้อมูลที่เก็บไว้ในหน่วยความจำบัฟเฟอร์โดยใช้จำนวนโทเค็น:

การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = 'แค่ทำงานเกี่ยวกับการออกแบบ LLM' )

บัฟเฟอร์จะอัปเดตอย่างต่อเนื่องพร้อมกับอินพุตใหม่แต่ละรายการ เนื่องจากข้อความก่อนหน้านี้ถูกล้างเป็นประจำ:

การสนทนา_กับ_สรุป ทำนาย (

ป้อนข้อมูล = 'LLM ใช้ LangChain! คุณเคยได้ยินเรื่องนี้ไหม'

)

นั่นคือทั้งหมดที่เกี่ยวกับการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain

บทสรุป

หากต้องการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain เพียงติดตั้งโมดูลเพื่อตั้งค่าสภาพแวดล้อมโดยใช้คีย์ API จากบัญชี OpenAI หลังจากนั้น ให้นำเข้าไลบรารี ConversationTokenBufferMemory โดยใช้โมดูล LangChain เพื่อจัดเก็บการสนทนาไว้ในบัฟเฟอร์ หน่วยความจำบัฟเฟอร์สามารถใช้ในห่วงโซ่เพื่อล้างข้อความเก่าพร้อมกับข้อความใหม่ทุกข้อความในการแชท โพสต์นี้ได้อธิบายอย่างละเอียดเกี่ยวกับการใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนาใน LangChain