คู่มือนี้จะแสดงขั้นตอนการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain
จะใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain ได้อย่างไร
ที่ โทเค็นการสนทนาBufferMemory สามารถนำเข้าไลบรารีจากกรอบงาน LangChain เพื่อจัดเก็บข้อความล่าสุดในหน่วยความจำบัฟเฟอร์ โทเค็นสามารถกำหนดค่าเพื่อจำกัดจำนวนข้อความที่จัดเก็บไว้ในบัฟเฟอร์ และข้อความก่อนหน้าจะถูกล้างโดยอัตโนมัติ
หากต้องการเรียนรู้กระบวนการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain ให้ใช้คำแนะนำต่อไปนี้:
ขั้นตอนที่ 1: ติดตั้งโมดูล
ขั้นแรก ให้ติดตั้งเฟรมเวิร์ก LangChain ที่มีโมดูลที่จำเป็นทั้งหมดโดยใช้คำสั่ง pip:
pip ติดตั้ง langchain
ตอนนี้ ให้ติดตั้งโมดูล OpenAI เพื่อสร้าง LLM และเชนโดยใช้เมธอด OpenAI():
pip ติดตั้ง openai
หลังจากติดตั้งโมดูลแล้ว เพียงใช้คีย์ API ของ OpenAI เพื่อ ตั้งค่าสภาพแวดล้อม ใช้ไลบรารีระบบปฏิบัติการและ getpass:
นำเข้า คุณนำเข้า รับผ่าน
คุณ . ประมาณ [ 'OPENAI_API_KEY' ] = รับผ่าน . รับผ่าน ( 'คีย์ OpenAI API:' )
ขั้นตอนที่ 2: การใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนา
สร้าง LLM โดยใช้วิธี OpenAI() หลังจากนำเข้าไฟล์ โทเค็นการสนทนาBufferMemory ไลบรารีจากกรอบงาน LangChain:
จาก แลงเชน หน่วยความจำ นำเข้า โทเค็นการสนทนาBufferMemoryจาก แลงเชน llms นำเข้า OpenAI
llm = OpenAI ( )
กำหนดค่าหน่วยความจำเพื่อตั้งค่าโทเค็น โดยจะล้างข้อความเก่าและจัดเก็บไว้ในหน่วยความจำบัฟเฟอร์ หลังจากนั้น จัดเก็บข้อความจากการสนทนาและรับข้อความล่าสุดเพื่อใช้เป็นบริบท:
หน่วยความจำ = โทเค็นการสนทนาBufferMemory ( llm = llm , max_token_limit = 10 )หน่วยความจำ. บันทึก_บริบท ( { 'ป้อนข้อมูล' : : 'สวัสดี' } , { 'เอาท์พุท' : : 'เป็นอย่างไรบ้าง' } )
หน่วยความจำ. บันทึก_บริบท ( { 'ป้อนข้อมูล' : : “ฉันสบายดี แล้วคุณล่ะ” } , { 'เอาท์พุท' : : 'ไม่มาก' } )
ดำเนินการหน่วยความจำเพื่อรับข้อมูลที่จัดเก็บไว้ในหน่วยความจำบัฟเฟอร์โดยใช้เมธอด load_memory_variables():
หน่วยความจำ. load_memory_variables ( { } )
ขั้นตอนที่ 3: การใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนาในห่วงโซ่
สร้างโซ่โดยการกำหนดค่า ห่วงโซ่การสนทนา() วิธีการที่มีข้อโต้แย้งหลายข้อเพื่อใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนา:
จาก แลงเชน ห่วงโซ่ นำเข้า การสนทนาห่วงโซ่การสนทนา_กับ_สรุป = การสนทนาห่วงโซ่ (
llm = llm ,
หน่วยความจำ = โทเค็นการสนทนาBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
รายละเอียด = จริง ,
)
การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = 'ว่าไงมีไร?' )
ตอนนี้ ให้เริ่มบทสนทนาด้วยการถามคำถามโดยใช้ข้อความที่เขียนด้วยภาษาธรรมชาติ:
การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = “เพิ่งทำโครงการ NLP” )
รับเอาต์พุตจากข้อมูลที่เก็บไว้ในหน่วยความจำบัฟเฟอร์โดยใช้จำนวนโทเค็น:
การสนทนา_กับ_สรุป ทำนาย ( ป้อนข้อมูล = 'แค่ทำงานเกี่ยวกับการออกแบบ LLM' )
บัฟเฟอร์จะอัปเดตอย่างต่อเนื่องพร้อมกับอินพุตใหม่แต่ละรายการ เนื่องจากข้อความก่อนหน้านี้ถูกล้างเป็นประจำ:
การสนทนา_กับ_สรุป ทำนาย (ป้อนข้อมูล = 'LLM ใช้ LangChain! คุณเคยได้ยินเรื่องนี้ไหม'
)
นั่นคือทั้งหมดที่เกี่ยวกับการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain
บทสรุป
หากต้องการใช้บัฟเฟอร์โทเค็นการสนทนาใน LangChain เพียงติดตั้งโมดูลเพื่อตั้งค่าสภาพแวดล้อมโดยใช้คีย์ API จากบัญชี OpenAI หลังจากนั้น ให้นำเข้าไลบรารี ConversationTokenBufferMemory โดยใช้โมดูล LangChain เพื่อจัดเก็บการสนทนาไว้ในบัฟเฟอร์ หน่วยความจำบัฟเฟอร์สามารถใช้ในห่วงโซ่เพื่อล้างข้อความเก่าพร้อมกับข้อความใหม่ทุกข้อความในการแชท โพสต์นี้ได้อธิบายอย่างละเอียดเกี่ยวกับการใช้หน่วยความจำบัฟเฟอร์โทเค็นการสนทนาใน LangChain