Langzeitgedächtnis mit ChromaDB und OpenAI Embeddings einrichten
Dieser Tipp zeigt, wie man 'ChromaDB' als Vektorspeicher und 'OpenAIEmbeddings' verwendet, um ein Langzeitgedächtnis für den Agenten zu implementieren. Dies ermöglicht die Speicherung und den Abruf von umfangreichem Wissen über längere Zeiträume oder Sitzungen hinweg durch semantische Ähnlichkeitssuche.
Originalvideo ansehen: You NEED to try these open-source AI projects right now...Importieren Sie die notwendigen Klassen.
Sie benötigen 'OpenAIEmbeddings' zur Erstellung von Vektoren und 'Chroma' als Vektorspeicher.
from langchain.embeddings import OpenAIEmbeddings
from langchain.vectorstores import Chroma
from langchain.memory import VectorStoreRetrieverMemoryInitialisieren Sie die Embeddings.
OpenAIEmbeddings wandelt Text in numerische Vektoren um.
embeddings = OpenAIEmbeddings()Erstellen Sie einen Vektorspeicher mit ChromaDB.
Fügen Sie initial einige Dokumente hinzu. Diese werden in Vektoren umgewandelt und in ChromaDB gespeichert.
vectorstore = Chroma.from_texts(
[
"Jason ist ein YouTuber, der sich auf KI-Tutorials spezialisiert hat.",
"Jason hat einen Hund namens Max.",
"Max ist ein Golden Retriever."
],
embeddings,
collection_name="jason_facts"
)Erstellen Sie einen Retriever aus dem Vektorspeicher.
Der Retriever ist für die Abfrage des Vektorspeichers zuständig.
retriever = vectorstore.as_retriever()Initialisieren Sie das Langzeitgedächtnis.
Verknüpfen Sie den Retriever mit 'VectorStoreRetrieverMemory'.
memory = VectorStoreRetrieverMemory(retriever=retriever)Testen Sie das Gedächtnis (optional).
Sie können direkt Abfragen an den Retriever senden, um die Funktionalität zu prüfen.
# Beispiel: retriever.get_relevant_documents("Wer ist Jason?")