Skip to main contentSkip to footer
EsempioscriptintermediateEseguibilememory-lab

Demo della memoria

Esempio rieseguibile intermediate di tipo script che usa mem0, openai.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Assistenza consapevole della memoria con contesto leggibile
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Demo della memoria -> Store reusable memory -> Richiesta utente -> Esecuzione del sistema -> Output verificabile -> Assicurarsi che il lavoro…

Avvio

Demo della memoria

Checkpoint

Store reusable memory

Esito

Richiesta utente

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Assistenza consapevole della memoria con contesto leggibile
Assicurarsi che il lavoro in background rimanga percepibile
Allineare il feedback al livello di attenzione dell'utente
Stabilire fiducia attraverso l'ispezionabilità
Riferimenti sorgente
Voce di libreria
knowledge-mem0-oss-memory-demo
Percorso sorgente
content/example-library/sources/knowledge/mem0/oss/memory_demo.py
Librerie
mem0, openai, python-dotenv
Requisiti di runtime
OPENAI_API_KEY
Principi correlati
Assicurarsi che il lavoro in background rimanga percepibile, Allineare il feedback al livello di attenzione dell'utente, Stabilire fiducia attraverso l'ispezionabilità

memory_demo.py

python
from openai import OpenAI
from mem0 import Memory
from dotenv import load_dotenv

load_dotenv("../.env")

config = {
    "vector_store": {
        "provider": "qdrant",
        "config": {"host": "localhost", "port": 6333},
    },
}

openai_client = OpenAI()
memory = Memory.from_config(config)


def chat_with_memories(message: str, user_id: str = "default_user") -> str:
    # Retrieve relevant memories
    relevant_memories = memory.search(query=message, user_id=user_id, limit=3)
    memories_str = "\n".join(
        f"- {entry['memory']}" for entry in relevant_memories["results"]
    )
    print(memories_str)

    # Generate Assistant response
    system_prompt = f"You are a helpful AI. Answer the question based on query and memories.\nUser Memories:\n{memories_str}"
    messages = [
        {"role": "system", "content": system_prompt},
        {"role": "user", "content": message},
    ]
    response = openai_client.chat.completions.create(
        model="gpt-4o-mini", messages=messages
    )
    assistant_response = response.choices[0].message.content

    # Create new memories from the conversation
    messages.append({"role": "assistant", "content": assistant_response})
    # This is where the magic happens
    memory.add(messages, user_id=user_id, metadata={"source": "demo"})

    return assistant_response


def main():
    print("Chat with AI (type 'exit' to quit)")
    while True:
        user_input = input("You: ").strip()
        if user_input.lower() == "exit":
            print("Goodbye!")
            break
        print(f"AI: {chat_with_memories(user_input)}")


if __name__ == "__main__":
    main()
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Inserisci un messaggio o carica uno scenario memoria.
Esegui il recupero del contesto rilevante.
Rivedi sia la memoria richiamata sia la risposta personalizzata.
SandboxAssistenza consapevole della memoria con contesto leggibile
Laboratorio della memoria

Questa esperienza mette in evidenza che cosa il sistema ricorda, che cosa recupera e come quel contesto modifica la risposta all'utente.

Spiegazione UX

Gli esempi di memoria sono credibili solo quando l'utente può capire quali dati sono stati recuperati e perché influenzano la risposta.

Spiegazione AI Design

La memoria non è solo persistenza. È una scelta di prodotto su che cosa salvare, che cosa richiamare e come rendere ispezionabile l'effetto del contesto sul risultato.

Guida all'interazione

  1. 1Inserisci un messaggio o carica uno scenario memoria.
  2. 2Esegui il recupero del contesto rilevante.
  3. 3Rivedi sia la memoria richiamata sia la risposta personalizzata.

Messaggio

Memoria richiamataNuova memoria

Contesto richiamato

Il contesto richiamato appare qui.

Memoria da salvare

La memoria suggerita appare qui.

Risposta visibile

La risposta personalizzata appare qui.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow