Skip to main contentSkip to footer
EsempioscriptintermediateEseguibilehuman-approval

Human-in-the-Loop: output strutturato con router

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Flusso ispezionabile con confini di sistema visibili
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Human-in-the-Loop: output strutturato con router -> Validate structured output -> Richiesta utente -> Esecuzione del sistema -> Output verificabile -> Stabilire fiducia attraverso l'ispezionabilità

Avvio

Human-in-the-Loop: output strutturato con router

Checkpoint

Validate structured output

Esito

Richiesta utente

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Flusso ispezionabile con confini di sistema visibili
Stabilire fiducia attraverso l'ispezionabilità
Rendere espliciti i passaggi, le approvazioni e i blocchi
Ottimizzare per la guida, non solo per l'inizio
Riferimenti sorgente
Voce di libreria
models-openai-10-human-in-the-loop-1-structured-output
Percorso sorgente
content/example-library/sources/models/openai/10-human-in-the-loop/1-structured-output.py
Librerie
openai, pydantic, python-dotenv
Requisiti di runtime
OPENAI_API_KEY
Principi correlati
Stabilire fiducia attraverso l'ispezionabilità, Rendere espliciti i passaggi, le approvazioni e i blocchi, Ottimizzare per la guida, non solo per l'inizio

1-structured-output.py

python
"""
Human-in-the-Loop: Structured Output with Router

This pattern uses Pydantic models and a router to:
1. Analyze the user request and create action plan(s)
2. Pause for approval on sensitive actions
3. Execute each action

No tool calls - only chained LLM calls with structured output.

Run: python 1-structured-output.py
"""

from typing import Literal, Self
from openai import OpenAI
from pydantic import BaseModel, model_validator
from dotenv import load_dotenv

load_dotenv()

client = OpenAI()

# --------------------------------------------------------------
# Account State
# --------------------------------------------------------------

BALANCE = 1000.0


# --------------------------------------------------------------
# Action Functions
# --------------------------------------------------------------


def get_balance() -> str:
    return f"Current balance: ${BALANCE:.2f}"


def transfer_money(to_account: str, amount: float) -> str:
    global BALANCE
    if amount > BALANCE:
        return f"Error: Insufficient funds. Current balance: ${BALANCE:.2f}"
    BALANCE -= amount
    return f"Transferred ${amount:.2f} to {to_account}. New balance: ${BALANCE:.2f}"


def deposit_money(amount: float) -> str:
    global BALANCE
    BALANCE += amount
    return f"Deposited ${amount:.2f}. New balance: ${BALANCE:.2f}"


# --------------------------------------------------------------
# Structured Output Models
# --------------------------------------------------------------


class Action(BaseModel):
    action_type: Literal["check_balance", "transfer", "deposit"]
    to_account: str | None = None
    amount: float | None = None
    requires_confirmation: bool = False

    @model_validator(mode="after")
    def enforce_confirmation_rule(self) -> Self:
        if self.action_type == "transfer" and self.amount and self.amount > 100:
            self.requires_confirmation = True
        return self


class ActionPlan(BaseModel):
    actions: list[Action]


# --------------------------------------------------------------
# Example confirmation enforcement
# --------------------------------------------------------------

confirmation_example = Action(
    action_type="transfer",
    to_account="Alice",
    amount=500,  # over $100
    requires_confirmation=False,  # but we set to False
)

print(confirmation_example.model_dump_json(indent=2))


# --------------------------------------------------------------
# Human-in-the-Loop with Prompt Chaining
# --------------------------------------------------------------


def run_with_confirmation(prompt: str) -> str:
    # Step 1: Analyze request and create action plan
    response = client.responses.parse(
        model="gpt-4o",
        instructions=(
            "You are a banking assistant. Analyze the user request and create a list of actions. "
            "Use 'check_balance' for balance inquiries, 'transfer' for money transfers, "
            "'deposit' for adding money to the account. "
            "Set requires_confirmation=True for transfers over $100. "
            "Extract to_account and amount for transfers, amount for deposits."
        ),
        temperature=0,
        input=prompt,
        text_format=ActionPlan,
    )

    plan = response.output_parsed
    print(plan.model_dump_json(indent=2))
    results = []

    # Step 2: Execute each action (router)
    for action in plan.actions:
        if action.action_type == "check_balance":
            results.append(get_balance())

        elif action.action_type == "transfer":
            # Human-in-the-loop: Check if confirmation is needed
            if action.requires_confirmation:
                print("\n⚠️  Approval Required")
                print(f"Transfer ${action.amount:.2f} to {action.to_account}")

                if input("\nApprove? (y/n): ").strip().lower() != "y":
                    results.append(
                        f"Transfer of ${action.amount:.2f} to {action.to_account} cancelled by user."
                    )
                    continue

            result = transfer_money(action.to_account, action.amount)
            results.append(result)

        elif action.action_type == "deposit":
            result = deposit_money(action.amount)
            results.append(result)

    return "\n".join(results)


# --------------------------------------------------------------
# Demo
# --------------------------------------------------------------

if __name__ == "__main__":
    print("=" * 60)
    print("Human-in-the-Loop: Structured Output with Prompt Chaining")
    print("=" * 60)

    # Multiple actions - check balance and small transfer
    print("\n--- Check Balance + Small Transfer ($50) ---")
    result = run_with_confirmation("Check my balance and transfer $50 to Alice")
    print(f"\nResult:\n{result}")

    # Deposit money
    print("\n--- Deposit ---")
    result = run_with_confirmation("Deposit $200 into my account")
    print(f"\nResult:\n{result}")

    # Large transfer - requires approval
    print("\n--- Large Transfer ($500) ---")
    result = run_with_confirmation("Transfer $500 to Bob for rent")
    print(f"\nResult:\n{result}")
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Leggi il riepilogo dell'implementazione.
Esplora gli stati utente e di sistema.
Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.
SandboxFlusso ispezionabile con confini di sistema visibili
Guida all'interazione

Usa la sandbox per esplorare l'esperienza visibile all'utente, il lavoro del sistema e la scelta dottrinale che l'esempio sta facendo.

Spiegazione UX

La sandbox spiega cosa dovrebbe vedere l'utente, cosa sta facendo il sistema e dove il controllo o l'ispezionabilità devono rimanere espliciti.

Spiegazione AI Design

La pagina trasforma il codice sorgente in un pattern orientato al prodotto: cosa può decidere il modello, cosa dovrebbe esporre il prodotto e dove il codice deterministico o la revisione devono subentrare.

Guida all'interazione

  1. 1Leggi il riepilogo dell'implementazione.
  2. 2Esplora gli stati utente e di sistema.
  3. 3Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.

Prompt

Draft firstHuman checkpoint

Draft output

The draft appears here before any final action is taken.

Approval checkpoint

Approval only becomes available after the system exposes a draft.

Why approval is a product pattern

  • Stabilire fiducia attraverso l'ispezionabilità
  • Rendere espliciti i passaggi, le approvazioni e i blocchi
  • Ottimizzare per la guida, non solo per l'inizio
Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow