Skip to main contentSkip to footer
EsempioscriptadvancedEseguibileticket-classifier

Livello 1: LLM aumentato — Singola chiamata API

Una singola chiamata al modello con output strutturato, system prompt e contesto. Nessun loop, nessuno strumento.

Fatti chiave

Livello
advanced
Runtime
Python • Pydantic + Python Dotenv
Pattern
Single-step delegation with explicit structured output
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Livello 1: LLM aumentato —… -> Run the agent task -> User intent -> Model judgment -> Structured output -> One model call only

Ingresso

Livello 1: LLM aumentato —…

Processo

Run the agent task

Esito

Model judgment

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Single-step delegation with explicit structured output
One model call only
Structured output constrains the result shape
No tool calls, loops, or hidden orchestration
Riferimenti sorgente
Voce di libreria
agents-agent-complexity-1-augmented-llm
Percorso sorgente
content/example-library/sources/agents/agent-complexity/1-augmented-llm.py
Librerie
pydantic, python-dotenv
Requisiti di runtime
Ambiente del repository locale
Principi correlati
Progettare per la delega piuttosto che per la manipolazione diretta, Sostituire la magia implicita con modelli mentali chiari, Rappresentare il lavoro delegato come un sistema, non solo come una conversazione, Ottimizzare per la guida, non solo per l'inizio

1-augmented-llm.py

python
"""
Level 1: Augmented LLM — Single API Call
One model call with structured output, system prompt, and context. No loops, no tools.
"""

from pydantic import BaseModel
from pydantic_ai import Agent
from dotenv import load_dotenv
import nest_asyncio

load_dotenv()


nest_asyncio.apply()


class TicketClassification(BaseModel):
    category: str
    priority: str
    summary: str
    can_auto_resolve: bool


agent = Agent(
    "anthropic:claude-sonnet-4-6",
    output_type=TicketClassification,
    system_prompt=(
        "You are a customer support classifier. "
        "Classify incoming tickets by category (billing, technical, general), "
        "priority (low, medium, high), and whether they can be auto-resolved."
    ),
)

result = agent.run_sync(
    "I was charged twice for my subscription last month. "
    "Order ID: #12345. Please refund the duplicate charge."
)

print(result.output)
# category='billing' priority='high' summary='Duplicate subscription charge, requesting refund for order #12345' can_auto_resolve=True
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

class TicketClassification(BaseModel):
agent = Agent(
output_type=TicketClassification
result = agent.run_sync(
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Choose or edit a support request.
Run a single classification pass.
Inspect the structured output before deciding the next product action.
SandboxSingle-step delegation with explicit structured output
Single-call classification surface

A learner can simulate the exact UX pattern behind a Level 1 augmented LLM: provide one request, apply one bounded model call, and inspect one structured result.

Spiegazione UX

The user expresses intent once, the system applies one bounded classification task, and the result comes back in a format that is easy to inspect. There is no hidden looping, no background orchestration, and no tool routing.

Spiegazione AI Design

This pattern keeps model scope narrow. The system prompt defines the job, the schema defines the output contract, and the product can show exactly what the model is allowed to decide.

Guida all'interazione

  1. 1Choose or edit a support request.
  2. 2Run a single classification pass.
  3. 3Inspect the structured output before deciding the next product action.

User request

scriptSingle model callInspectable output

Applied UX pattern

The user expresses intent once, the system applies one bounded classification task, and the result comes back in a format that is easy to inspect. There is no hidden looping, no background orchestration, and no tool routing.

System output

Run the single-call flow to inspect what the product could show after one bounded model decision.

Why this is an agentic UX lesson

  • One model call only
  • Structured output constrains the result shape
  • No tool calls, loops, or hidden orchestration
Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow