Skip to main contentSkip to footer
EsempioscriptintermediateEseguibiletool-agent

Strumenti

Esempio rieseguibile intermediate di tipo script che usa pydantic.

Fatti chiave

Livello
intermediate
Runtime
Python • Pydantic
Pattern
Flusso ispezionabile con confini di sistema visibili
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Strumenti -> Richiesta utente -> Esecuzione del sistema -> Output verificabile -> Applicare la divulgazione progressiva… -> Stabilire fiducia attraverso l'ispezionabilità

Ingresso

Strumenti

Processo

Richiesta utente

Esito

Output verificabile

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Flusso ispezionabile con confini di sistema visibili
Applicare la divulgazione progressiva all'agenzia del sistema
Stabilire fiducia attraverso l'ispezionabilità
Rendere espliciti i passaggi, le approvazioni e i blocchi
Riferimenti sorgente
Voce di libreria
frameworks-pydantic-ai-3-core-concepts-3-tools
Percorso sorgente
content/example-library/sources/frameworks/pydantic-ai/3-core-concepts/3-tools.py
Librerie
pydantic
Requisiti di runtime
Ambiente del repository locale
Principi correlati
Applicare la divulgazione progressiva all'agenzia del sistema, Stabilire fiducia attraverso l'ispezionabilità, Rendere espliciti i passaggi, le approvazioni e i blocchi, Rappresentare il lavoro delegato come un sistema, non solo come una conversazione

3-tools.py

python
import json

import nest_asyncio
from pydantic import BaseModel
from pydantic_ai import Agent, RunContext
from youtube_transcript_api import YouTubeTranscriptApi

from utils.youtube import extract_video_id

nest_asyncio.apply()


class Transcript(BaseModel):
    video_id: str
    language: str
    text: str
    word_count: int


# --------------------------------------------------------------
# Basic tool - get YouTube transcript with structured output
# --------------------------------------------------------------

agent = Agent("openai:gpt-4o-mini", instructions="You are a helpful YouTube assistant.")


@agent.tool_plain
def get_transcript(video_url_or_id: str) -> Transcript:
    """
    Get the transcript for a YouTube video using either the video URL or video ID.
    Returns a structured Transcript object with video info and text.

    https://github.com/jdepoix/youtube-transcript-api
    """
    try:
        video_id = extract_video_id(video_url_or_id)
        ytt_api = YouTubeTranscriptApi()
        transcript = ytt_api.fetch(video_id)
        text = " ".join([snippet.text for snippet in transcript])

        return Transcript(
            video_id=video_id,
            language=transcript.language,
            text=text,
            word_count=len(text.split()),
        )
    except Exception as e:
        raise ValueError(f"Could not fetch transcript: {str(e)}")


result = agent.run_sync(
    "What is this video about? https://www.youtube.com/watch?v=dQw4w9WgXcQ"
)
print(result.output)

# --------------------------------------------------------------
# Let's explore the result
# --------------------------------------------------------------

messages = json.loads(result.all_messages_json())
print(json.dumps(messages, indent=2))

# --------------------------------------------------------------
# Tool with dependencies - personalized transcript language
# --------------------------------------------------------------


class UserPreferences(BaseModel):
    name: str
    preferred_language: str


user_agent = Agent(
    "openai:gpt-4o-mini",
    deps_type=UserPreferences,
    instructions="You are a helpful YouTube assistant.",
)


@user_agent.tool
def get_user_transcript(ctx: RunContext[UserPreferences], video_url: str) -> Transcript:
    """
    Get the transcript for a YouTube video in the user's preferred language.
    Returns a structured Transcript object.
    """
    try:
        video_id = extract_video_id(video_url)
        ytt_api = YouTubeTranscriptApi()
        transcript = ytt_api.fetch(video_id, languages=[ctx.deps.preferred_language])
        text = " ".join([snippet.text for snippet in transcript])

        return Transcript(
            video_id=video_id,
            language=transcript.language,
            text=text,
            word_count=len(text.split()),
        )
    except Exception as e:
        raise ValueError(f"Could not fetch transcript: {str(e)}")


@user_agent.instructions
def add_user_context(ctx: RunContext[UserPreferences]) -> str:
    return f"User: {ctx.deps.name}, Preferred language: {ctx.deps.preferred_language}"


user_prefs = UserPreferences(name="Alice", preferred_language="es")
result = user_agent.run_sync(
    "What is this video about? https://www.youtube.com/watch?v=4JDu69Jy41Y",
    deps=user_prefs,
)
print(result.output)


messages = json.loads(result.all_messages_json())
print(json.dumps(messages, indent=2))

# --------------------------------------------------------------
# Multi-turn tool calls - agent orchestrates multiple tools
# --------------------------------------------------------------

multi_agent = Agent(
    "openai:gpt-4o",  # Use a more powerful model for multi-turn tool calls
    instructions="You are a video content analyzer. Use tools to analyze videos.",
)


@multi_agent.tool_plain
def fetch_transcript(video_url: str) -> Transcript:
    """Fetch the transcript of a YouTube video."""
    video_id = extract_video_id(video_url)
    ytt_api = YouTubeTranscriptApi()
    transcript = ytt_api.fetch(video_id)
    text = " ".join([snippet.text for snippet in transcript])

    return Transcript(
        video_id=video_id,
        language=transcript.language,
        text=text,
        word_count=len(text.split()),
    )


@multi_agent.tool_plain
def count_keyword(text: str, keyword: str) -> int:
    """Count how many times a keyword appears in text (case-insensitive)."""
    return text.lower().count(keyword.lower())


result = multi_agent.run_sync(
    "Get the transcript for https://www.youtube.com/watch?v=dQw4w9WgXcQ and tell me how many times the word 'never' appears"
)
print("\n--- Multi-turn Result ---")
print(result.output)

print("\n--- Tool Calls Made ---")
messages = result.all_messages()
for msg in messages:
    if msg.kind == "response":
        for part in msg.parts:
            if part.part_kind == "tool-call":
                print(f"  • {part.tool_name}()")


# --------------------------------------------------------------
# Validation of tool calls
# --------------------------------------------------------------

transcript = fetch_transcript("https://www.youtube.com/watch?v=dQw4w9WgXcQ")
print(transcript)

count = count_keyword(transcript.text, "never")
print(count)
assert count == 40
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Leggi il riepilogo dell'implementazione.
Esplora gli stati utente e di sistema.
Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.
SandboxFlusso ispezionabile con confini di sistema visibili
Guida all'interazione

Usa la sandbox per esplorare l'esperienza visibile all'utente, il lavoro del sistema e la scelta dottrinale che l'esempio sta facendo.

Spiegazione UX

La sandbox spiega cosa dovrebbe vedere l'utente, cosa sta facendo il sistema e dove il controllo o l'ispezionabilità devono rimanere espliciti.

Spiegazione AI Design

La pagina trasforma il codice sorgente in un pattern orientato al prodotto: cosa può decidere il modello, cosa dovrebbe esporre il prodotto e dove il codice deterministico o la revisione devono subentrare.

Guida all'interazione

  1. 1Leggi il riepilogo dell'implementazione.
  2. 2Esplora gli stati utente e di sistema.
  3. 3Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.

User request

I was charged twice on Feb 1st for my subscription. Please fix this.

Allowed tools onlyAgent chooses orderStructured resolution

Tool trace

The trace appears as the agent decides which tool to call next.

Resolution

The final output should summarize what the agent did, not leave the action implicit.

Autonomy boundary

  • Applicare la divulgazione progressiva all'agenzia del sistema
  • Stabilire fiducia attraverso l'ispezionabilità
  • Rendere espliciti i passaggi, le approvazioni e i blocchi
Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow