Skip to main contentSkip to footer
EsempioscriptintermediateEseguibileresearch-brief

Agente di ricerca

Esempio rieseguibile intermediate di tipo script che usa docling, openai.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Ricerca supportata dal contesto con evidenza esplicita
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Agente di ricerca -> Retrieve relevant context -> Run the agent task -> Richiesta utente -> Esecuzione del sistema -> Output verificabile

Trigger

Agente di ricerca

Runtime

Retrieve relevant context

Esito

Run the agent task

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Ricerca supportata dal contesto con evidenza esplicita
Applicare la divulgazione progressiva all'agenzia del sistema
Esporre uno stato operativo significativo, non la complessità interna
Stabilire fiducia attraverso l'ispezionabilità
Riferimenti sorgente
Voce di libreria
context-web-4-search-agent
Percorso sorgente
content/example-library/sources/context/web/4-search-agent.py
Librerie
docling, openai, pydantic, python-dotenv
Requisiti di runtime
OPENAI_API_KEY
Principi correlati
Applicare la divulgazione progressiva all'agenzia del sistema, Esporre uno stato operativo significativo, non la complessità interna, Stabilire fiducia attraverso l'ispezionabilità, Rappresentare il lavoro delegato come un sistema, non solo come una conversazione

4-search-agent.py

python
import json

from openai import OpenAI

from tools import (
    AgentAnswer,
    get_handbook_tool,
    get_web_page,
    get_web_page_tool,
    get_web_search_tool,
    search_handbook,
)

MODEL = "gpt-4.1"
client = OpenAI()

SYSTEM_PROMPT = """You are a research assistant for Dutch government organizations. You can help answer questions by:
1. Searching the AI implementation handbook (for policy questions)
2. Fetching specific web pages (when given a URL)
3. Performing wider web searches (for general information)

Use the most appropriate tool(s) based on the question. Provide clear answers with citations."""

tools = [
    get_handbook_tool(),
    get_web_page_tool(),
    get_web_search_tool(
        allowed_domains=["rijksoverheid.nl", "tweedekamer.nl", "cbs.nl"]
    ),
]


def call_function(name: str, args: dict) -> str:
    """Execute a tool function."""
    if name == "search_handbook":
        return search_handbook(**args)
    elif name == "get_web_page":
        return get_web_page(**args)
    raise ValueError(f"Unknown function: {name}")


def ask_agent(query: str) -> AgentAnswer:
    """Ask the agent a question. It will decide which tools to use."""
    input_messages = [{"role": "user", "content": query}]

    response = client.responses.create(
        model=MODEL,
        input=input_messages,
        tools=tools,
        instructions=SYSTEM_PROMPT,
    )

    tool_calls_made = []
    for output_item in response.output:
        input_messages.append(output_item)

        if output_item.type == "function_call":
            name = output_item.name
            args = json.loads(output_item.arguments)
            print(f"Tool called: {name}")
            if name == "get_web_page":
                print(f"  URL: {args.get('url', 'N/A')}")
            elif name == "search_handbook":
                print(f"  Query: {args.get('query', 'N/A')}")

            result = call_function(name, args)
            tool_calls_made.append(name)

            if name == "get_web_page":
                print(f"  Retrieved {len(result)} characters")
            elif name == "search_handbook":
                print(f"  Handbook retrieved ({len(result)} chars)")

            input_messages.append(
                {
                    "type": "function_call_output",
                    "call_id": output_item.call_id,
                    "output": result,
                }
            )

        # Check for web_search tool usage (built-in tool)
        if output_item.type == "web_search_call":
            print("Tool called: web_search")
            tool_calls_made.append("web_search")

    if not tool_calls_made:
        print("No tool call needed - responding directly")
        final_response = client.responses.parse(
            model=MODEL,
            input=input_messages,
            instructions=SYSTEM_PROMPT,
            text_format=AgentAnswer,
        )
    else:
        print(f"Tools used: {', '.join(tool_calls_made)}")
        while True:
            final_response = client.responses.parse(
                model=MODEL,
                input=input_messages,
                tools=tools,
                instructions=f"{SYSTEM_PROMPT} Use the retrieved information to provide a comprehensive answer. Include 2-4 key citations with text excerpts and sources (URLs or section numbers).",
                text_format=AgentAnswer,
            )

            # Check if there are more tool calls needed
            more_tool_calls = False
            for output_item in final_response.output:
                if output_item.type == "function_call":
                    more_tool_calls = True
                    name = output_item.name
                    args = json.loads(output_item.arguments)
                    print(f"Additional tool called: {name}")

                    result = call_function(name, args)
                    input_messages.append(output_item)
                    input_messages.append(
                        {
                            "type": "function_call_output",
                            "call_id": output_item.call_id,
                            "output": result,
                        }
                    )

            if not more_tool_calls:
                break

    # Extract parsed content
    for output_item in reversed(final_response.output):
        if hasattr(output_item, "content") and output_item.content:
            for content_item in reversed(output_item.content):
                if hasattr(content_item, "parsed") and content_item.parsed:
                    return content_item.parsed

    raise ValueError("Could not find parsed response in output")


# Example usage
if __name__ == "__main__":
    examples = [
        {
            "name": "1. No tool call (direct response)",
            "query": "What can you do?",
        },
        {
            "name": "2. Handbook search only",
            "query": "What are the requirements for registering an AI system in the Algorithm Register?",
        },
        {
            "name": "3. Get specific web page",
            "query": "Can you fetch and summarize the content from https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence?",
        },
        {
            "name": "4. Web search only",
            "query": "Use web search to find current policies about AI implementation in Dutch government services on official government websites.",
        },
        {
            "name": "5. Multiple tool calls (handbook + web page)",
            "query": "First, search the handbook for IAMA requirements. Then fetch the EU AI Act page at https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence and compare the requirements.",
        },
    ]

    for example in examples:
        print(f"\n{'=' * 70}")
        print(f"{example['name']}")
        print(f"Query: {example['query']}")
        print(f"{'=' * 70}\n")
        result = ask_agent(example["query"])
        print(f"\nAnswer: {result.answer}\n")
        if result.citations:
            print("Citations:")
            for citation in result.citations:
                source = citation.url or f"Section {citation.section}"
                print(f"  {source}: {citation.text[:100]}...")
        print()
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Inserisci una domanda o scegli una query di esempio.
Esegui la ricerca o il recupero del contesto.
Rivedi il brief finale con le fonti e il contesto usato.
SandboxRicerca supportata dal contesto con evidenza esplicita
Laboratorio di ricerca

Questa sandbox mostra come una richiesta di ricerca o retrieval dovrebbe rendere visibili query, contesto recuperato e risposta finale.

Spiegazione UX

L'utente non dovrebbe vedere solo una risposta finale. Il prodotto deve rendere leggibile che cosa è stato cercato, quale contesto è entrato nella risposta e dove finiscono i confini del sistema.

Spiegazione AI Design

Questi esempi uniscono retrieval, ricerca web o contesto file a un passaggio di sintesi. La superficie migliore espone il piano di ricerca, il contesto utile e il risultato rivedibile.

Guida all'interazione

  1. 1Inserisci una domanda o scegli una query di esempio.
  2. 2Esegui la ricerca o il recupero del contesto.
  3. 3Rivedi il brief finale con le fonti e il contesto usato.

Domanda di ricerca

Piano di ricercaContesto recuperato

Piano

Il piano di ricerca appare qui.

Brief finale

Il brief finale compare qui insieme al contesto usato.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow