Skip to main contentSkip to footer
EsempioscriptintermediateEseguibileresearch-brief

Cerca nel manuale

Esempio rieseguibile intermediate di tipo script che usa docling, openai.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Ricerca supportata dal contesto con evidenza esplicita
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Cerca nel manuale -> Retrieve relevant context -> Richiesta utente -> Esecuzione del sistema -> Output verificabile -> Applicare la divulgazione progressiva…

Trigger

Cerca nel manuale

Runtime

Retrieve relevant context

Esito

Richiesta utente

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Ricerca supportata dal contesto con evidenza esplicita
Applicare la divulgazione progressiva all'agenzia del sistema
Esporre uno stato operativo significativo, non la complessità interna
Stabilire fiducia attraverso l'ispezionabilità
Riferimenti sorgente
Voce di libreria
context-web-3-search-handbook
Percorso sorgente
content/example-library/sources/context/web/3-search-handbook.py
Librerie
docling, openai, pydantic, python-dotenv
Requisiti di runtime
OPENAI_API_KEY
Principi correlati
Applicare la divulgazione progressiva all'agenzia del sistema, Esporre uno stato operativo significativo, non la complessità interna, Stabilire fiducia attraverso l'ispezionabilità, Rappresentare il lavoro delegato come un sistema, non solo come una conversazione

3-search-handbook.py

python
# --------------------------------------------------------------
# Search Handbook with Dynamic Tool Calls
# --------------------------------------------------------------

import json
from pathlib import Path
from typing import List

from openai import OpenAI
from pydantic import BaseModel

client = OpenAI()

MODEL = "gpt-4.1-nano"
HANDBOOK_PATH = Path(__file__).parent / "data" / "handbook.md"


# --------------------------------------------------------------
# Define the output models
# --------------------------------------------------------------


class Citation(BaseModel):
    text: str
    section: str


class HandbookAnswer(BaseModel):
    answer: str
    citations: List[Citation]


# --------------------------------------------------------------
# Handbook search function (called as a tool)
# --------------------------------------------------------------


def search_handbook(query: str) -> str:
    """Retrieve the handbook content for the agent to interpret.

    Note: The query parameter is accepted but not used - we return the full handbook.
    This simulates Retrieval Augmented Generation (RAG). In a real application with
    large handbooks or contexts, you would implement semantic search, filtering, or
    chunking to retrieve only relevant sections based on the query.

    Returns: The full handbook content as a string
    """
    if not HANDBOOK_PATH.exists():
        return "Handbook not found."

    handbook_content = HANDBOOK_PATH.read_text(encoding="utf-8")
    return handbook_content


# --------------------------------------------------------------
# Define the tool
# --------------------------------------------------------------

tools = [
    {
        "type": "function",
        "name": "search_handbook",
        "description": "Retrieve the AI implementation handbook content. Use this when the user asks questions about AI implementation requirements, regulations, or procedures. The handbook contains policies, regulations, and guidelines for Dutch government organizations.",
        "parameters": {
            "type": "object",
            "properties": {
                "query": {
                    "type": "string",
                    "description": "The question or query - used for context, but the full handbook will be returned",
                },
            },
            "required": ["query"],
            "additionalProperties": False,
        },
        "strict": True,
    }
]


# --------------------------------------------------------------
# Agent function that uses tools dynamically
# --------------------------------------------------------------


def call_function(name: str, args: dict) -> str:
    if name == "search_handbook":
        return search_handbook(**args)
    raise ValueError(f"Unknown function: {name}")


def ask_agent(query: str) -> HandbookAnswer:
    """Ask the agent a question. It will decide whether to search the handbook."""
    input_messages = [{"role": "user", "content": query}]

    response = client.responses.create(
        model=MODEL,
        input=input_messages,
        tools=tools,
        instructions="You are a helpful assistant for Dutch government organizations. You can help answer questions about AI implementation policies and regulations by searching the handbook. If asked what you can do, simply explain your capabilities without searching the handbook.",
    )

    tool_calls_made = False
    # Append all output items in order to preserve reasoning relationships
    for output_item in response.output:
        # Append the output item first (includes reasoning if present)
        input_messages.append(output_item)

        if output_item.type == "function_call":
            tool_calls_made = True
            name = output_item.name
            args = json.loads(output_item.arguments)
            print(f"Tool called: {name}")
            result = call_function(name, args)
            print(f"Handbook retrieved ({len(result)} chars)")

            # Append function call output after the function call
            input_messages.append(
                {
                    "type": "function_call_output",
                    "call_id": output_item.call_id,
                    "output": result,
                }
            )

    if not tool_calls_made:
        print("No tool call needed, responding directly\n")
        # For direct responses, return structured output without citations
        direct_response = client.responses.parse(
            model=MODEL,
            input=input_messages,
            instructions="You are a helpful assistant for Dutch government organizations.",
            text_format=HandbookAnswer,
        )
        return direct_response.output[-1].content[-1].parsed

    final_response = client.responses.parse(
        model=MODEL,
        input=input_messages,
        tools=tools,
        instructions="You are a helpful assistant for Dutch government organizations. Use the handbook content that was retrieved to answer the user's question. Provide a clear, comprehensive answer. Include only the most important citations (2-4 maximum) that reference the primary sections where the key information comes from. Each citation should include a brief text excerpt and the section number (e.g., '2.1', '3.2'). Do not cite every detail - only cite the main sources.",
        text_format=HandbookAnswer,
    )

    return final_response.output[-1].content[-1].parsed


# --------------------------------------------------------------
# Example queries
# --------------------------------------------------------------

example_queries = [
    "What can you do?",
    "What are the requirements for registering an AI system in the Algorithm Register?",
    "Do I need to perform an IAMA for a chatbot that answers citizen questions?",
]

# Test with example queries
if __name__ == "__main__":
    for query in example_queries:
        print(f"\n{'=' * 60}")
        print(f"Query: {query}")
        print(f"{'=' * 60}\n")
        result = ask_agent(query)
        print(f"Answer: {result.answer}\n")
        if result.citations:
            print("Citations:")
            for citation in result.citations:
                print(f"  Section {citation.section}: {citation.text[:100]}...")
        print()
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Inserisci una domanda o scegli una query di esempio.
Esegui la ricerca o il recupero del contesto.
Rivedi il brief finale con le fonti e il contesto usato.
SandboxRicerca supportata dal contesto con evidenza esplicita
Laboratorio di ricerca

Questa sandbox mostra come una richiesta di ricerca o retrieval dovrebbe rendere visibili query, contesto recuperato e risposta finale.

Spiegazione UX

L'utente non dovrebbe vedere solo una risposta finale. Il prodotto deve rendere leggibile che cosa è stato cercato, quale contesto è entrato nella risposta e dove finiscono i confini del sistema.

Spiegazione AI Design

Questi esempi uniscono retrieval, ricerca web o contesto file a un passaggio di sintesi. La superficie migliore espone il piano di ricerca, il contesto utile e il risultato rivedibile.

Guida all'interazione

  1. 1Inserisci una domanda o scegli una query di esempio.
  2. 2Esegui la ricerca o il recupero del contesto.
  3. 3Rivedi il brief finale con le fonti e il contesto usato.

Domanda di ricerca

Piano di ricercaContesto recuperato

Piano

Il piano di ricerca appare qui.

Brief finale

Il brief finale compare qui insieme al contesto usato.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

Runtime architecture

Usa questo esempio nei tuoi agenti

Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

Definisci trigger, contesto e confini prima di aumentare l'autonomia
Rendi espliciti controllo, osservabilita e recovery nel runtime
Scegli i pattern operativi giusti prima di delegare ai workflow