Skip to main contentSkip to footer
EsempioscriptintermediateEseguibileguided-flow

Riferimenti

Esempio rieseguibile intermediate di tipo script che usa openai, pillow.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Flusso ispezionabile con confini di sistema visibili
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Riferimenti -> Initialize OpenAI client -> Create model response -> Render the visible result -> references -> video

Trigger

Riferimenti

Runtime

Initialize OpenAI client

Esito

Create model response

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Flusso ispezionabile con confini di sistema visibili
Riferimenti sorgente
Voce di libreria
models-openai-08-video-2-references
Percorso sorgente
content/example-library/sources/models/openai/08-video/2-references.py
Librerie
openai, pillow, pydantic, python-dotenv, requests
Requisiti di runtime
OPENAI_API_KEY
Principi correlati

2-references.py

python
import time
from openai import OpenAI
from pathlib import Path
import base64
from utils.resizer import resize_image
from utils.downloader import download_sora_video

openai = OpenAI()


# --------------------------------------------------------------
# Generate a reference image
# --------------------------------------------------------------

# Takes abbout 2 minutes
response = openai.responses.create(
    model="gpt-5",
    input="A professional studio desk setup with Shure SM7B microphone on boom arm. Dark background with soft blue LED light glow creating ambient atmosphere. Clean desk surface, professional lighting equipment visible. Cinematic look, moody lighting, no people.",
    tools=[
        {
            "type": "image_generation",
            "size": "1024x1536",
            "quality": "high",
        }
    ],
)


# --------------------------------------------------------------
# Resize the image to 720x1280 and save it
# --------------------------------------------------------------

message_outputs = [output for output in response.output if output.type == "message"]

if message_outputs:
    for msg in message_outputs:
        for content in msg.content:
            if hasattr(content, "text"):
                print(f"API Response: {content.text}")

image_data = [
    output.result
    for output in response.output
    if output.type == "image_generation_call"
]

if image_data:
    image_base64 = image_data[0]
    image_path = f"./references/{response.id}.png"
    with open(image_path, "wb") as f:
        f.write(base64.b64decode(image_base64))
    resize_image(image_path)
    print(f"Saved and resized image to 720x1280: {image_path}")
else:
    print("No image was generated. Check the API response above.")

# --------------------------------------------------------------
# Use input reference image
# --------------------------------------------------------------

# The moderation here is quite strict.
# You might need to try different images/prompts if you get an error.

video = openai.videos.create(
    model="sora-2",
    prompt="Make this image come to life",
    input_reference=Path(f"./references/{response.id}.png"),
    size="720x1280",
    seconds=4,
)

print("Video generation started:", video)


# --------------------------------------------------------------
# Get last video
# --------------------------------------------------------------

time.sleep(3)
last_video = openai.videos.list().data[0]

# --------------------------------------------------------------
# Download the video
# --------------------------------------------------------------

video = download_sora_video(video=last_video, output_folder="./output")
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Leggi il riepilogo dell'implementazione.
Esplora gli stati utente e di sistema.
Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.
SandboxFlusso ispezionabile con confini di sistema visibili
Guida all'interazione

Usa la sandbox per esplorare l'esperienza visibile all'utente, il lavoro del sistema e la scelta dottrinale che l'esempio sta facendo.

Spiegazione UX

La sandbox spiega cosa dovrebbe vedere l'utente, cosa sta facendo il sistema e dove il controllo o l'ispezionabilità devono rimanere espliciti.

Spiegazione AI Design

La pagina trasforma il codice sorgente in un pattern orientato al prodotto: cosa può decidere il modello, cosa dovrebbe esporre il prodotto e dove il codice deterministico o la revisione devono subentrare.

Guida all'interazione

  1. 1Leggi il riepilogo dell'implementazione.
  2. 2Esplora gli stati utente e di sistema.
  3. 3Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.

Visibile all'utente

Uno script di tipo script che dimostra openai + pillow.

Lavoro del sistema

Il prodotto prepara un task delimitato per il modello o il workflow.

Perché è importante

L'interfaccia dovrebbe rendere il task delegato leggibile prima che avvenga l'automazione.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

    Runtime architecture

    Usa questo esempio nei tuoi agenti

    Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

    Definisci trigger, contesto e confini prima di aumentare l'autonomia
    Rendi espliciti controllo, osservabilita e recovery nel runtime
    Scegli i pattern operativi giusti prima di delegare ai workflow