Skip to main contentSkip to footer
EsempioscriptintermediateEseguibileguided-flow

Modello Sora Pro

Esempio rieseguibile intermediate di tipo script che usa openai, pillow.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Flusso ispezionabile con confini di sistema visibili
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Modello Sora Pro -> Initialize OpenAI client -> Render the visible result -> sora pro model -> video

Trigger

Modello Sora Pro

Runtime

Initialize OpenAI client

Esito

Render the visible result

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Flusso ispezionabile con confini di sistema visibili
Riferimenti sorgente
Voce di libreria
models-openai-08-video-3-sora-pro-model
Percorso sorgente
content/example-library/sources/models/openai/08-video/3-sora-pro-model.py
Librerie
openai, pillow, pydantic, python-dotenv, requests
Requisiti di runtime
OPENAI_API_KEY
Principi correlati

3-sora-pro-model.py

python
from openai import OpenAI

from utils.downloader import download_sora_video

openai = OpenAI()

# --------------------------------------------------------------
# Generate a video with Sora Pro mode
# --------------------------------------------------------------

# Stays stuck in progress right now...
video = openai.videos.create(
    model="sora-2-pro",
    prompt="The YouTuber leans forward with an excited, intense expression while talking into the Shure SM7B. He says with energy: 'OpenAI just dropped Sora 2 via API... and honestly, this changes EVERYTHING. We're talking hyper-realistic videos with like 10 lines of code. Wild.' Dark background with a soft blue LED light glow. Professional lighting setup with key light and rim light. Shot on Sony FX6, cinematic depth of field, crisp focus, vertical format 9:16.",
    size="1024x1792",
    seconds="4",
)

print("Video generation started:", video)

# --------------------------------------------------------------
# Get last video
# --------------------------------------------------------------

last_video = openai.videos.list().data[0]
print("Model:", last_video.model)
print("Video status:", last_video.status)
print("Video progress:", last_video.progress)

# --------------------------------------------------------------
# Download the video
# --------------------------------------------------------------

video = download_sora_video(video=video, output_folder="./output")
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Leggi il riepilogo dell'implementazione.
Esplora gli stati utente e di sistema.
Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.
SandboxFlusso ispezionabile con confini di sistema visibili
Guida all'interazione

Usa la sandbox per esplorare l'esperienza visibile all'utente, il lavoro del sistema e la scelta dottrinale che l'esempio sta facendo.

Spiegazione UX

La sandbox spiega cosa dovrebbe vedere l'utente, cosa sta facendo il sistema e dove il controllo o l'ispezionabilità devono rimanere espliciti.

Spiegazione AI Design

La pagina trasforma il codice sorgente in un pattern orientato al prodotto: cosa può decidere il modello, cosa dovrebbe esporre il prodotto e dove il codice deterministico o la revisione devono subentrare.

Guida all'interazione

  1. 1Leggi il riepilogo dell'implementazione.
  2. 2Esplora gli stati utente e di sistema.
  3. 3Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.

Visibile all'utente

Uno script di tipo script che dimostra openai + pillow.

Lavoro del sistema

Il prodotto prepara un task delimitato per il modello o il workflow.

Perché è importante

L'interfaccia dovrebbe rendere il task delegato leggibile prima che avvenga l'automazione.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

    Runtime architecture

    Usa questo esempio nei tuoi agenti

    Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

    Definisci trigger, contesto e confini prima di aumentare l'autonomia
    Rendi espliciti controllo, osservabilita e recovery nel runtime
    Scegli i pattern operativi giusti prima di delegare ai workflow