Skip to main contentSkip to footer
EsempioscriptbeginnerEseguibilechat-lab

Sora Quickstart

Esempio rieseguibile beginner di tipo script che usa openai, pillow.

Fatti chiave

Livello
beginner
Runtime
Python • API OpenAI
Pattern
Un turno, un output ispezionabile
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Sora Quickstart -> Richiesta utente -> Esecuzione del sistema -> Output verificabile -> Initialize OpenAI client -> Search and retrieve context

Trigger

Sora Quickstart

Runtime

Richiesta utente

Esito

Esecuzione del sistema

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Un turno, un output ispezionabile
Riferimenti sorgente
Voce di libreria
models-openai-08-video-1-sora-quickstart
Percorso sorgente
content/example-library/sources/models/openai/08-video/1-sora-quickstart.py
Librerie
openai, pillow, pydantic, python-dotenv, requests
Requisiti di runtime
OPENAI_API_KEY
Principi correlati

1-sora-quickstart.py

python
import sys
import time
from openai import OpenAI

openai = OpenAI()

# --------------------------------------------------------------
# Create a new video
# --------------------------------------------------------------

# Takes about 2 minutes
video = openai.videos.create(
    model="sora-2",
    prompt="YouTuber, black t-shirt, in a professional studio setup, sitting at his desk talking directly into a Shure SM7B microphone on a boom arm. He says with a smirk: 'Wait... did an AI just generate me to teach you about AI? That's pretty meta...' Dark background with a soft blue LED light glow. Professional lighting setup with key light and rim light. Shot on Sony FX6, cinematic depth of field, crisp focus, vertical format 9:16.",
    size="720x1280",
    seconds="4",
)

print("Video generation started:", video)

# --------------------------------------------------------------
# List all videos
# --------------------------------------------------------------

time.sleep(5)
videos_list = openai.videos.list().data

# --------------------------------------------------------------
# Check the last's video status
# --------------------------------------------------------------

video = openai.videos.retrieve(videos_list[0].id)
print("Video status:", video.status)

# --------------------------------------------------------------
# Download video
# --------------------------------------------------------------

progress = getattr(video, "progress", 0)
bar_length = 30

while video.status in ("in_progress", "queued"):
    video = openai.videos.retrieve(video.id)
    progress = getattr(video, "progress", 0)

    filled_length = int((progress / 100) * bar_length)
    bar = "=" * filled_length + "-" * (bar_length - filled_length)
    status_text = "Queued" if video.status == "queued" else "Processing"

    sys.stdout.write(f"\r{status_text}: [{bar}] {progress:.1f}%")
    sys.stdout.flush()
    time.sleep(2)

sys.stdout.write("\n")

if video.status == "failed":
    message = getattr(
        getattr(video, "error", None), "message", "Video generation failed"
    )
    print(message)
    sys.exit(1)

print("Video generation completed:", video)
print("Downloading video content...")

content = openai.videos.download_content(video.id, variant="video")
content.write_to_file(f"output/{video.id}.mp4")

print(f"Wrote output/{video.id}.mp4")
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Inserisci o carica un messaggio di test.
Esegui un singolo turno della richiesta.
Confronta la risposta con il contratto di prodotto che l'esempio sta insegnando.
SandboxUn turno, un output ispezionabile
Laboratorio del messaggio

Usa questo laboratorio per testare un singolo input, osservare la risposta visibile e capire quale parte del comportamento resta deterministica.

Spiegazione UX

Questi esempi funzionano meglio quando il prodotto rende chiaro il contratto del turno: cosa inserisce l'utente, cosa restituisce il sistema e cosa resta fuori dallo scope.

Spiegazione AI Design

Il modello fa un lavoro circoscritto, mentre il prodotto conserva il confine di controllo. L'interazione dovrebbe mostrare il prompt, la risposta e la forma dell'output senza fingere autonomia più ampia.

Guida all'interazione

  1. 1Inserisci o carica un messaggio di test.
  2. 2Esegui un singolo turno della richiesta.
  3. 3Confronta la risposta con il contratto di prodotto che l'esempio sta insegnando.

Messaggio utente

Un turnoOutput ispezionabile

Risposta visibile

La risposta compare qui.

Contratto di prodotto

Mostra che cosa il prodotto deve tenere esplicito.

Confine di controllo

Rende chiaro che cosa resta deterministico.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

    Runtime architecture

    Usa questo esempio nei tuoi agenti

    Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

    Definisci trigger, contesto e confini prima di aumentare l'autonomia
    Rendi espliciti controllo, osservabilita e recovery nel runtime
    Scegli i pattern operativi giusti prima di delegare ai workflow