Skip to main contentSkip to footer
EsempioscriptintermediateEseguibileguided-flow

Sora Remix

Esempio rieseguibile intermediate di tipo script che usa openai, pillow.

Fatti chiave

Livello
intermediate
Runtime
Python • API OpenAI
Pattern
Flusso ispezionabile con confini di sistema visibili
Interazione
Sandbox live • Script
Aggiornato
14 marzo 2026

Naviga questo esempio

Vista rapida del flusso

Come questo esempio si muove tra input, esecuzione e risultato rivedibile
Sora Remix -> Initialize OpenAI client -> Render the visible result -> video

Trigger

Sora Remix

Runtime

Initialize OpenAI client

Esito

Render the visible result

Perché esiste questa pagina

Questo esempio è mostrato sia come codice sorgente reale che come pattern di interazione orientato al prodotto, così i discenti possono collegare implementazione, UX e dottrina senza lasciare la libreria.

Flusso visivoCodice realeSandbox o walkthroughAccesso MCP
Come dovrebbe essere usato questo esempio nella piattaforma?

Usa prima la sandbox per comprendere il pattern di esperienza, poi ispeziona il sorgente per vedere come il confine del prodotto, il confine del modello e il confine della dottrina sono effettivamente implementati.

UX pattern: Flusso ispezionabile con confini di sistema visibili
Riferimenti sorgente
Voce di libreria
models-openai-08-video-5-sora-remix
Percorso sorgente
content/example-library/sources/models/openai/08-video/5-sora-remix.py
Librerie
openai, pillow, pydantic, python-dotenv, requests
Requisiti di runtime
OPENAI_API_KEY
Principi correlati

5-sora-remix.py

python
import os
from datetime import datetime
from openai import OpenAI
from utils.downloader import download_sora_video

openai = OpenAI()

# Character description for consistency
CHARACTER = (
    "A 30-year-old male programmer with short dark hair, beard, wearing a black t-shirt"
)

shots = [
    # Shot 1: Kitchen Hook - The attention grabber
    f"{CHARACTER} standing in a modern kitchen, holding a coffee mug, looking directly at the camera with wide eyes and an excited expression. He says: 'OpenAI just dropped Sora 2 API at 2am... I've been up all night, this is INSANE.' Natural morning light from window, handheld camera feel, shot on Sony FX3, shallow depth of field, vertical 9:16 format. Kitchen counter and coffee machine visible in background.",
    # Shot 2: Walking/Hallway Transition - The value proposition
    "The same man walking through a hallway toward his office, maintaining his appearance from the previous shot. Gesturing animatedly while talking to the camera. He says with enthusiasm: 'Generate videos with 10 lines of Python. B-roll? Done. Product demos? Easy.' Tracking shot following him, natural indoor lighting transitioning to office glow, shot on Sony FX3 with gimbal, cinematic movement, vertical format.",
    # Shot 3: Office Desk Payoff - The promise
    "The same man now sitting at his professional studio desk with Shure SM7B microphone on boom arm. Same appearance and clothing. Dark background with soft blue LED light glow. He leans forward with a confident smile and says: 'In this video I'll show you how to use Sora 2 API and the prompting tricks that work. Let's go.' Professional three-point lighting, shot on Sony FX3, cinematic depth of field, vertical 9:16 format.",
]

# Create unique sequence folder
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
output_dir = f"./output/sequence_{timestamp}"
os.makedirs(output_dir, exist_ok=True)

print("Creating 3-shot sequence using remix...\n")
print(f"Output folder: {output_dir}\n")

# --------------------------------------------------------------
# Create Shot 1
# --------------------------------------------------------------

print("Generating Shot 1...")
video = openai.videos.create(
    model="sora-2",
    prompt=shots[0],
    size="720x1280",
    seconds="8",
)

print("Shot 1 generation started:", video)
video = download_sora_video(video, output_dir, "shot_1")

# --------------------------------------------------------------
# Remix to Shot 2
# --------------------------------------------------------------

print("\nGenerating Shot 2 via remix...")
remix_video = openai.videos.remix(
    video_id=video.id,
    prompt=shots[1],
)

print("Shot 2 generation started:", remix_video)
remix_video = download_sora_video(remix_video, output_dir, "shot_2")

# --------------------------------------------------------------
# Remix to Shot 3
# --------------------------------------------------------------

print("\nGenerating Shot 3 via remix...")
remix_video_2 = openai.videos.remix(
    video_id=video.id,
    prompt=shots[2],
)

print("Shot 3 generation started:", remix_video_2)
remix_video_2 = download_sora_video(remix_video_2, output_dir, "shot_3")

print(f"\n✓ All 3 shots saved to {output_dir}/")
print("\nUse 6-sora-sequence.py to stitch them together!")
Cosa dovrebbe ispezionare il discente nel codice?

Cerca il punto esatto in cui lo scope del sistema è delimitato: definizioni di schema, impostazione del prompt, configurazione di runtime e il punto di chiamata che trasforma l'intenzione dell'utente in un'azione concreta del modello o del workflow.

Cerca i contratti di output e la validazione
Cerca la chiamata di esecuzione esatta
Cerca cosa il prodotto potrebbe esporre all'utente
Come si relaziona la sandbox al sorgente?

La sandbox dovrebbe rendere leggibile l'UX: cosa vede l'utente, cosa sta decidendo il sistema e come il risultato diventa revisionabile. Il sorgente mostra poi come quel comportamento è effettivamente implementato.

Leggi il riepilogo dell'implementazione.
Esplora gli stati utente e di sistema.
Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.
SandboxFlusso ispezionabile con confini di sistema visibili
Guida all'interazione

Usa la sandbox per esplorare l'esperienza visibile all'utente, il lavoro del sistema e la scelta dottrinale che l'esempio sta facendo.

Spiegazione UX

La sandbox spiega cosa dovrebbe vedere l'utente, cosa sta facendo il sistema e dove il controllo o l'ispezionabilità devono rimanere espliciti.

Spiegazione AI Design

La pagina trasforma il codice sorgente in un pattern orientato al prodotto: cosa può decidere il modello, cosa dovrebbe esporre il prodotto e dove il codice deterministico o la revisione devono subentrare.

Guida all'interazione

  1. 1Leggi il riepilogo dell'implementazione.
  2. 2Esplora gli stati utente e di sistema.
  3. 3Ispeziona il codice sorgente tenendo a mente le decisioni dottrinali evidenziate.

Visibile all'utente

Uno script di tipo script che dimostra openai + pillow.

Lavoro del sistema

Il prodotto prepara un task delimitato per il modello o il workflow.

Perché è importante

L'interfaccia dovrebbe rendere il task delegato leggibile prima che avvenga l'automazione.

Usato in corsi e percorsi

Questo esempio attualmente è indipendente nella libreria, ma si connette comunque al sistema dei principi e alla famiglia di esempi più ampia.

Principi correlati

    Runtime architecture

    Usa questo esempio nei tuoi agenti

    Questo esempio è disponibile anche tramite il layer agent-ready del blueprint. Usa la pagina Per agenti per recuperare MCP pubblico, export deterministici e setup per Claude o Cursor.

    Definisci trigger, contesto e confini prima di aumentare l'autonomia
    Rendi espliciti controllo, osservabilita e recovery nel runtime
    Scegli i pattern operativi giusti prima di delegare ai workflow