Perchè Origĭns? Ognuno di noi ha delle origini, radicate nel contesto socio-culturale, nel periodo storico in cui viviamo e in ciò che sentiamo appartenere alla nostra identità. Nel campo della comunicazione, pensiamo che le origini rappresentino il punto di partenza del nostro percorso creativo: dall’ideazione alla manipolazione, fino alla realizzazione di un prodotto.
Con l’avvento dell’AI, nasce il timore che questa tecnologia possa sostituirci, privandoci del nostro ruolo nel processo creativo. Ma la realtà è diversa – almeno per ora! L’AI è uno strumento potente ma complesso, e governarlo non è così semplice come si potrebbe pensare. Non è una soluzione ai nostri problemi creativi e produttivi, bensì una nuova dimensione attraverso cui possiamo esprimerci.
Con Originĭs, abbiamo esplorato e creato un contenuto audiovisivo stilisticamente distintivo, che racconta l’intersezione tra tradizione e innovazione. Ci siamo ritagliati uno spazio di ricerca e sviluppo per approfondire questo equilibrio. Pur avvalendoci della tecnologia AI, abbiamo affrontato ogni fase della classica pipeline produttiva audiovisiva, sia nel farlo concretamente sia nel rappresentarlo visivamente: dall’ispirazione alla creazione artigianale, fino all’integrazione tecnologica.
In questo articolo vi porteremo dietro le quinte della realizzazione del nostro cortometraggio di prodotto, esplorando il percorso che va dalla narrazione alla produzione 3D, fino al montaggio, con il supporto dell’intelligenza artificiale. Questo progetto è uno dei tanti risultati della nostra sperimentazione con l’AI, che portiamo avanti da qualche anno.
Per questo, ci siamo dati un obiettivo preciso. Ci sono molti modi e motivi per fare ricerca e sviluppo, e le parole chiave che ci siamo dati per questo progetto sono Estetica e Prodotto. Perchè estetica? Amiamo il bello, creare emozioni e produrre risultati di qualità. Ma qualità non significa necessariamente alta risoluzione o 4K; per noi e per chi lo guarda, significa che, dopo aver visualizzato il contenuto, ci si sente appagati, come dopo aver mangiato un buon piatto.
Perché Prodotto? Il motivo è legato al fatto che, sebbene l’AI sia uno strumento straordinario (specialmente per i software consumer che stiamo introducendo in AQuest), non ha ancora la capacità di garantire che un prodotto venga generato senza deformazioni o imperfezioni, a differenza di strumenti come ComfyUI, che permetterebbero di creare dei LoRa e avere maggior controllo sull’output. I nostri clienti vogliono che i loro prodotti siano perfetti, senza errori. È per questo che, come vedremo, è necessario un piccolo "aiuto" umano, ed è qui che entrerà in gioco la produzione 3D.
AI: Tools & Software
Il nostro flusso di lavoro continua a evolversi e a cambiare nel tempo, siamo sempre alla ricerca di nuovi strumenti, stabili e non, perché ognuno di loro ci lascia delle "melodie" che ci piace definire come il nostro essere polistrumentisti.
Prima di cominciare, sveliamo l'arcano: una delle domande che tutti si pongono è quali AI e strumenti che sono stati utilizzati. E noi vogliamo mettere tutto sul piatto, in ordine di utilizzo: Midjourney, Pure Ref, Photoshop, Blender, Topaz Ai Photo, Runway, Kling.ai, Google-Veo 2, Topaz Video, Premiere Pro, Artlist, ElevenLabs, Adobe Media Encode.
Text to image [Midjourney]
L'obiettivo era ottenere un risultato estetico di alto livello, quindi abbiamo deciso di concentrarci su un prodotto di design iconico. Una volta definito il prodotto e l'idea di base del messaggio che volevamo trasmettere, ci siamo dedicati alla generazione delle immagini, che ci ha permesso di costruire uno storyboard efficace.
In totale, sono state generate 1.104 immagini, un numero che potrebbe sembrare elevato, ma che fa parte di un processo creativo/produttivo naturale e indispensabile per affinare il risultato finale.
Alla fine, solo 16 di queste immagini sono state effettivamente utilizzate nel progetto.

Ecco il prompt che ha generato l'immagine che ha ispirato tutta la fotografia del video:
“eames white plastic chair on top of a hill, shot from below, 3d artistic render, sunset lighting, dreamy mood, product render, cinematic shot – ar 16:9 – Style Raw”
Come potete vedere nell'immagine sottostante, il prodotto non corrisponde esattamente alla realtà, come ci aspettavamo, e presenta anche dei difetti, come le gambe che non sono correttamente attaccate alla seduta.
Nel flusso di generazione su MidJourney, è molto importante ottenere la prima immagine che rappresenti in modo efficace il canone e lo stile del progetto. Questo passaggio è fondamentale perché, una volta ottenuta, può essere utilizzata come riferimento per le immagini successive (tramite il comando –sref), aiutando così a mantenere coerenza stilistica in tutto il progetto.
Storyboard [PureRef]
In questo caso, come nella maggior parte delle produzioni, prima di avviare la fase operativa è stato fondamentale verificare la coerenza e la fattibilità dell'idea.
Per realizzare lo storyboard è stato necessario selezionare le immagini generate. Questa fase è molto importante ed è un momento riflessivo in cui devono emergere competenze creative, registiche e tecniche. La scelta delle immagini comporta quindi una decisione estetica che influenzerà l'emozione e l'identità visiva del video. Le immagini devono riuscire a raccontare il concetto che vogliamo esprimere e, al tempo stesso, devono essere valutate dal punto di vista tecnico per capire come l'intelligenza artificiale video-generativa possa tradurre e restituire l'output desiderato.
Questo processo dimostra come più del 95% del materiale è stato scartato per isolare gli elementi fondamentali del progetto. Dopo aver selezionato le immagini per raccontare la nostra storia, abbiamo sviluppato uno storyboard dettagliato e realizzato un montaggio preliminare. In questa fase, abbiamo pianificato i movimenti di camera e gli effetti visivi che ci aspettavamo di ottenere durante la generazione del video.
Sporchiamoci le mani [Photoshop, Blender]
Siamo arrivati al punto in cui l’intelligenza artificiale incontra la produzione tradizionale. Le competenze tecniche che un tempo consideravano hard skills, in questo progetto si sono trasformate in soft skills essenziali per controllare il processo creativo e raggiungere il nostro obiettivo.
Tutte le immagini selezionate sono state analizzate e ripulite con Photoshop per eliminare dettagli indesiderati, pur mantenendo alcune "imperfezioni" generate dall’AI. Come previsto – e motivo della nostra R&D e di questo progetto – l’elemento più problematico è stato la sedia: l'intelligenza artificiale non è mai riuscita a riprodurla fedelmente, generando ogni volta una versione diversa dall'originale.
Per risolvere questo problema, abbiamo rimosso la sedia da tutte le immagini generate e utilizzato i background in Blender per reinserire il prodotto 3D nella prospettiva corretta. Successivamente, abbiamo ricreato fedelmente luci e ombre per garantire un’integrazione naturale.
Infine, abbiamo renderizzato separatamente la sedia e l’abbiamo integrata nell’immagine ripulita e compositata, ottenendo così l’ambientazione desiderata con un prodotto perfettamente fedele alla realtà.
Image to Video [Runway, kling.ai, Google Veo2]
Fino a poco tempo fa, ottenere una generazione video di qualità era quasi impossibile: qualcosa sembrava sempre non funzionare, e i tempi di elaborazione erano lunghi e imprevedibili. Tuttavia, con il tempo, sono emerse numerose soluzioni, ciascuna con funzionalità specifiche e strumenti sempre più avanzati, trasformandosi in veri e propri software online.
Una lezione fondamentale che stiamo apprendendo è che non possiamo affezionarci a un unico tool di generazione video (e non solo). Il settore è in continua evoluzione e ogni nuova tecnologia offre potenzialità differenti, che è essenziale conoscere, confrontare e sfruttare al meglio.
Runway
Runway è stato il primo tool di AI video che abbiamo testato in agenzia, e possiamo dire di averne seguito la crescita da vicino. Ogni nuovo progetto sembrava coincidere con un suo aggiornamento puntuale, e la modalità Gen-3 Alpha a crediti illimitati ci ha dato l'opportunità di effettuare test approfonditi senza preoccuparci dei costi.
Purtroppo, nel periodo in cui abbiamo realizzato questa ricerca, la qualità dei risultati non era ancora ottimale. Tuttavia, abbiamo sfruttato la sua velocità generativa come banco di prova per valutare il comportamento delle scene selezionate prima di passare a strumenti più avanzati.
Kling.ai
Inizialmente sottovalutato, Kling.ai si è rivelato un'ottima scoperta per l’agenzia. Non è tra le soluzioni più economiche, ma le sue funzionalità sono di alto livello. Ci siamo affidati a questo tool perché, tra quelli testati, si è dimostrato il più affidabile nel mantenere forme e caratteristiche del prodotto in video di 5-10 secondi. A differenza di altre piattaforme, Kling sembra privilegiare la qualità rispetto alla quantità.
Google Veo 2
Non ancora disponibile in Italia, ma grazie all’infrastruttura interna del gruppo WPP – molto attivo nel panorama dell’AI, nonché collaboratore di NVIDIA su questo tema – abbiamo avuto accesso in anteprima, seppur con alcune limitazioni.
I risultati ottenuti sono stati sorprendenti: la qualità visiva è nettamente superiore rispetto ad altre soluzioni, con un realismo notevole. Tuttavia, abbiamo riscontrato una certa instabilità nella traduzione dei prompt: spesso il tool non riprendeva l’immagine di partenza, generando scene completamente nuove. Per questo motivo, abbiamo deciso di affidarci a Veo 2 per tutte le sequenze in cui la sedia non era presente
Sound & Editing [Artilist, ElevenLabs e Premiere Pro]
Una frase ricorrente all'interno di Aquest, specialmente nella unit Production, dove viene realizzata la maggior parte dei contenuti audiovisivi, è: "La musica fa il 50% del video".
Ed è vero.
La musica gioca un ruolo fondamentale nella comunicazione visiva: ha il potere di toccare le corde più profonde dello spettatore e persino il più piccolo sound effect, inserito nel punto giusto, può suscitare quel brivido che amplifica l'esperienza visiva.
Per questo motivo, abbiamo deciso di affrontare la componente sonora mescolando tradizione e innovazione. Abbiamo scelto il calore e l’espressività di un artista per la colonna sonora, selezionata su Artlist, mentre per la creazione degli effetti sonori ci siamo affidati all’intelligenza artificiale di ElevenLabs.
Naturalmente, anche la fase di editing ha avuto un ruolo chiave. Per il montaggio e la post-produzione abbiamo utilizzato uno strumento ormai consolidato nel settore: Adobe Premiere Pro. Questo ci ha permesso di organizzare il materiale e le idee in un unico contenuto coeso e ben strutturato.
Ancora una volta, emerge il valore del craft e della sensibilità umana, che rimangono insostituibili e alla base del nostro processo creativo.
AI e Creatività: Un’Integrazione, Non una Sostituzione
L’intelligenza artificiale non è un sostituto della creatività umana, ma un amplificatore delle sue possibilità. Con Originĭs, abbiamo dimostrato come tradizione e innovazione possano coesistere, valorizzandosi a vicenda. L’AI non elimina il nostro intervento, ma ci costringe a ripensare il nostro ruolo, spingendoci a trovare nuovi modi per esprimere idee, migliorare la qualità e rendere più efficiente il processo produttivo.
Il vero valore rimane nella sensibilità, nel controllo e nella visione di chi utilizza questi strumenti. Ogni tecnologia, per quanto avanzata, ha bisogno di un tocco umano per trasformarsi in un prodotto capace di emozionare. È proprio in questo equilibrio tra automazione e artigianalità che risiede il futuro della produzione audiovisiva.
Ecco il risultato:
Hai una storia o un progetto da raccontare?
Condividi con noi le tue idee e obiettivi: sapremo ascoltarli e troveremo insieme la migliore strategia di comunicazione digitale.
Autore
Alessio Merulla | Head of 3D - Direzione creativa e AiR&D
Giacomo de Togni | 3D Artist Web Specialist - Ai Prompt e 3D
Giacomo Caloi | 3D artist - AiR&D