Gaussian Splatting: esplorazioni tecniche con video generati dall’AI

logo Aquest
AQuest
3 settembre 2025

Gaussian Splatting

Quanti modi esistono per realizzare un’esperienza interattiva su web? 
Probabilmente a centinaia, che sfruttano diverse tecnologie e modalità di rappresentazione: dal WebGL al rendering in real-time, dal 3D tradizionale a soluzioni ibride. 

Con l’arrivo dell’AI generativa però tutto cambia e si trasforma: dal modo in cui vengono concepite le idee fino alla modalità di lavoro che snellisce i processi e favorisce la sperimentazione, su perimetri che fino a poco tempo fa erano stati fissati e definiti in modo preciso.

Negli ultimi mesi, progettando esperienze digitali per il luxury, incentrate su product finder e product exploration, abbiamo iniziato a porci nuove domande in chiave R&D, e ci siamo resi conto che dietro ogni sfida si nascondeva una domanda più grande: come l’AI generativa potrebbe entrare nei nostri flussi di lavoro per renderli più rapidi, più efficienti e al tempo stesso più creativi?

Il punto di partenza

Se di solito nei progetti è l’idea creativa a guidare ogni scelta progettuale, qui abbiamo deciso di ribaltare la prospettiva: abbiamo lasciato che fosse la tecnologia a tracciare la strada, senza imporle limiti. Un approccio che ci ha permesso di scoprirne nuove potenzialità e di sperimentarle concretamente all’interno del progetto.

Abbiamo immaginato di trasformare una fragranza in un paesaggio digitale: uno spazio interattivo in cui le note olfattive diventano elementi visivi che ne rappresentano la combinazione. Un ambiente da esplorare e scoprire, grazie al tap sugli elementi 3D all’interno della composizione, come se fossero parti di un mondo sensoriale.

Per questa sperimentazione abbiamo preso spunto da una moodboard rappresentativa di un giardino zen, simbolo di un luogo evocativo che ci potesse permettere ampio spazio di manovra anche con l’inserimento di elementi a richiamo delle più conosciute note olfattive.

00

Generare un ambiente 3D con l’AI

La domanda da cui siamo partiti è stata semplice, ma stimolante: qual è oggi un modo rapido per generare un ambiente 3D con l’AI, utilizzando gli strumenti disponibili?

La sfida non è soltanto tecnica, ma soprattutto creativa.
Crediamo che il futuro del 3D non passi dal limitarsi a replicare i workflow già noti, bensì dall’inventare nuovi modi di sfruttare e combinare gli strumenti. Mescolare tecnologie differenti diventa così la chiave per creare esperienze sempre nuove e stimolanti, capaci di superare la logica del “già visto”.

Dalla fotogrammetria al Gaussian Splatting

Abbiamo sempre avuto una passione per la fotogrammetria e le sue evoluzioni: dalla classica mesh poligonale, ai NeRF, fino al più recente Gaussian Splatting.
Ci colpisce la capacità di queste tecniche di catturare frammenti di realtà e trasformarli in spazi digitali esplorabili.

La riflessione è stata naturale: se nella fotogrammetria tradizionale è necessario muovere fisicamente una camera intorno all’oggetto per ottenere una ricostruzione accurata, potevamo replicare questo flusso in digitale? In altre parole: è possibile simulare il movimento della camera attraverso video generati direttamente dall’AI?
Questa intuizione ha guidato l’intero esperimento.

Il workflow sperimentale

Come soggetto abbiamo scelto un giardino zen, luogo simbolico di calma e contemplazione, perfetto da reinterpretare in chiave digitale.
Utilizzando AI generativa, abbiamo prodotto la base visiva della scena, successivamente animata, sempre tramite AI, ottenendo una serie di clip di circa 8-10 secondi ciascuna.

Ogni clip rappresentava un punto di vista differente, così da costruire un set di prospettive che, unite, simulavano una vera ripresa a 360° dell’ambiente.

Generazione img-to-vid
Generazione img-to-vid


Una volta montate insieme, queste sequenze sono state elaborate con LumaLabs in modalità Gaussian Splatting, producendo un file PLY navigabile. Il risultato era un modello 3D denso e fotorealistico, pronto per essere fruito in tempo reale.


02
Preview Gaussian Splatting viewer LumaLabs

Perché il Gaussian Splatting

La scelta del Gaussian non è stata casuale.
La fotogrammetria classica richiede immagini estremamente consistenti e precise: piccoli errori o incoerenze si traducono subito in difetti visibili. I video AI, per loro natura, presentano inevitabili instabilità e variazioni frame-to-frame, difficili da gestire con un approccio tradizionale.

Il Gaussian Splatting, invece, si è rivelato molto più flessibile.
Grazie alla sua rappresentazione a “nuvola di gaussiani 3D”, tollera con maggiore naturalezza le discrepanze, producendo comunque un risultato coerente e convincente. È proprio questa resilienza all’imperfezione a renderlo uno strumento ideale quando si lavora con dataset generati da AI.

Dall’esperimento al prototipo

Una volta ottenuto l’ambiente, la domanda successiva è stata: come possiamo renderlo utile e applicabile a scenari reali? Non volevamo limitarci a un esercizio tecnico, ma esplorare come questo workflow potesse tradursi in un prototipo concreto.

Le nostre competenze 3D hanno giocato un ruolo fondamentale.
Partendo dal file PLY generato con Gaussian, abbiamo arricchito la scena integrando oggetti 3D poligonali da libreria: elementi capaci di aggiungere solidità, dettagli e punti di interazione all’interno dell’ambiente.

Questo passaggio ci ha fatto riflettere su un aspetto importante: 3D e AI non sono strumenti in competizione, ma complementari. Governarli entrambi significa poter creare scenari complessi e credibili con una rapidità prima impensabile. È qui che si gioca un vantaggio competitivo reale.

Le difficoltà tecniche

Naturalmente non tutto è stato immediato.
Il formato Gaussian (PLY) è ottimizzato per viewer web e motori dedicati, ma presenta limitazioni quando viene importato in software 3D come Blender, dove non riuscivamo a ottenere la stessa qualità visiva.

Per superare l’ostacolo, abbiamo scelto di adottare PlayCanvas, una piattaforma web-based che si è dimostrata ideale per i nostri obiettivi: non solo ha permesso di integrare con efficacia asset Gaussian e modelli poligonali, ma ci ha anche garantito leggerezza, qualità e immediatezza nell’esecuzione.


03
Layout della scena 3D nell'interfaccia di PlayCanvas

PlayCanvas come ambiente interattivo

Qui è arrivata la vera sorpresa. Inizialmente vedevamo PlayCanvas come un semplice strumento di visualizzazione: utile per ruotare e osservare una scena in tempo reale.

In realtà ci siamo accorti che offriva molto di più.
PlayCanvas ci ha permesso di introdurre logiche interattive, trasformando un esperimento statico in un vero e proprio prototipo di esperienza immersiva.

Anche senza un background di sviluppo software, siamo riusciti, grazie all’ausilio di ChatGPT-5, utilizzato come coding coach e generatore di script, a implementare interazioni semplici e intuitive, come hotspot e pannelli informativi, dando vita a un ambiente esplorabile direttamente dal browser.


04Uso di Chat Gpt-5 per generare lo script per l'effetto di Aberrazione Cromatica da applicare alla camera

Inoltre, abbiamo capito fino a che punto può arrivare una singola persona, senza competenze avanzate di programmazione, se supportata dagli strumenti giusti e dall’AI.

Il risultato è stato sorprendente.
L’unione tra tool accessibili e intelligenza artificiale ha dimostrato di poter abbassare drasticamente le barriere d’ingresso, aprendo la strada a nuove modalità di prototipazione rapida e sperimentazione creativa.

Negli ultimi anni stiamo maturando sempre più la consapevolezza che, per ottenere risultati concreti in R&D, servono metodo, apertura a competenze diverse e sensibilità estetica. La conoscenza tecnica da sola non basta: è la capacità di mescolare strumenti e discipline con visione che fa davvero la differenza.

Conclusione tecnica

In pochi passaggi, un’idea sperimentale si è trasformata in una prototipazione interattiva funzionante, pronta per essere mostrata e testata.
Questo workflow,  rapido, flessibile e innovativo, ci ha permesso di esplorare concretamente il futuro delle esperienze digitali: uno spazio in cui AI e 3D non solo convivono, ma si esaltano a vicenda, aprendo la strada a nuove forme di storytelling e interazione.

R&D dell´esperienza conclusa

Cosa cambia per i brand?

Per i brand si apre un nuovo capitolo di opportunità legate allo storytelling immersivo: se da un lato le strutture archetipali rimangono le stesse (scoperta del nuovo, meraviglia nell’esplorazione, ecc.) ciò che cambia profondamente è la modalità narrativa

Cambia il livello di profondità con cui le persone possono immergersi all’interno di un’esperienza, e cambia anche la modalità di interazione che può passare da una modalità passiva ad una invece più interattiva.
Pensiamo ad esempio alla possibilità di co-creare parte dei contenuti live, consentendo ai brand di offrire un’esperienza veramente personalizzata.

Sicuramente ci sono tante variabili da considerare: l’adozione e il perfezionamento delle tecnologie, la maturità digitale dei brand, i touchpoint sui quali questo tipo di esperienze avranno più possibilità di essere accessibili, la linea sempre più sottile tra digitale e fisico. 

Ma la certezza è che oggi non possiamo parlare di punto di arrivo ma di un ottimo punto di partenza.

Autori:
Alessio Merulla | Head of 3D & Ai Explorer @AQuest
Michele Zorzetto | Creative Director @AQuest


Hai una storia o un progetto da raccontare? 

Condividi con noi le tue idee e obiettivi: sapremo ascoltarli e troveremo insieme la migliore strategia di comunicazione digitale. 


Contattaci