Un agente intelligente che traduce la percezione visiva e il suono ambientale in texture granulari in continua evoluzione. Mai ripetitivo. Sempre reattivo. Progettato per musei, gallerie e installazioni immersive.
Sei moduli AI integrati lavorano insieme per creare paesaggi sonori reattivi e in evoluzione
OpenAI CLIP analizza i feed delle telecamere in tempo reale, traducendo il contenuto visivo in texture di sintesi granulare. Una scultura cristallina produce toni luccicanti; folle dense creano pad caldi e stratificati.
Rileva valenza emotiva e arousal dall'audio ambientale. Le risate illuminano il paesaggio sonoro; la contemplazione silenziosa approfondisce il riverbero e rallenta la densità dei grani. Lo spazio risponde ai suoi visitatori.
I processi Ornstein-Uhlenbeck garantiscono una deriva continua dei parametri con rilevamento di novità. Il sistema non si ripete mai, anche dopo 72+ ore di funzionamento continuo.
Transizioni probabilistiche tra sezioni creano un'architettura musicale a lungo termine: sviluppo, climax, rilascio, transizione, quiete. Consapevolezza dell'ora del giorno per adattare il carattere generale.
Motori a vibrazione e strisce LED WS2812B controllati da ESP32 traducono il mood in sensazioni fisiche. I visitatori percepiscono il soundscape attraverso il tatto e la luce ambientale.
Controlla Reaper, QLab, Resolume, TouchDesigner, GrandMA3 e altri via OSC. Un singolo agente orchestra un'intera installazione multi-sensoriale attraverso un bridge WebSocket unificato.
Simula il comportamento dell'agente: modifica i parametri ambientali e osserva la sintesi rispondere in tempo reale
Il soundscape risponde in tempo reale all'ambiente: i fader di Reaper si muovono, i grani si modulano, il suono evolve.
Video demo completa in arrivo
Contattaci per una demo dal vivo via videocall
Sintesi granulare a 64 grani con plugin JSFX custom. Buffer circolare 8 secondi, pitch shifting, envelope trapezoidale.
OpenCLIP ViT-B-32 analizza ogni frame e proietta l'embedding visivo nello spazio dei parametri di sintesi.
Processo Ornstein-Uhlenbeck + catene di Markov: il suono non si ripete mai, anche dopo 72+ ore.
Un agente Python modulare che si integra con i tuoi software di produzione esistenti
Licenze flessibili per installazioni di qualsiasi dimensione
Scopri come la nuova generazione di MOOD trasforma il design sonoro con intelligenza artificiale autonoma.
Un agente AI ascolta l'ambiente (luce, movimento, acustica) e genera soundscapes completamente nuovi in tempo reale, senza playlist predefinite. Impara dai tuoi spazi e adatta il suono momento dopo momento.
| Caratteristica | MOOD 1.0 | MOOD 2.0 |
|---|---|---|
| Generazione Audio | Playlist + QLab | Sintetizzazione AI in tempo reale |
| Adattabilità | Manuali (scene predefinite) | Autonoma (impara dall'ambiente) |
| Setup | Lungo (script complessi) | Rapido (config via UI) |
| Integrazione | QLab native | OSC (QLab, Resolume, Ableton...) |
| Intelligenza | Reattiva | Generativa + Predittiva |
| Scalabilità | 1-2 ambienti | Multi-room + cloud-ready |
Ogni momento è unico. Niente ripetizioni, solo soundscapes generati dal vivo.
Legge luce, movimento, acustica reale e adatta l'audio automaticamente.
OSC integra qualsiasi sistema: QLab, Resolume, grandMA, TouchDesigner.
Parliamo di come MOOD Soundscape può dare vita al tuo spazio con audio generativo e reattivo.