¶ Intelligenza Artificiale Nel Settore Cinematografico
Benvenuto su Innovation Stories , il podcast che parla di innovazione , growth mindset e intelligenza artificiale . Vorrei innanzitutto che ti introducessi ai nostri ascoltatori , ci raccontassi un po' chi sei e cosa fai , in particolare nel settore del cinema , e poi inizieremo a parlare un po' di come stai utilizzando o utilizzerai l'AI , l'intelligenza artificiale .
Ciao Daniele , grazie intanto di avermi invitato . Ho visto la prima puntata con grande , grande attenzione . Mi è piaciuta molto . Io sono un produttore esecutivo soprattutto e faccio anche il produttore cinematografico soprattutto e faccio anche il produttore cinematografico .
Però quello che volevo dire è che ho un background molto più legato alla fabbricazione del prodotto che non al finanziamento . Per spiegare che cos'è un produttore , vengo appunto dalla tecnica .
Ho cominciato relativamente molto giovane a lavorare alla camera , poi sono passato al montaggio e infine sono passato alla parte logistica della produzione e lì ho ampliato il mio sguardo sulla gestione dei workflow , perché poi alla fine nel cinema è un grande incastro di tanti tipi di workflow , cioè c'è quello della fabbricazione , ognuno dei quali poi è un grande
diagramma di Gantt come si incastrano i vari pezzi che sono legati alla camera e dopo alla gestione dell'immagine . Ma lo è anche la parte di produzione , perché comunque io adesso mi occupo spessissimo di cash flow .
Quindi significa , come dire , il workflow dei soldi è sempre la stessa cosa , sono tutte quante grandi pipeline che devi fare in modo che non si intasino . Questo è per cominciare e finire praticamente il prodotto . Come cambia il mio rapporto con l'intelligenza artificiale ?
Intanto penso che il cambio sia stato molto graduale , solo che noi cominciamo ad utilizzare da due anni e mezzo , insomma , dall'annuncio di CharGPT , cominciamo ad utilizzare il termine intelligenza artificiale C'è sempre stata , nel senso che io le mie prime reti neurali le ho studiate 25 anni fa e grosso modo dal punto di vista teorico non mi sembra che ci siano state
delle rivoluzioni incredibili . Dico dal punto di vista teorico , cioè dal punto di vista pratico . Invece ci siamo trovati con questo connubio di masse di dati incredibili .
Con l'arrivo della rete , quindi chiaramente diciamo con internet perché io ti parlo appunto delle prime reti neurali , non c'era ancora il protocollo Gouffer , quando mi ricordo che ho sentito la parola rete neurale Abbiamo cominciato ad avere grandi masse di dati e grande potenza di calcolo .
Grande potenza di calcolo Le due cose insieme hanno creato , diciamo , la possibilità di avere chat GPT , che dalla settimana scorsa ci parla come computer di Star Trek . L'algoritmo invece invece c'è da tanto tempo .
Però voglio dire che quando noi utilizziamo i programmi , cioè nel senso comunque , quando noi utilizziamo qualsiasi tipo di software , gli algoritmi , dentro il software ce n'è da tanto . Quindi l'intelligenza artificiale ha un cammino lungo che viene da lontano e di cui improvvisamente adesso si parla nel lagone pubblico . Però , ecco , la differenza è solo quella .
Nel cinema che cosa succede ? abbiamo fatto tantissime rivoluzioni tecnologiche , l'abbandono della pellicola sicuramente è stata la cosa più marcante . Ancora oggi diciamo la pellic per antonomasia , per dire il film , quindi insomma il stesso film . La parola in inglese vuol dire pellicola .
Quindi voglio dire , è proprio la sua natura tecnologica che lo definisce il cinema , e quella l'abbiamo scavalcata . Lo possiamo fare oggi , ma non è necessario , non è più così importante . Quello comincia da che , ti devo dire , comincia il grande processo di trasformazione .
Comincia appunto con l'arrivo del digital intermediate , del DI , cioè quando abbiamo cominciato a fare le scansioni della pellicola e abbiamo completamente cambiato il processo di color grading , cioè tutto quello che prima era una stampa molto simile a quella vecchia fotografica , cioè i principi chimici sono esattamente gli stessi e quindi si andava a ritoccare qualche punto di
colore nelle scale importanti . Però insomma , il grande lavoro si doveva fare sul set , sostanzialmente , e poi dopo c'era la possibilità di recuperare un pochino , riequilibrare , ma insomma i direttori della fotografia vedevano i giornalieri , cioè giorno per giorno si proiettavano quello che avevano visto . Quindi io ho cominciato a lavorare .
Noi eravamo obbligati perchéunto conciata la camera , quindi ero più piccolo della camera tutta l'equipe doveva seguire il direttore fotografia .
Andavamo tutti al laboratorio e ci vedevamo tutti quello che avevamo fatto , tipo due giorni prima che era il tempo tecnico praticamente dello sviluppo , la stampa per proiettarlo qui , ciò da regionale , infinite , molto , molto lunghe , quindi pochissimo sonno , perché poi appunto la scala gerarchica prevedeva sempre che tu eri quello che chiudeva il camion , eri pure quello che
l'apriva e quindi insomma dovevi fare queste cose . Oggi è molto più facile perché , per esempio , la proiezione non esiste più , cioè la proiezione dei girati , salvo casi specifici in cui ci sia il regista che la domanda non si fa più . Quindi non c'è più proprio questo .
Anche rito , perché comunque era un momento in cui poi magari una volta a settimana prima , il regista arrivava con la segretaria di edizione , con i capi reparto , quindi il costumista , il truccatore , la costumista , le truccatrici , insomma tutti a vedere quello che avevamo fatto . Era un lavoro molto , molto più amalgamato , diciamo così .
Grazie a questi momenti oggi invece hai la possibilità di vederti direttamente sul telefonino e guardi quello che è stato girato magari il giorno prima . Quindi hai pure accorciato direttamente tantissimo questi tempi . Quindi ci sono dei cambi con la tecnologia .
Quello che succede con l'intelligenza artificiale è che ti posso dire che fra poco penso non veramente molto potrai vedere quello che hai girato poche ore prima , cioè durante la stessa giornata , sul tuo telefonino , grazie al fatto che in realtà , probabilmente il percorso del video assist sarà sostituito da un algoritmo che risponde direttamente a quello che gli chiedi e
quindi gli dici scusa , mi fai rivedere le scene di tre ore fa . E quello ce l'ha sull'hard disk .
C'ha anche magari un suo wifi personale , per cui lo vedi direttamente sul telefonino , sul set , chiedendolo al telefonino secondo te , come l'intelligenza artificiale sta cambiando il processo creativo del cinema e anche quello produttivo , cioè dammi due esempi , secondo te , di come questa cosa si sta implementando allora guarda dal punto di vista creativo .
Ti dico , per esempio , in Francia passo la gran parte del mio tempo negli ultimi anni , ma io sono sempre dalla Roma a Parigi hanno creato un'intelligenza artificiale per la scrittura che si chiama Gennario . Esiste già da qualche anno .
È stata pensata da uno dei creatori di Bracco , che è una serie televisiva che qui ha avuto molto successo , un poliziesco e che sostanzialmente ha una struttura da prima che arrivasse a Antropic .
Ha una cosa molto simile a Cloud , che è la gestione della Project Knowledge , cioè il fatto che tu possa addestrare minimamente il tuo , il tuo algoritmo su i personaggi , la storia che stai scrivendo , il world setting che hai costruito , quindi su una serie poi addirittura ancora più interessante .
Quindi questo aiuta molto nella parte , diciamo , di scrittura , per individuare i buchi di sceneggiatura . Quindi in questo sta diventando molto più efficace .
E Gennario ha proprio all'inizio di settembre 2024 chiuso un accordo con la CACD , che sarebbe l'equivalente della CIAE francese , per una ridistribuzione dei diritti d'autore sulle sceneggiature che utilizza per l'addestramento , visto che diventa un'intelligenza artificiale che si alimenta di storie di sceneggiature , di storie di sceneggiature , ridistribuisce una parte del denaro che
ottiene , visto che poi è la comunità stessa e gli iscrittori che la utilizza invece , rispetto al text to video e all'image to video , cioè alla possibilità che l'intelligenza artificiale generi direttamente video . Come la vedi , beh , siamo ancora un po' lontani , cioè nel senso tutto è embrionale .
In questo momento non ci sono , a parte degli esperimenti , non ci sono dei veri equivalenti di mercato . Non abbiamo ancora in sala il film fatto con il text to video o l'image to video . Quando ci sarà quello , chiaramente avremo un nuovo standard , diciamo .
Nel settore però è il discorso sempre tra il dilettante e il professionista , cioè il dilettante , per quanto possa essere anche più bravo del professionista , però lo fa per diletto . Diciamo che qui siamo ancora o nel diletto o nell'R&D . Quindi diciamo comunque nella ricerca però non siamo all'interno di circuiti professionali , per cui guadagniamo del denaro .
Capito , tutto qua . Quindi non è possibile considerarlo ancora fonte di . Però stiamo andando in questa direzione perché per esempio uno dei tre , uno dei più grossi player del settore del textliono utilizzare . Runaway Lionsgate ha detto in ogni caso dobbiamo integrare le intelligenze artificiali all'interno dei nostri workflow . Però ancora questa cosa fa abbastanza ridere .
Io non so se tu hai visto la serie prodotta da Disney , tra l'altro per la sua piattaforma Disney+ , di Boris . L'ultima stagione di Boris è una cosa che parla molto alla bolla dell'audiovisivo italiano . Infatti credo che gli interessanti incassi del film siano stati solo dentro il raccordo anulare di Roma .
Però ti dico la quarta stagione è molto interessante perché prende in considerazione la piattaforma , cioè il fatto che Boris dà una cosa che doveva essere proprio segna il passo , diciamo anche , del cambio del nostro rapporto con l'audiovisivo e quindi loro che stavano facendo la telenovela diciamo così , cioè comunque la classica , il classico prodotto per televisione di
flusso , che improvvisamente si ritrovava a fare la serie per la piattaforma e quindi dovevano sviluppare tutta la serie per la piattaforma e ogni volta c'era questo ritorno anche dell'executive che parlava dell'algoritmo . Quindi c'era sempre questa cosa , insomma un po' il dio algoritmo , ragazzi , quella è l'intelligenza artificiale , comunque .
Quindi , in ogni caso , già da tanti anni con l'arrivo delle piattaforme siamo molto , molto influenzati dall'intelligenza artificiale perché addirittura dal punto di vista editoriale ci dice cosa dobbiamo scrivere prima ancora di fabbricarlo .
¶ Il Processo Di Post Produzione Cinematografica
Siamo toccati già da tempo , dopodiché non abbiamo ancora l'algoritmo per dire ok , facci questa cosa e arriva la sceneggiatura , arriva l'audiovisivo .
Questa magia non c'è invece in termini di post produzione . Per quanto riguarda la post produzione , tu utilizzi già dei tool di intelligenza artificiale , tra le altre cose .
Se non erro , hai anche prodotto alcuni film recentemente dove hai utilizzato queste tecnologie io in questo momento sono in post produzione di un film che si chiama MacTube My Love , canto 2 , che abbiamo girato nel 2017 .
È passato un po' di tempo , però abbiamo girato , diciamo , in due momenti differenti cinque mesi di riprese a cavallo del 2016 e del 2017 , quindi Canto 2 termina verso fine febbraio 2018 le sue riprese .
Il processo è stato piuttosto lungo perché poi c'è stata la creazione di un terzo film non previsto data la massa di girato che abbiamo avuto , e quindi il suo regista ha deciso di andare prima con questo inaspettato film che è diventato Make True My Love , intermezzo passato in concorso a Cannes del 2019 , e da quel momento , viste le recezioni , con un mixed
feelings sul film , il regista si è preso un grande momento di riflessione nel rifare , ricostruire quel film e poi passare a Canto 2 . Quindi Canto 2 adesso è in finale di post-produzione , visto la circolarità che abbiamo nel workflow con questo regista .
La circolarità che abbiamo nel workflow con questo regista è che ha bisogno molto di raffinare le immagini e il suono durante la fase di montaggio , perché noi di solito abbiamo un workflow piuttosto semplice , ma quando si gira c'è un trattamento del girato in marina tale che venga ridotto a dei file più leggeri e quindi più gestibili . Con questi si monta .
Una volta che si è montato tutto il film , si fa l'online , cioè si recupera la parte di girato originale con la sua qualità originale e si ricostruisce In qualche modo .
È una tradizione che abbiamo ripreso dal fatto che noi giravamo il negativo e poi tagliavamo , montando pezzi di negativo per fare quella che si chiamava la copia lavoro , cioè che era una prima copia di tutto il negativo .
Quando abbiamo introdotto il montaggio non lineare che comunque risale a fine anni 80 , inizio anni 90 , a quel momento lì abbiamo cominciato ad utilizzare appunto dei file , solo che non avevamo le macchine .
E anche oggi difficilmente abbiamo delle macchine che riescano a gestire un'enorme quantità di dati prodotta dalle camere E quindi siamo costretti a una fase di downscaling che ci permette di lavorare al montaggio per poi rifare invece la costruzione della copia originale .
Questo processo , in realtà è stato molto aiutato grazie a delle nuove tecnologie come film , ai o Color Lab . In particolare è quello più interessante per noi ci hanno permesso di avere delle LUT , cioè delle Lookup Table , come dire matrici da mettere sopra l'immagine grezza in maniera tale che noi possiamo vedere l'immagine con dei colori differenti .
Il color grading , cioè la parte di correzione del colore , comincia attraverso praticamente questo tipo di lavoro con le loot e noi abbiamo avuto la possibilità , anche fortunati , lavorando su un film che è un sequel , che poi sono stati più o meno pensati insieme , hanno gli stessi personaggi , gli stessi attori , le stesse situazioni , quindi gli stessi luoghi e quindi ci
ha permesso di poter recuperare già tutte le still del primo film , cioè prendere direttamente dal primo film la color correction che era stata fatta all'epoca e rimetterla direttamente sul secondo .
Mentre stavamo lavorando , senza scomodare , già il direttore della fotografia e il colorist , che hanno cominciato a lavorare dopo , hanno ripreso quello che noi gli abbiamo dato al montaggio e hanno cominciato a lavorare rifacendo tutto da capo , però sapendo già come avevamo preso delle decisioni .
È stato abbastanza interessante perché quanto meno guadagnato un tempo rispetto al regista in sala di color . Ti voglio dire sicuramente farà ancora delle modifiche perché stiamo facendo ora le color correction , però è stato un processo più fluido .
Temo che sarà sempre più così , nel senso che la cosa che è interessante è che quando facciamo la color correction esistono due momenti veri e propri , anche al mix audio , per esempio . Un primo momento è quello della tecnica , cioè quello di cercare di rendere tutto allo stesso livello , in maniera tale che sia poi lavorabile .
Mi sembra una cavolata , però tante volte tu non hai la continuità di luce .
Cioè magari hai girato una scena , l'hai girata alle 9 del mattino e poi alle 7 di sera per cercare di recuperare più o meno lo stesso , però non è detto che sia la stessa cosa e poi c'è la famosa nuvola che passa , quella per cui tante volte ci fermiamo e siamo lì 5 minuti a aspettare che recuperiamo lo stesso sole .
Cioè quando si gira in generale c'è una continuità di luce . Questa continuità di luce non è detto che oggi , soprattutto quando si va veloce e che si utilizzano tante macchine , non è detto che si possa avere sempre un controllo incredibile , in particolar modo il nostro film che è stato in questo senso particolarmente sperimentale .
Quindi c'è bisogno di recuperare questa continuità alla fase finale
¶ l'Impatto Dell'Intelligenza Artificiale Nel Cinema
della posta . La stessa cosa per l'audio , cioè cercare di avere tutti i suoi stessi ideali .
Una volta che hai fatto tutto questo , comincia la parte artistica , cioè quella dove ti diverti e cominci a dire veramente no , però voglio che arrivi da destra più in alto , perché così posso ridisegnare meglio lo zigom , insomma , tutte a destra più in alto , perché così posso ridisegnare meglio lo zigom , insomma tutte queste cose qui .
Ecco , noi paradossalmente abbiamo , mentre montavamo , grazie a ColorLab abbiamo avuto la possibilità di dare al regista già l'idea di come fare queste cose , salvo poi però mollare tutto al Colorist e dire adesso però vedetela tu , come rimettere a posto le cose ?
Invece , credo che nel giro di qualche anno sarà esattamente il contrario , cioè l'intelligenza artificiale e gli algoritmi ci permetteranno veramente , con poco calcolo , di riequalizzare tutto .
Daremo presente direttamente il film conformato all'intelligenza artificiale , li dire a giusta e poi , una volta che tutto è esteso , entriamo e cominciamo a lavorare e cominciamo a fare tutta la parte artistica della luce .
Quindi questo , paradossalmente , in un'industria che produce sempre di più e che quindi accorcia anche i tempi dedicati a questo tipo di riflessioni , l'intelligenza artificiale può arrivare a ridarci , a restituirci quel tipo di tempo per la riflessione che non abbiamo più , soprattutto nel cinema .
Poi c'è la grande differenza di quello che dobbiamo fruire prima in sala , che comunque è una che utilizza dispositivi diversi , cioè quindi proprio appunto , noi di solito facciamo i color grading o i mix pensando al fatto che venga proiettato dentro una sala .
Quindi devi calcolare la grandezza dello schermo , com'è l'impianto dell'audio , e poi tutto questo piano piano si sta riducendo . Entriamo nel computer fino ad arrivare agli iPad e ai telefonini , ai tablet e ai telefonini .
Ecco , questa cosa credo che ci ha portato via tanto tempo che dedicavamo prima alla creazione artistica per avere invece degli standard tecnici , e soprattutto perché poi ci sono sempre meno soldi , diciamo così , perché produciamo molto di più e quindi poi alla fine dobbiamo investire in molti più prodotti .
Però il cinema io penso sempre , faccio sempre questa metafora automobilistica e dico il cinema , per quanto sia un grande mercato , rimane sempre un po' la Formula 1 dell'automotive , cioè , mentre la televisione e forse oggi le piattaforme mischiano un po' questa cosa a rendi , lo fai nella formula 1 piuttosto e poi dopo applichi tutto quello che scopri lì , lo applichi
direttamente anche all'automotive .
Non che non si facciano le ricerche anche nell'automotive , però se ne fanno un po' di meno e in termini , diciamo di contaminazione fra tecnologia e linguaggio che sono la base del cinema , cioè il cinema comunque è una di quelle arti in cui c'è sempre stato questo doppio binario del , del costo , perché comunque è quella che più di tutti ha bisogno dell'equip , ha
bisogno comunque di avere più persone che sono dietro il regista , per l'appunto , quindi il director è quindi qualcuno che gestisce , come il direttore d'orchestra .
Ecco , quindi significa che devi avere tanti strumenti , solo che questi strumenti cambiano anche con la tecnica , da Melies che facciamo degli esperimenti sempre sull'immagine , e poi ogni volta si integrano e diventano linguaggio . Tu pensi all'arrivo dell'estetica , che è stato rivoluzionario nell'uso della camera , cioè .
Tu pensi all'arrivo della Steadicam , per esempio , che è stato rivoluzionario nell'uso della camera , anche prima scusa dal punto di vista della fotografia . Ecco uno ripensa alla profondità di campo . Poi c'era questo direttore della fotografia americano , greg Tollab .
Aveva già cominciato a fare qualche film in cui decideva di lavorare molto sui campi , e Orson Welles lo vede e dice cavolo , però questo è veramente interessante . E con lui fa Citizen Kane , che diventa una di quelle milestone nel cinema per , appunto , come cambia il linguaggio , la grammatica del linguaggio rispetto proprio anche semplicemente alla tecnica .
Quindi , con l'arrivo dell'intelligenza artificiale , la grammatica del linguaggio rispetto anche alla tecnica . Quindi , con l'arrivo dell'intelligenza artificiale ci troviamo sicuramente a questo , e poi ci sarà probabilmente anche il cambio del gusto . Non so se faremo prima noi adattarci all'immagine sintetica o l'immagine sintetica diventerà indistinguibile da quella reale .
Non so quale delle due cose arriverà prima . Però un esempio c'è , perché poi , appunto , il fatto di avere nel cinema tutte queste componenti tecnologiche fa sì che in realtà queste tecnologie sono sviluppate in altri campi . Prima quindi , per esempio , l'autotune nella musica .
L'autotune nella musica ha aggiustato appunto il tono , quindi insomma il fatto che fa diventare tutti quanti intonati già da tanti anni , talmente tanti anni che ci siamo talmente abituati ad ascoltare cantanti con l'autotune che oggi , quando senti la voce sintetica di un'intelligenza artificiale tipo Suno , che ti crea la musica , non ti fa mica fastidio .
Anzi , passa così . Dunque , questa cosa anche dipende da quanto ci abituiamo noi all'utilizzo dell'intelligenza artificiale . Per esempio , sempre la musica che è più facile , cioè adesso i text to song , nel senso creare veramente subito una canzone già dall'anno scorso mi sembra particolarmente facile .
Non mi sembra che abbiamo visto questa scalata delle classifiche in giro per il mondo di canzoni sintetiche .
Io la prima che ho visto è stata a luglio del 2024 , di una nella scaletta dal luglio del 2024 nella top ten tedesca , ma comunque fatta da un produttore musicale che quindi conosce esattamente tutti i meccanismi e non è una persona che si è svegliata una mattina , ha spinto un pulsante su su uno e improvvisamente è uscita la nonna di Beethoven a questo proposito
volevo chiederti come vedi l'avvento degli attori digitali e dei deepfake , cioè tutto questo tipo di tecnologie che vengono utilizzate per la sostituzione degli attori .
Io penso all'ultimo film di Indiana Jones , ma mi potresti anche fare tu tantissimi esempi . Come vedi questa cosa ?
quello di Indiana Jones è sicuramente quello più famoso per ora in maniera positiva , diciamo così , probabilmente ti direi di Irishman , quello che non ha usato i deepfake e che è passato invece in maniera negativa , cioè che è stato proprio il momento spartiacco in cui ci siamo detti ma perché i deepfake ?
no , perché utilizzava invece una tecnologia più classica di CGI guarda , io sono un grande fautore , cioè proprio quelli che chiamo i beauty shot , il fatto di comunque anche solo semplicemente cercare di ringiovanire . Sono un grande , un grande fan del deep fake .
Penso che ci farà appunto guadagnare tempo rispetto a prostetici , rispetto a trucco , parrucco , cioè il fatto in generale di poter lavorare così normalmente e poter ritoccare dopo in post-produzione . È sempre una questione di tempi . È sempre una questione di tempi e costi , chiaramente , di quante persone tu quindi stai mobilizzando nella fabbricazione di un film .
Sono il momento delle riprese , perché è il momento in cui aggreghi tutti e quindi tu hai tantissimi reparti che devono lavorare tutti insieme . E parliamo di piccoli film indipendenti che si fanno quelli che lo fanno , 1 , 2 , 3 , per carità , però diciamo che normalmente c'è sempre quel minimo di 15-20 persone e arriviamo ai grandi colossal .
Vi parlo proprio il blockbuster o le serie importanti , che sui momenti di azione , per esempio , possa avere anche i pd 500 persone più tutto quello che muove intorno , perché io ti sto parlando di tecnici , cioè quando cominciamo a mettere anche le comparse che , per esempio , sono una delle cose che è stata prima toccata dall'utilizzo dei VFX , cioè la moltiplicazione .
Ti ricordi Forrest Gump , la grande scena del lago , come si chiama la cosa , washington , dove sono stati moltiplicati la battaglia di Algeria e di Ponte Corbo , quelli erano tutti liberi .
Questa cosa oggi diventa molto più facile , cioè il fatto che i VFX sono la cosa che sicuramente è più impattata e sarà sempre meglio e saranno sempre ridotti , però ci tornerà sempre poi il controllo creativo di tutto questo .
Quindi io ti dico secondo me abbiamo finito con le rotoscopie in India , però avremo sempre bisogno di più bravi VFX supervisor , e questa cosa si integrerà sempre di più anche con con gli attori , che ci porta a un problema più etico .
Diciamo che anche la scoperta di nuovi talenti , cioè indiana jones per esempio , è chiaramente l'occasione mancata di lanciare un nuovo attore che avrebbe potuto prendere il ruolo di Harrison Ford da giovane , come abbiamo fatto prima , come facevamo , come abbiamo sempre fatto in generale , quando ci sono i passaggi di età e tu prendi degli attori che a volte poi non sono
nemmeno così somiglianti , ma proprio perché sono dei bravi attori , si prendono la stessa smorfia , lo stesso sguardo , le stesse cose e recuperando quella roba creano praticamente una una , una continuità . Questo , come dire , c'è il bene e il male . Il fatto che abbiamo la possibilità di recuperare lo stesso attore è sicuramente interessante .
Il fatto che non potremmo utilizzare dei nuovi volti , ormai sono diversi anni . Abbiamo proprio una guerra dell'attenzione e quindi il meccanismo dei divi all'interno di un mercato del genere è già molto anacquato . Oggi il divo di Hollywood all'interno di un mercato del genere è già molto anacquato .
Oggi il divo di Hollywood fa molta fatica a stare dietro l'influencer di YouTube o di Instagram . Mr Beast pesa moltissimo come un attore hollywoodiano e lo vedi dal fatto che c'è Amazon che va a fargli il contrattone , esattamente come farebbe per un produttore barra attore su una serie , poter replicare questo tipo di attenzione .
Però non sono così sicuro che i pro saranno più importanti dei contro .
Certo , parlando sempre di questo , le tecnologie oggi permettono di avere , per esempio , delle camere che hanno delle feature e una qualità che magari 5 anni fa o 10 anni fa costava 10 volte tanto , e questo quindi è un aspetto , e quindi vorrei che intanto toccassi questo aspetto qua .
e l'altra domanda è legata a questo il fatto che con le AI democratizzi la produzione dei contenuti non porta anche al rischio , come dicevi tu prima , di una generazione notevole di contenuti e quindi tanti contenuti ma con poca qualità ? Quindi vorrei che toccassi questi due temi .
Allora . No , io invece sono in disaccordo su questa cosa , nel senso che penso che la democratizzazione delle tecnologie sia arrivata prima delle AI , almeno nel cinema , e che quindi questo processo di abbassamento della qualità sia già avvenuto .
Molto semplicemente , adesso abbiamo YouTube per dire il fatto che comunque c'è una grandissima piattaforma video dove puoi mettere i contenuti fatti direttamente con il telefonino , subito , senza doverci lavorare . Questa cosa ha abbassato la qualità .
Guarda come per esempio la televisione , che aveva degli standard molto alti , quindi il fatto che dovessi venire in studio , c'erano le persone che ti facevano il controllo dei microfoni , c'era la camera con le luci , le cose , quello e quell'altro , e poi con Zoom , durante la pandemia , è diventato tutto valido e improvvisamente ci siamo ritrovati a vedere delle , delle
trasmissioni sulle ammiraglie , che però poi arrivava il tipo con le cuffiettine su skype e faceva la sua intervista . Ecco , quindi la qualità si è abbassata , cioè perché anche là , dove c'era toper fare , abbiamo deciso di abbassare la qualità . Allo stesso tempo ti dico l'intelligenza artificiale secondo me eliminerà la mediocrità , perché già la produce lei .
Quindi la mediocrità , nel senso la parte media , quindi tutto quello che è basso fino al medio , te lo fa l'intelligenza artificiale E quindi significa che a quel punto nella democratizzazione del contenuto . Sì , certo , ci può essere più , però ritorniamo lì alla guerra di attenzione . Quindi ci può essere più un discorso legato alle sfere di prossimità .
Se faccio io una cosa mediocre , però poi mio cugino se la vede perché è mio cugino , gli amici però insomma , diciamo che rimani nei tuoi gradi di separazione del reso , non ha più l'impatto virale , mentre quello lo puoi fare tranquillamente con l'intelligenza artificiale . Poi dico virale , basso , invece cosa potrai fare con l'intelligenza artificiale ?
poi dico virale e basso , invece cosa potrai fare è andare a recuperarti tutta la parte alta della scaletta . Quindi , secondo me l'intelligenza artificiale sta entrando a risolvere un problema che abbiamo già creato prima e la democratizzazione delle tecnologie arriva già , ma arriva già , ma arriva già negli anni .
Per il cinema ti potrei dire già dagli anni 80 e ancora sempre studiare il porno per le tecnologie , perché il porno è sempre quello che utilizza le tecnologie per primo come settore . Quindi , quando comincia il cinema in 35 mm , il porno da 35 mm vede a un certo punto un'opportunità incredibile .
Diciamo possiamo abbassare i costi , c'è il super 8 e si gettano sul super 8 e lì comincia il primo cinema indipendente del super 8 .
Quindi tu vai a vederti , io sono un autarchico di Nanni Moretti , girato il Super 8 tra amici , quello che oggi potremmo fare con i telefonini , però già all'epoca prevedeva il fatto che dovessi avere una camera , che dovessi avere la pellicola .
Cioè c'era una barriera di ingresso particolarmente complicata data dalla tecnologia , non ti dico dallo sfruttamento dopo proprio nella fabbricazione . Oggi questa barriera di ingresso non c'è più nella fabbricazione , c'è solo se decidi che puoi mettere degli standard particolarmente alti di distribuzione
¶ Applicazioni Dell'Intelligenza Artificiale Nel Cinema
. Quindi , quando ti dici voglio andare su Netflix , la piattaforma ti dice ah , però devi girare almeno in 4K con l'HDR , perché dopo tutte queste cose qui ti danno loro però di fatto non esistono . Perché poi l'HDR ?
ci sono i direttori della fotografia , che mi sono molto divertito negli anni in cui è partita questa cosa , che mandavano i setting del televisore su Instagram dicendo oh , mi raccomando , se dovete guardarlo , mettete il televisore così , perché altrimenti non vedete la stessa cosa che voglio io .
Quindi figurati a che livello siamo arrivati sì , c'è il famoso filmmaking mode .
Io guardavo recentemente una televisione da acquistare che è il filmmaking mode dei televisori di brand tipo LG e Samsung , che di base toglie tutte le feature aggiunte e praticamente ti dà il video flat , perché è quella l'esperienza del direttore della fotografia . Questo per dirti poi che l'intelligenza artificiale viene utilizzata in questi strumenti .
Quindi , scusami , quello che ho capito , l'intelligenza artificiale ti ha permesso anche di fare una serie di savings in termini di costi , cioè di risparmiare in termini di produzione .
Però , dall'altra parte ti faccio una domanda provocatoria secondo te , per esempio , pensando al mercato dell'advertising , della pubblicità , per quanto le aziende saranno disposte , i clienti saranno disposti a pagare per qualcosa che l'intelligenza artificiale fa in maniera semplice , veloce ? in che cosa si fa la differenza nella produzione ?
allora devo dire intanto che devo fare una prepessa , che io non frequento più il mondo delle pubblicità , dell'advertising dalla fine degli anni 90 , quindi figurati insomma quanto sono lontano , proprio perché mi ricordo il BPM , come si chiamav le riunioni che facevamo , le discussioni c'è talmente tanta fuffa che non stiamo vendendo la fabbricazione .
Comunque è il solito discorso del vendere il somio e quindi quello lì comunque non te lo vende la macchina . Quindi non penso che l'intelligenza artificiale possa arrivare a sostituirsi .
Ancora una volta è l'oggetto che ti dicevo della mediocrità , cioè se devi fare qualcosa che è una battuta da bar , non c'hai più bisogno , non hai bisogno sicuramente dei creativi dell'agenzia . Quindi tutta quella parte lì non hai neanche più bisogno di girarla .
Probabilmente cioè veramente fai text to video e può anche funzionare , ma ci sarà sempre comunque un elemento creativo che è quello che sceglie tutta questa roba qui dentro , il cliente .
Quindi quello che ti posso dire è che si accorciano forse un po' le filiere , cioè i produttori cominceranno a essere un po' più agenzia , le agenzie cominceranno a essere più produttori , quindi scomparirà quella roba lì .
Credo che sia già succedendo questa cosa , cioè nel senso che già produttori puri di pubblicità , che sono chiamati da agenzie pure di pubblicità , cominciano a non esserci più cominciano a fondersi o comunque allargarsi da un lato o dall'altro , da un lato o dall'altro Questa cosa può portare a dei reparti marketing dentro le aziende più corposi che fanno tutto questo ,
cioè che diventano loro stessi agenzia e produttori del contenuto . Quindi questo può succedere eventualmente , però significa che trasli quelle competenze da un vaso ad un altro , cioè il copywriter non lavorerà più dentro l'agenzia , lavorerà dentro l'ufficio marketing dell'azienda . Però uno che ci pensa con la testa ci deve stare per forza .
Quindi tu vedi l'applicazione di queste tecnologie soprattutto nella parte di preproduzione . Penso ad esempio a tools tipo LTX Studio , cioè che ti permettono di storyboardare .
Allora LTX l'ho usato proprio proprio in beta . Tra l'altro sono entrato subito come beta tester , quindi mi sono particolarmente divertito e devo dire che è estremamente interessante . Sì , perché ti dà la possibilità di previsualizzare delle scene , ti anche i breakdown direttamente delle scene . Fa tante proposte .
Ma in generale l'intelligenza artificiale dal punto di vista creativo è sempre molto interessante , quantomeno da un punto di vista . Diciamo , i processi di creazione possono essere sempre o per impulso o per reazione . Ok , i bravi creativi in generale sono tutti per impulso , cioè tutti i visionari , gli artisti lavorano sempre con il loro impulso interno .
E poi io , per esempio , invece lavoro per reazione , cioè io sono uno , per esempio , che dal punto di vista editoriale mi dai una sceneggiatura , la leggo e ti faccio tutti i commenti . Se mi dici vuoi scrivere una sceneggiatura , io non saprei da dove cominciare , avrei subito il blocco della pagina bianca .
Con un'intelligenza artificiale , invece , posso trovarmi esattamente nella mia comfort zone di reazione . X ti permette , per esempio , di fare una cosa del genere senza nemmeno andarla a cercare , perché ti fa già i breakdown , ti mette già le sue inquadrature , addirittura tu hai la possibilità di creare dei caratteri consistenti che lui ti riporta in giro nelle varie .
Poi però ti dico la resa grafica , ecco , va bene per la preproduzione , ma quando cominci a generare i video con LTX sembrano non so se ti ricordi le animazioni degli anni 60 , quando si muovevano le bocche siamo più o meno a quel livello .
Questo non significa che poi non diventerà uno strumento estremamente interessante , perché ti permette già di ordinare il caos , mentre con Runaway , per esempio , tutti questi strumenti che secondo me stanno cominciando ad avanzare sono quelli che già mettono ordine . Tu vedi Cloud che ti fa i project con la Project Knowledge , ltx , come dici te , che fa queste cose .
Così Cloud non è differente poi da ChatGPT . Però già il fatto che tu hai la possibilità di mettere in ordine le tue dentro un progetto , le tue conversazioni , è tanto rispetto a recuperarti le cose dentro chat GPT , perché se lo usi tanto chat GPT , poi alla fine hai una lista lunghissima di conversazioni dove ti perdi . La stessa cosa è il TX , cioè runaway .
Tu devi andare lì e farti la tua per ogni singolo , per ogni singola immagine . Invece questi sono che poi sono cose stupide da implementare , quindi poi ci arriveranno tutti quanti . Però è per dirti come siamo ancora molto presi dall'idea di appunto creare e tanto che non ci mettiamo a pensare a come gestire poi il caos di questa creazione .
Quindi ti dico sì , questo sicuramente , sicuramente aiuterà moltissimo nei processi di preproduzione . Però , ancora una volta , penso che il rasoio di Occam è quello della mediocrità , cioè ti eliminerà tutta quella roba lì e ti porterà quindi a poter sfruttare al meglio le cose sopra .
Se tu consideri che ancora oggi , con le tecnologie che abbiamo , investiamo milioni di dollari per fare pubblicità del profumo ok , dove non c'è niente ti sei risposto gli investimenti continueranno ad esserci perché lì dobbiamo vendere l'intangibile e quindi dobbiamo anche il solo fatto di poter fare quell'investimento e dirti io sono in grado di mettere 5 milioni su una
pubblicità di intelligenza artificiale . Non è importante il risultato , ma il processo , cioè il fatto che io posso farti fare quella cosa lì e che la faccio già . Questo è pubblicità , perché è il solito discorso che il mezzo è il messaggio . Quindi già la costruzione del messaggio è un messaggio .
Quindi già la costruzione del messaggio è un messaggio e questo secondo me non cambia .
Ok , molto interessante .
¶ l'Impatto Dell'Intelligenza Artificiale Nel Cinema
Un altro aspetto volevo chiederti tra le varie piattaforme e tecnologie che oggi sono presenti penso a Pika , penso a Adobe Firefly , penso a Stable Diffusion , confui , insomma varie quale secondo te è quella destinata a rimanere ?
onestamente , è un momento talmente caotico che ci sono proposte , offerte a volte anche molto similari . Ieri a un certo punto ho fatto un esperimento volevo vedere come poter togliere un watermark da un'immagine per rendermi conto se ha ancora senso che inviamo i film con la skin not for commercial use , per esempio . Ci sono tantissimi tool .
Credo di aver incontrato almeno mezza dozzina di siti che offrivano questo tipo di possibilità e poi ho trovato quattro modelli su github che fanno esattamente la stessa cosa , uno in locale , uno lo metti su collab , quindi con approcci differenti , e credo che i siti che ho visto prima utilizzare i modelli comunque sono stati già sviluppati .
Dipende veramente chi mette il vestito migliore su queste cose qui e poi invece quelli che fanno la ricerca per davvero , cioè quelli che tu dici tipo Pika , tipo Stable Diffusion ha appena fatto una partnership con James Cameron che entra in Stability per portare appunto il suo know-how sui VFX che , come ti ho detto , sono la prima cosa che scomparirà , diciamo , dai
nostri computer per essere fatta dalle intelligenze artificiali . Quindi , quando entra un peso massimo , come James Cameron che , ti ripeto , è una persona che ha obbligato tutti i cinema del mondo a passare alla proiezione 3D , quindi sa quello che fa e ti dici ok , questi sono sicuramente gli attori che rimangono , perché sono quelli che fanno la ricerca pura .
Siamo tutti aspettando ormai da un anno sora , quindi sarà il tiro di dati che ci permetterà di capire tutti gli altri se veramente stanno solo ricorrendo o se hanno cominciato ad anticipare . Però credo che stanno solo ricorrendo o se hanno cominciato ad anticipare .
Però credo che quelli che rimarranno di più sono quelli che fanno , da un lato , la ricerca migliore e , dall'altro , quelli che offriranno l'interfaccia con la user experience più facile , che ci permetteranno quindi di organizzare meglio il caos . Il solito discorso , quello che dicevamo prima .
Prima hai toccato il tema della distribuzione .
Vorrei tornarci un attimo chiedendoti , da un lato , come l'intelligenza artificiale cambia la distribuzione dei contenuti in parte l'hai toccato , ma vorrei che l'approfondissi e anche sull'aspetto della localizzazione , cioè di come , per esempio , nel dubbing , nel doppiaggio , l'intelligenza artificiale sta entrando proprio a gamba tesa no , è già proprio entrata .
Il doppiaggio , è proprio la cosa su cui già siamo arrivati . I VFX ancora stiamo discutendo su che tipo di VFX andrà . Appunto il deepfake lo consideriamo AI o no ? perché c'era pure prima . Quindi col no e poi no , ma non possiamo ancora gestire .
Io ricordo che il primo deepfake , quando parlavo cinque anni fa di utilizzarli nella metodologia utilizzata per Harrison Ford , la risposta dei VFX supervisor era no . Però sai , siamo ancora che non possiamo andare a più di 1024 , come facciamo , se dobbiamo fare poi in 4k , quando comunque lo standard di distribuzione al cinema rimane ancora in 2k .
Te lo dico per rimettere in ordine , diciamo le cose . Vfx ci siamo entrati , sta succedendo lentamente ed è più uno strumento che ancora utilizzano i compositor . Stessa cosa per il color grading Al suono . Non te lo dico , nemmmmeno la quantità di plugin che esiste oggi e che possono essere utilizzati . Però il suono rimane ancora una .
Non voglio dire una cosa a parte , però è una setta differente rispetto a quelli che lavorano l'immagine in generale . Tutti quelli che si occupano di fabbricazione al limite sono un po più preparati sull'immagine , che comunque rimane centrale , e quindi sul suono è sempre vabbè fa , lui funziona .
Però ti posso dire che invece , quando entri realmente al montaggio del suono , che è una cosa in cui non va mai nessuno .
Ti rendi conto che la loro vita per certi versi è diventata molto più facile grazie a tutti i plugin che sono inseriti e che sono intelligenze artificiali , per cui oggi tu lo puoi vedere molto più facilmente con una tecnologia tipo Adobe Podcast , cioè puoi andare sul sito internet di Adobe Podcast , lo puoi usare anche gratuitamente , e tu gli dai un file qualunque ,
audio o video , e lui ti ripulisce completamente lo sfondo e ti tira fuori un suono estremamente pulito . Questa cosa ce l'abbiamo già da tanto tempo . Sono dei filtri passo a basso che comunque tagliano le frequenze , ricostruiscono anche altre cose . Il passo successivo è questo , invece del doppiaggio che stiamo avendo .
Io ricordo che ebbi a che fare con questa società ucraina che aveva sviluppato un modello di addestramento della voce che permetteva erano riusciti a rifare la voce di Carrie Fisher dopo che era morta , su uno Star Wars , per esempio , e quindi dicevano avete la possibilità eventualmente di sviluppare il vostro modello per il vostro film , cioè noi vi facciamo l'addestramento
del modello per ogni vostro film con le voci dei vostri attori , e così dopo , quando vendete il film all'internazionale , sai che noi facciamo una ricostruzione della banda sonora . Quando si fa un film esiste quella che chiamiamo VO , la versione originale , e quindi dove ci sono tutte le voci , e poi c'è una ricostruzione completa della versione internazionale .
La versione internazionale è una versione dove non ci sono i dialoghi e quindi tu vedi tutto il film con tutti gli attori che parlano muti e sotto ci sono tutti i suoni . E questo passaggio si fa una volta che hai completiamo il montaggio del suono del film e il mix del film .
Mentre fai il montaggio del suono , costruisci anche questa versione internazionale e una volta che , finito il mix del film , di solito dedichi l'ultima giornata a fare il mix della versione internazionale , che è la versione che tu vendi all'estero in maniera tale che quando devono doppiare appoggiano le voci sopra a quello che però è una base già mixata , già fatta di
tutto il resto del film , che quindi ti permette di essere molto più efficace . Questa versione internazionale diventerà sempre più facile farla grazie alle AI e ora già facciamo il doppiaggio grazie all'AI .
Prendiamo un modello che viene addestrato , dopodiché registriamo una qualunque persona che parla dicendo nella sua lingua qualunque altra cosa , e utilizziamo la voce come filtro , diciamo così , trasformando quindi la voce registrata nella voce dell'attore . Queste sono le due cose .
Ora stiamo andando ancora più avanti , cioè ora generiamo direttamente una voce che ha questo filtro applicato sopra e che quindi viene generata direttamente la voce dell'attore nella lingua però di destinazione , il video . Ci sono queste due , queste due dinamiche . La cosa , che cosa ? che cosa succede ?
che netflix sta mettendo , per esempio , in piedi la sua piattaforma per autodoppiarsi tutti i contenuti e quindi il grande lavoro sarà quello di tirare fuori direttamente il modello che il giorno dopo sulla piattaforma tu scegli la lingua e l'intelligenza artificiale fa automaticamente il doppiaggio questo significa anche che un'intera parte dell'industria perde il lavoro ho capito
. Sì , è vero , ma questo succede ad ogni rivoluzione tecnologica . Quando abbiamo inventato l'autovettura , dopo che abbiamo fatto gli stallieri , è evidente che a un certo punto devi traslare delle competenze . Però ti dico , un'intera parte scompare , però compariranno tutti quelli che devono gestire questa roba qui , perché non è che funziona da sola .
Questo è il solito discorso . Il problema è , se tu sei , fai parte di quel sotto insieme che scompare , che chiaramente ti preoccupi perché dici però certo , a me è capitato proprio recentemente . Ti dico c'è incontrato un regista a marzo che mi ha detto ah , vai , mio figlio sta andando alla scuola , ha deciso di fare la scuola per doppiatori .
Io ho guardato no , vai a cambiare scuola , semplicemente perché , voglio dire , diventa un lavoro in salita . Ma anche lì ribadisco mediocrità . Cioè se devi pensare a lavoro semplicemente per pagarti le bollette , ok , forse non è il caso .
Non dimentichiamoci che i doppiatori sono anche dei grandi attori e che tanti hanno portato al successo dei personaggi stranieri o degli attori stranieri grazie al fatto che la gente poi si abituava a identificarli con quella voce . Lì . Il caso di Amendola in Italia è abbastanza clamoroso . Quindi questa cosa non ci sarà più .
Quindi perderemo quella cosa lì , quindi perderemo i picchi di eccellenza . Non so se a un certo punto interverremo per difenderli e per cui diremo ok , la categoria non ha più bisogno di essere così grande , però ha bisogno invece che ci siano delle vere , come dire , punte di diamante .
Non lo so , è perché io insomma preferisco molto vedere , per esempio oggi , un film sottotitolato , per apprezzare la recitazione di un attore a pieno e quindi sentirlo nella sua voce originale , nel momento in cui tu mi dai il traduttore universale di Star Trek e posso sentire la sua voce originale , con la sua interpretazione , che mantenga le sfumature della sua
interpretazione , e , allo stesso tempo , in una lingua che io posso comprendere , forse , forse è meglio quindi tu non pensi che questo tipo di tecnologia snaturi un po' , diciamo , un'interpretazione , perché ormai la qualità , come possiamo vedere , è esattamente la stessa , cioè non noti la differenza da un dub il problema è che lì facciamo un passo indietro che riguarda
piuttosto invece il linguaggio , che comunque è uno strumento pure quello . Però la difficoltà in termini di linguaggio è la cadenza in generale , perché comunque ogni lingua ha un po' la sua . Quindi io credo che l'interpretazione alla fine sia anche data dall'utilizzo di questo strumento e questo purtroppo sfugge un po' in più .
Ora , per esempio , questo servizio fa una modifica anche sulle labbra per permetterti di avere il lip sync capito .
Quindi comincia a esserci la modifica non solo della voce ma anche dell'immagine per farle matchare , e questa cosa quindi io non so esattamente come impatterà sul lungo periodo nella nostra percezione , nel senso non sono sicurissimo che vedere degli attori che americani che al posto di recitare in inglese ci recitano in italiano , ci darà la possibilità di apprezzarli di
più . Non sono convintissimo , però almeno avremo con questo tipo di tecnologia , però avremo la possibilità di salvaguardare la loro voce poi nel futuro , perché comunque sono tutte NPL più le fai , più l'algoritmo apprende , più la sua abilità aumenta .
Quindi probabilmente nel giro di pochissimo , perché quando ci sarà un uso così su scala , così importante , imparerà subito a fare bene anche la cadenza e l'intonazione .
Allora a quel punto sarà indistinguibile dall'originale e allora sarà meglio del doppiaggio se dovessi consigliare ai nostri ascoltatori un libro , un film su questi temi , qua cioè per approfondire questi temi , qua dei contenuti che le persone possono trovare online o appunto in libreria , su questi temi , cosa ti viene in mente , cosa suggeriresti su questi temi ?
cosa ti viene in mente ? cosa suggeriresti ?
¶ Il Futuro Dell'Intelligenza Artificiale Nel Cinema
io ritornerei un po' a base di tutti quanti leggere essere digitali di necroponte . La differenza che faceva fra infopoveri e inforicchi negli anni 90 oggi sta diventando ancora più importante . Lo vedo quando comunque comincio a discutere con dei colleghi di intelligenza artificiale mi fanno no , no , io non voglio si parlare di queste cose , non vanno via esatto .
Io sostengo sempre che è una tecnologia che è al pari della ruota del fuoco della stampa a carattere mobile .
Quantomeno allora un po' meno nel senso che comunque è data della stampa a carattere mobile , quantomeno allora un po' meno nel senso che comunque è data da una dipendenza , cioè nel senso che ci sono un paio di grandissime scoperte , prima che ti ricordi com'era Civilization , cioè la mappa delle scoperte , per cui c'era , c'erano i collegamenti l'una con l'altra .
Se non ci fosse stata internet , probabilmente non arrivavamo così velocemente a questo tipo di di singolarità , che poi non è neancora quella che stiamo aspettando tutti , dell'arrivo dell'intelligenza artificiale generale e su tutti , che oddio arriva Skynet , moriremo tutti .
Però la questione è impressionante il tipo di automatizzazione che possiamo ottenere nei processi da colletto bianco , diciamo così , che stanno diventando al pari di quelli che abbiamo avuto quando c'è stata la rivoluzione industriale per i colletti blu .
La cosa interessante sarà che comunque tutto questo , per esempio gli LLM di cui noi discutiamo tanto , sono i futuri cervelli dei robot E quindi quando avremo le due cose insieme e ci avremo quello che può fare i lavori da colletto bianco e da colletto blu , quindi dipenderà semplicemente da quanto costa fabbricare e mantenere il robot .
Insomma , altre cose che vorresti aggiungere .
La cosa interessante , diciamo adesso , a parte tutto del del cinema , diciamo così , nello storytelling , è l'idea che possiamo andare a crearci dei mondi completamente autonomi . Cioè voglio dire oggi , incredibilmente , io potrei provare a dire a Chad GPT mi racconti una favola , e lui la farebbe probabilmente , e quella favola esisterebbe solo per me .
Non ci sarebbero altre persone che l'avrebbero . Quindi la cosa interessante è che in un mondo dove c'è la lotta incredibile per l'attenzione e che massifica tantissimo il prodotto per cercare di arrivare a tutti , ci ritroviamo che possiamo andare a creare dei prodotti su misura , che sono solo per noi e che non saranno mai usufruiti da altri .
E diventa un po' complicato , messo in relazione al fatto che non abbiamo poi più una condivisione , già con le piattaforme abbiamo perso il palinzesto , quindi l'idea di una verticalità temporale che era uguale per tutti . Quindi oggi che cosa succede ?
che stabiliamo delle regole , per esempio quando ci sono gli youtuber o comunque in generale i recensori della serie che dicono tutti quanti , comunque bisognerebbe aspettare almeno tre giorni prima di fare la recensione della serie che è appena uscita , perché devo dare a tutti il tempo di vederla .
O allora l'episodio nuovo , si creano delle regole per dire non posso fare gli spoiler troppo presto E quindi è interessante questa cosa di dire quando puoi fare gli spoiler o no ? Allora , tu pensa adesso che abbiamo la possibilità di crearci delle cose che ci staccano completamente dalla comunione .
Quindi capito , da un lato facciamo di tutto per integrarci sempre di più e poi però creiamo degli strumenti che ci danno la possibilità di completamente separarci mi è venuto in mente lo spot di Apple , dell'apple Vision Pro , cioè del papà che sta alla festa dei bambini con il caschetto e li riprende .
Ok , dei bambini con il caschetto , e li riprende .
Come vedi la tecnologia VR applicata al cinema e poi , più in generale , all'entertainment per me la VR è l'ultima forma di audiovisivo , però insomma , io diciamo sono cresciuto con , con Journal , ciberspazio , insomma , quindi sono cresciuti libri , gibson , ecco , quindi per me la la vr diventa l'elemento di visualizzazione della propria navigazione di internet , è quella roba
che ci dà l'accesso al ciberspazio . Con la VR arriviamo finalmente al ciberspazio o al cyberspace , come lo preferisci . Questa cosa non ci avrei mai creduto di vederla nella mia vita fino all'avvento degli algoritmi generativi text to video . Quando vedo una roba del genere mi dico forse fra poco ci arriviamo .
Significa che , paradossalmente , zuckerberg per anni abbiamo detto questo è troppo visionario , questa cosa di meta non andrà da nessuna parte . E invece no , ora si ha ragione lui , perché avremo la possibilità di generare molto rapidamente le immagini e di poterle vivere e quindi chiaramente avremo la possibilità di integrare .
Cioè , secondo me più facile la realtà virtuale che la realtà aumentata oggi , mentre tre anni fa diciamo il contrario .
Perché se andiamo con questo tipo di scalabilità e di velocità sul text to video , sarà facilissimo cominciare a creare dei mondi diversivi in cui stare con direttamente il nostro casco , dopodiché è chiaro che l'interazione con gli altri sarà sempre dovuta a quanti caschi abbiamo previsto .
Anche lì meta , fatto la scorsa settimana la presentazione , i prezzi sono estremamente più vantaggiosi .
Oggi la partnership con luxottica per i Ray-Ban stanno andando in una direzione molto interessante , più di Apple , paradossalmente , e questa cosa probabilmente ci darà la possibilità di avere questo tipo di incontro del ciberspazio molto più rapidamente di quanto non credessi invece in termini di produzione vera e propria , per esempio Venezia ha una sezione immersiva , anche
Cannes esiste un mercato già , come lo vedi tu qua ci sono diverse società . Io ho appena finito di lavorare , per esempio , una serie ho fatto per una società di produzione che fa parte di un conglomerato dove la sua più interessante azienda in realtà fa VR e hanno vinto già diversi premi a Venezia , per esempio sul VR .
E hanno vinto già diversi premi a Venezia , per esempio sul VR . Però sono ancora molto specifici , cioè è più per il B2B che non per il B2C , quindi non abbiamo ancora delle cose che sono realmente per il consumatore finale .
Gli investimenti diventano sempre più importanti , però ancora una volta , come ti avevo detto prima , il porno cominciamo a vedere se prende nella direzione della VR , perché se funziona poi seguono tutte le altre tecnologie . Per riassumere molto brevemente , noi abbiamo tre grandi momenti , che sono la preparazione , le riprese e la post-produzione .
Ti dico in riprese non ancora tanto , però nei due estremi , cioè nella preparazione e nella post-produzione , sta entrando pesantemente sopra tutto questo , però c'è ancora prima e nella post-produzione sta entrando pesantemente Sopra tutto questo , però c'è ancora prima la parte editoriale , cioè la scelta del contenuto .
E ti dico lì paradossalmente è già entrata da tanto , perché quando cominciamo a fare delle scelte di contenuto che ci vengono dettate da , la percezione che si ha di come il contenuto sarà ricevuto .
E tutto questo è fatto grazie non semplicemente a degli studi , ma a delle analisi tramite algoritmi , tale per cui , tutto sommato , per esempio con i decisori più importanti , cioè con Netflix o con Amazon , che sono le più grosse piattaforme Paramount , sono tutti gli altri , però le due più grandi sono quelle e tu ti devi riconfrontare circa ogni sei mesi per capire
qual è la linea editoriale . Cioè non è più una linea editoriale che per dieci anni è quella cosa , più o meno come è sempre stato prima , con certe con certi produttori di contenuti . Hbo , tu sai che fa delle serie televisive solo di un certo livello , con un certo tipo di costruzione , quindi non gli vai nemmeno a presentare la sitcom , non so come dire .
Pate , per esempio , come distributore , che comunque è un grande creatore di contenuti in Francia , ha due linee molto semplici che sono film d'autore di grande impatto sul pubblico o grandi commedie di grande impatto sul pubblico . Cioè c'è proprio queste due cose .
Quindi , se tu gli dici voglio fare un film di fantascienza , loro ti dicono sì , ma perché sei un autore o perché fa ridere . Non è nel senso della fantascienza la cosa interessante
¶ Tendenze E Produzione Di Contenuti
. Hanno comunque un mercato molto , molto grande , quindi chiaramente hanno flussi da controllare e quindi magari stanno producendo tanto crime in una parte del mondo che dicono no , basta , lo stiamo facendo troppo lì , quindi ora cerchiamo di fare i period di qua .
Ecco , questo è il discorso , sia per come sono appunto apprezzati i contenuti e quindi analizzati questi apprezzamenti e ti dicono guarda , adesso ci serve . Questo quindi è molto complicato perché devi semplicemente anticipare delle tendenze che cambiano costantemente . Tutto qui .
Riccardo , io ti ringrazio moltissimo del tempo che ci hai dedicato . Credo che anche per i nostri ascoltatori sia stata una chiacchierata estremamente interessante e ti ringrazio ancora e vi do appuntamento alla prossima volta , al prossimo episodio . Grazie mille , grazie a tutti .