Il ruolo è quello di Jack Nicholson in Shining . Sue anche le espressioni, i gesti, i movimenti. Il volto, però, è quello di Jim Carrey: p...
Il ruolo è quello di Jack Nicholson in Shining. Sue anche le espressioni, i gesti, i movimenti. Il volto, però, è quello di Jim Carrey: pettinato e vestito come il protagonista del film, Jack Torrance, calato nella parte e terrificante come non mai. Il filmato — che può ingannare anche l’occhio più attento — non è stato realizzato né da Carrey, né da uno studio specializzato in effetti speciali, ma da un singolo individuo, lo youtuber Ctrl Shif Face, aiutato da DeepFaceLab, un popolare software disponibile online. Parlare di filmato, però, è un po’ improprio: ci troviamo di fronte a un video manipolato, un “deepfake”. La parola unisce “fake” (falso) a “deep”, che significa “profondo” e allude al deep learning, l’apprendimento profondo di cui sono capaci alcuni sofisticati algoritmi di intelligenza artificiale. Nel caso di Carrey in Shining, questa tecnologia è stata messa al servizio dell’intrattenimento, con il solo obiettivo di suscitare meraviglia negli spettatori. Ma i deepfake possono essere usati anche per scopi tutt’altro che edificanti, con conseguenze potenzialmente gravi.
Come nasce un deepfake
La questione è complessa dal punto di vista tecnico, ma, semplificando, si può spiegare così: oggi esistono algoritmi in grado di manipolare un video esistente, sovraimponendo al volto di una persona quello di un’altra. Alcuni di questi software si possono reperire online, insieme a centinaia di consigli, guide, indicazioni che ne rendono l’utilizzo relativamente accessibile. I programmi per realizzare i deepfake non sono alla portata di chiunque, e per ottenere buoni risultati servono pazienza e perizia, ma sicuramente rendono possibili per una platea ampia di utenti cose che un tempo potevano fare solo squadre di tecnici esperti dotati di grandi risorse (e fondi ingenti).
Ma come funzionano? Come già detto, al centro di tutto c’è l’apprendimento profondo, che l’Osservatorio Artificial Intelligence del Politecnico di Milano definisce così: «Un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati, dove ogni strato calcola i valori per quello successivo affinché l’informazione venga elaborata in maniera sempre più completa». Come ha spiegato a 7 il professor Matteo Matteucci, docente di Machine Learning e Cognitive Robotics al Politecnico, le “reti neurali artificiali” sono composte da «piccoli elementi collegati tra loro, ciascuno dei quali fa calcoli molto semplici»: «quando ci sono centinaia di migliaia di elementi che prendono in considerazione milioni di parametri alla volta», precisa Matteucci, «questi modelli raggiungono livelli di complessità molto significativi». E, di conseguenza, possono arrivare a risultati estremamente sofisticati. Soprattutto se si impiegano i cosiddetti generative adversarial network (in italiano: reti antagoniste generative), cioè due reti neurali in competizione tra loro. «Immaginiamo di avere», spiega ancora il professore, «una rete che impara a generare immagini sempre più realistiche. Se gliene affianchiamo un’altra che cerca di distinguere le immagini artificiali da quelle reali, tanto più la prima migliora, quanto più la seconda avrà a disposizione dati sofisticati su cui lavorare, migliorando a sua volta. È un po’ come il gatto e il topo: più i gatti si fanno furbi, più i topi diventano scaltri per riuscire a sfuggirgli, e così via».
Così Jack Nicholson è diventato Jim Carrey
Ctrl Shift Face ha spiegato a Daily Dot come ha realizzato la sua versione di Shining, con Jim Carrey come protagonista. Tanto per cominciare, la scelta non è stata del tutto sua: lo youtuber aveva aperto un sondaggio sulla piattaforma Patreon, dove i fan del suo lavoro possono sostenerlo con donazioni mensili, e ha lasciato che fossero i follower a scegliere tra American Psycho (in cui avrebbe inserito Tom Cruise) , The Room (dove avrebbe fatto comparire Keanu Reeves) e, appunto, il capolavoro di Kubrick. Dopo la vittoria di quest’ultimo, Ctrl Shift Face ha raccolto clip e immagini del volto di Carrey sulla Rete — dove, manco a dirlo, se ne trovano in abbondanza, tra spezzoni di film e interviste — e poi le ha date in pasto al software DeeepFaceLab. Lo youtuber ha messo a disposizione dei suoi follower più curiosi anche un collage dei video usati per “addestrare” l’algoritmo che ha prodotto il deepfake: basta guardarlo per rendersi conto che per ottenere un risultato realistico non basta dare in pasto a un software una manciata di foto, ma ne servono molte, di buona qualità e soprattutto capaci di restituire una visione a 360° del volto che si desidera riprodurre.
I falsi video pornografici
Ci vuole un lavoro certosino, quindi, per realizzare un deepfake capace di ingannare lo spettatore. Il problema, però, è che a volte anche un video poco sofisticato può fare danni. Senza contare che, ora che gli strumenti tecnici per realizzare video manipolati sono disponibili con relativa facilità, a servirsene — anche investendo grandi quantità di tempo ed energie — sono sia persone con buone intenzioni, sia persone che hanno intenti pericolosi. Gli algoritmi di machine learning capaci di sfornare deepfake piacciono agli youtuber come Ctrl Shift Face, intenti a dare sfogo alla loro creatività, e stanno a cuore ad aziende attive in settori assolutamente leciti (e redditizi) come quello videoludico. Ma, purtroppo, c’è anche chi se ne serve per realizzare pornografia realistica — ma del tutto artefatta — con i volti di persone del tutto inconsapevoli. A farne le spese sono soprattutto le celebrità di sesso femminile — da Katy Perry a Taylor Swift — si sono viste trasformate, loro malgrado, in pornoattrici. Ma la stessa cosa può accadere anche a persone comuni, soprattutto dal momento che caricare molte fotografie di noi stessi sui social è ormai una prassi comune: senza saperlo, i nostri profili possono trasformarsi in database di immagini che un malintenzionato, un domani, potrebbe usare contro di noi, creando video in cui diciamo o facciamo — almeno all’apparenza — cose compromettenti. Non a caso, c’è già qualche iniziativa legislativa pensata proprio per tutelare le vittime di questi potenziali abusi: la legge contro la pornovendetta/revenge porn dello Stato della Virginia è stata recentemente emendata proprio per fare in modo di includere esplicitamente anche video manipolati.
Fake video, fake news
E poi c’è il problema delle fake news: il video compromettente di un politico, condiviso al momento giusto, può fare molti danni, anche se è artefatto, manipolato, alterato. Perché online spesso le notizie false viaggiano più veloci delle correzioni e delle rettifiche. A maggio, un falso video di Nancy Pelosi in cui la speaker della Camera dei rappresentanti Usa sembrava ubriaca ha dimostrato quanto sia semplice far diventare virale un filmato che non ha niente a che vedere con la realtà. In quel caso non si trattava di un vero e proprio deepfake, ma solo di un video manipolato (è stato realizzato rallentando e alterando un discorso reale della speaker della Camera), ma gli effetti sono stati comunque vistosi: il filmato taroccato è stato visto da milioni di persone. E molti sembrano averlo preso per vero, come ha fatto, in un primo momento, anche l’ex sindaco di New York Rudy Giuliani, sostenitore deciso di Trump, che l’ha twittato commentando: «Che cosa non va in Nancy Pelosi? Il suo modo di parlare è bizzarro» (solo in seguito ha ammesso di aver preso un granchio). Il caso mostra quanto un filmato alterato possa rivelarsi utile per screditare un avversario politico, fare propaganda, accendere l’indignazione delle persone.
Il modo in cui le piattaforme social si sono comportate quando la manipolazione del video della speaker della Camera è stata svelata preoccupa alcuni osservatori. YouTube lo ha rimosso, perché «viola gli standard» di correttezza, mentre Facebook si è limitato a ridurne la diffusione (rendendolo quindi meno virale) e a fare in modo che, all’atto della sua condivisione, venisse accompagnato da link a siti di fact checking che aiutavano a contestualizzarlo, identificandolo come un contenuto manipolato. Un approccio soft, quindi, che dimostra quanto sia difficile, per la piattaforma, barcamenarsi tra l’esigenza di tutelare la libertà d’espressione e quella, talvolta opposta, di intervenire quando c’è chi cerca di manipolare l’opinione pubblica. E che ha spinto due artisti (aiutati da un’agenzia pubblicitaria) a realizzare un provocatorio deepfake di Mark Zuckerberg. Un caso tutt’altro che isolato: quello del fondatore di Facebook è solo l’ultimo di una lunga serie di video falsi creati per attirare l’attenzione dell’opinione pubblica sui rischi connessi con la diffusione dei deepfake. Diffusione che pare inevitabile, dati i progressi tecnologici. Ne è convinto anche il Washington Post, che ha messo a punto una guida — destinata a tutti, esperti e non — per aiutare i cittadini a districarsi in mezzo a una giungla di video ingannevoli. Deepfake inclusi. Il titolo? Seeing isn’t believening, traducibile come: «Vedere per non credere». Un buon motto per affrontare — armati di spirito critico — l’era che ci aspetta: quella in cui anche il video più realistico può nascondere un’insidia.
10 luglio 2019 | 13:35
© RIPRODUZIONE RISERVATA
by via Corriere.it - Homepage
COMMENTS