Tempo di lettura: 8 minuti
È il 3 marzo 2021 quando Raffaella Spone, originaria del Pennsylvania, viene denunciata per diffamazione e molestie informatiche nei confronti di tre ragazze che appartengono alla stessa squadra di cheerleader della figlia. La donna verrà successivamente accusata in quanto responsabile di aver diffuso immagini e video, ottenuti mediante deepfake, delle tre adolescenti seminude intente a bere alcolici e svapare (https://edition.cnn.com/2021/03/15/us/pennsylvania-deepfake-cheerleading/index.html).
Ma che cos’è il deepfake?
Il deepfake consiste in una tecnica che permette la creazione di immagini basata sul deep learning, ovvero la capacità dell’intelligenza artificiale di compiere un apprendimento automatico, usata per sovrapporre ed appaiare immagini e video originali (quindi video effettivamente esistenti come riprese di uno smartphone o scene di un film) ad altre immagini e video (spesso ottenute dai social della persona bersaglio). Grazie a questa complessa tecnologia, in larga parte fondata sull’utilizzo di reti neurali artificiali ovvero modelli computazionali ispirati all’effettiva struttura di una rete neurale biologica, è quindi possibile creare falsi contenuti che vedono come protagonista una persona, del tutto ignara di ciò che sta accadendo, in atteggiamenti poco consoni alla propria posizione sociale o apertamente diffamatori.
Già nel 1997 la ricerca accademica si stava cimentando in un progetto inerente questa tecnica dal nome “Video Rewrite” con l’intendo di creare un video nel quale sembrasse che una persona stesse dicendo parole inerenti ad una traccia audio differente da quella originali. Ma è alla fine del 2017 che prende vita il termine “deepfake” grazie ad un utente omonimo del noto social Reddit. Questo utente creò una subreddit, ossia una sezione di discussione, nel quale venivano per lo più caricati video in cui molti famosi volti dello spettacolo sostituivano quelli di attrici e attori pornografici intenti in atti sessuali. Altri video, invece, vedevano come protagonista il volto dell’attore Nicolas Cage inserito in scene di film cult in cui quest’ultimo non appariva. Da allora, Reddit e diversi altri siti (ad esempio Twitter e Pornhub) presero provvedimenti nei confronti di questo genere di contenuti bannando i deepfake (o almeno quelli non a sfondo satirico) dalle proprie piattaforme.
Nonostante i provvedimenti presi, queste tecnologie possono costituire un enorme pericolo sotto diversi punti di vista: innanzitutto, malgrado i software responsabili della creazione di deepfake possano ancora essere notevolmente migliorati, in questi anni si è assistito ad un grande utilizzo di questa tecnica per la produzione di pornografia che può aver minato il prestigio e la salute mentale dei soggetti ritratti. Inoltre, i deepfake possono essere utilizzati sia come strumento di truffa sia come mezzo per dare atto a fenomeni di revenge porn anche in assenza di materiale effettivamente esistente. Infine, un ulteriore cupa eventualità è che siano usati al fine di diffamare qualcuno (come nel caso di Raffaella Spone) ed addirittura andare ad aggravare il fenomeno odierno che viene definito “information overload” ossia un’eccessiva esposizione quotidiana ad un abnorme quantitativo di informazioni che non permette all’individuo di effettuare delle decisioni in maniera ottimale (Speier, C., Valacich, J. S., & Vessey, I., 1999).
Ad oggi, le AI (Artificial Intelligence) richiedono un grande quantitativo di informazioni (usualmente foto e video del soggetto che si vuole inserire all’interno del prodotto finito vengono ottenute mediante i social network) acciocché si possano ottenere deepfake di buona qualità ma la DARPA (Defense Advanced Research Project Agency) è stata incaricata dal governo degli Stati Uniti d’America di sviluppare tecnologie per la valutazione automatica dell’autenticità di immagini e video dando vita al programma Medifor (https://medium.com/voxel51/have-deepfakes-influenced-the-2020-election-c0fc890aca0f) e ciò fa intendere quanti pericoli possano nascondere i deepfake.
Il ricercatore del MIT (Massachusettes Institute of Technology), Matt Groh ha affermato che porre particolare attenzione ad alcuni specifici dettagli potrebbe aiutare nell’identificazione di un deepfake, nel dettaglio occorrerebbe osservare: se alcuni parti del viso presentino dei “glitch” (piccoli malfunzionamenti transitori tipici del settore informatico), se i capelli dei soggetti sembrano comportarsi in maniera naturale (ad esempio scuotersi a dovere se il soggetto ruota la testa), se i muscoli facciali si muovono in maniera armoniosa e non artificiale quando l’individuo parla, se sono presenti sbalzi di audio o se le espressioni del viso non corrispondono alla tonalità della voce ed infine controllare se parti del video mostrino un’illuminazione che non corrisponde al resto delle scene. Questi consigli sono sicuramente utili e consolatori, tuttavia queste tecnologie possono plausibilmente essere migliorate in un futuro non remoto e viene spontaneo chiedersi se, un domani, il concetto tale per cui le immagini non mentono mai risulterà essere un’idea arcaica.
La società moderna è caratterizzata dal progresso tecnologico ed è inevitabile che nuove minacce e problematiche insorgano a seguito dell’utilizzo scorretto di nuovi device e software ed è per questo che risulta di fondamentale importanza prevenire tali pericoli non solo creando tecnologie funzionali a contrastare e limitare i danni ma, anche, attraverso programmi educativi che responsabilizzino ed informino gli utenti di tutto il mondo ai rischi e le potenzialità del web e dei diversi programmi informatici.
Di Alfredo Carrelli
Bibliografia e sitografia
Speier, C., Valacich, J. S., & Vessey, I. (1999). The influence of task interruption on individual decision making: An information overload perspective. Decision sciences, 30(2), 337-360.
https://edition.cnn.com/2021/03/15/us/pennsylvania-deepfake-cheerleading/index.html
Rispondi