Deepfake: Facebook eliminerà i video bufala (anche quelli porno)

Mark Zuckerberg ha deciso di dichiarare guerra ai deepfake, ovvero ai video in cui vengono mostrati i volti di persone che dicono cose che in realtà non hanno mai detto. Questo tipo di sistema funziona grazie alla sovrapposizione di volti, che viene fatta in maniera tecnologica. Tali contenuti vengono realizzati con l’intelligenza artificiale e comportano una serie di rischi per coloro che sono personaggi in vista. Sono la base delle fake news e devono essere assolutamente sotto controllo. In diverse occasioni era stato denunciato questo tipo di sistema anche dal giornalista del Le Iene, Matteo Viviani. Lo aveva spiegato nel corso dei suoi servizi.

La lotta ai deepfake e ai deepnude

I deepfake rappresentano una vera e propria piaga che bisogna combattere. Facebook non solo vuole tenere lontani questi video, ma anche quelli legati al mondo del porno che possono essere davvero molto rischiosi per la vita delle persone che diventano loro vittime. Pochi mesi fa il titolare di Facebook ha lanciato la Deepfake-Detention Challenge per sviluppare gli strumenti di identificare questi video manipolati con lo scopo di ingannare. Vengono realizzati attraverso l’intelligenza artificiale e vanno assolutamente evitati perché sono molto rischiosi.

Le fake news e i video manipolati

Oltre ai classici di cui magari si riprende un politico che dice cose che non ha mai detto, ci sono anche quelli legati al mondo del porno, ovvero i deepnude. In pratica vengono incollati nei video amatoriali volti famosi su quelli delle persone qualunque in modo tale da rivenderle per soldi. Capita però che la diffusione di deepnude o deepfake possa diventare molto pericolosa. Infatti, in alcune casi, c’è anche chi si è trovato vittima di numerosi attacchi come Fabiana, una 24enne per cui hanno pubblicato foto sue nude che in realtà però non aveva mai fatto.