Non credere a nessuno: cosa minaccia la rete neurale, facendo porno
Dmitry Kurkin
Video porno falsiin cui la star del film "Wonder Woman" Gal Gadot avrebbe fatto sesso con il suo fratellastro, che è apparso sul Web questa settimana, si è rivelato non solo un falso, ma un falso generato dall'intelligenza artificiale.
L'autore del video, un utente anonimo di reddit con il soprannome deepfakes, in un'intervista a Vice, ha confermato di aver usato la rete neurale per "fare il servizio fotografico" con il volto di Gadot al corpo dell'attrice porno. Il falso, in generale, è evidente, e il deepfakes non aveva intenzione di guadagnare denaro - secondo lui, voleva solo verificare quanto sarebbe stato facile farlo usando l'intelligenza artificiale. E ha cattive notizie per noi: è stato molto facile fare finta porno a casa.
Il problema, in generale, non è nei pornofagi: la richiesta di foto e video, in cui attori e attrici famosi come celebrità fanno sesso, era, è e sarà con i feticisti e gli appassionati di sensazioni. Sulla somiglianza esterna con le stelle nell'industria del porno, sono state fatte delle carriere intere: questo fenomeno ha persino dato origine a un titolo eccezionale della stampa gialla: "Il nano di Gordon Ramsay viene trovato morto in un buco di tasso".
Ma se prima che la produzione avesse bisogno di tempo, risorse e qualche abilità, allora una rete neurale, addestrata a saldare i volti a un'immagine, semplifica enormemente il compito. I robot si attaccano, non una persona, ei robot diventano più intelligenti di volta in volta, il che significa che i falsi appariranno sempre più affidabili. L'utente deepfakes ha chiarito che ha raccolto il suo software AI dagli elementi improvvisati trovati nelle librerie open source e ha fatto foto e video in fognature pubbliche e hosting come YouTube. In poche parole, tutti gli strumenti per generare pornofeikov giacciono sotto il suo naso, non solo con lui, ma tra milioni di persone in tutto il mondo.
E questo, in senso stretto, nemmeno le notizie. Nel 2003, esperti della University of Oregon Health and Science hanno avvertito che le frodi audio sono "facili da fare e difficili da determinare". Entro il 2017, la previsione si è avverata e ci sono state false registrazioni vocali generate da reti neurali che sono molto difficili da distinguere da quelle reali. Dopo l'audio, il video è stato tirato su. Lo sviluppo dello staff dell'Università di Washington sincronizza le espressioni facciali del viso di una persona con il suo discorso: nel video clip con Barack Obama, ad esempio, è presente solo l'audio, l'immagine è generata dal programma. Connettiti l'uno con l'altro - e ora ci sono video falsi pronti, in cui, per esempio, un noto politico liberale "confessa" le sue simpatie per Hitler.
Ci vuole un bel po 'di immaginazione per immaginare come possano portare a tali abusi l'intelligenza artificiale - i chatbot di Microsoft, che i troll di Twitter si sono trasformati in razzisti in meno di un giorno, sembreranno una bella burla. E, naturalmente, la tecnologia Porno non è principalmente minacciata da Gal Gadot, Taylor Swift o Jennifer Lawrence. Sono sufficientemente protetti per assumere un esercito di specialisti IT che riconoscono un falso, e una flotta di avvocati che farà causa a chiunque tenti di usare questi falsi per guadagno personale.
No, i semplici mortali diventeranno le vittime di nuovi algoritmi innocui. I falsi digitali possono essere utilizzati per pornografia, cyber-stalking, molestie di rete, ricatti e manipolazioni da parte di persone facilmente suggestionabili e che non seguono in particolare le notizie dal campo delle tecnologie avanzate ("Sua figlia è stata videoregistrata, trasferisce immediatamente i soldi, altrimenti TUTTO sarà visto"). E non stiamo necessariamente parlando di pornografia: i falsi possono anche essere lanciati nella rete per propaganda politica e incitamento all'odio.
"Ma questo è mostruoso!" Sì, mostruoso, e non è colpa del codificatore dei deepfakes. A mano a mano che gli hacker irrompono nei sistemi bancari non per rubare denaro, ma per indicare il dipartimento di cyberdivisione in falle nella sicurezza, così è stato inventato da un programmatore anonimo di IA solo ci mette di fronte a un fatto: l'era delle contraffazioni digitali non è una storia dell'orrore anti-utopica "Black Mirror" e la realtà in arrivo. Non è stata ancora compresa dall'etica moderna (i pornofili possono essere considerati come un'invasione della privacy di altre persone?), Né dalla legge in vigore. Ma è in lei che in qualche modo dobbiamo vivere nei prossimi anni. Quindi, è necessario sviluppare un antidoto contro tali ripieni.
I curatori del dizionario Collins hanno definito il termine "fake news" l'espressione del 2017, sottolineando così che l'utente medio è dipendente dal clickbate e ripete titoli sensazionali senza perdere tempo a controllare l'autenticità delle informazioni. Nel frattempo, notizie false possono influenzare i risultati delle elezioni e dei referendum. E anche questa è una parte della nuova realtà in cui già esistiamo e in cui avremo bisogno di imparare a essere meno frivoli.
I social network hanno già fatto di Internet una casa con pareti di vetro dove milioni di persone possono guardare la tua vita ogni giorno - anche quando non lo vuoi. Ora è ovvio che non c'è nessuna porta in questa casa: chiunque può provare a invadere il tuo spazio personale, usando l'intelligenza artificiale per fottere la faccia sul pornorol o nel film "Il Signore degli Anelli". La privacy è morta, ma non solo il Grande Fratello ne è colpevole sotto forma di servizi speciali e società globali, ma anche noi stessi.
Il mondo dei falsi digitali sta arrivando, ma questo non è un motivo di panico, paranoia, rifiuto di usare Internet o requisiti per vietare le reti neurali. Questo è un motivo per pensare all'igiene della rete e alla nuova etica, in cui verrà risolto una volta per tutte che l'utilizzo dell'immagine di qualcun altro per creare un falso digitale è vile e illegale. I tempi in cui le persone credevano incondizionatamente a tutto ciò che dicevano in TV (anche se dicevano che "Lenin era un fungo") stanno svanendo. Allo stesso modo, ci abituiamo gradualmente a non credere a tutto ciò che è scritto su Internet.
Copertina:Record di ordito