• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intelligenza artificiale ora può creare porno fasullo, rendere il revenge porn ancora più complicato

    La pornografia generata dall'intelligenza artificiale, nota come "deepfake", sta diventando più convincente, senza soluzione di continuità e reale. Credito:Shutterstock

    A gennaio di quest'anno, è stata rilasciata una nuova app che offre agli utenti la possibilità di scambiare i volti in un video con un volto diverso ottenuto da un'altra foto o video, simile alla funzione "scambio di volti" di Snapchat. È una versione quotidiana del tipo di immagini generate al computer (CGI) ad alta tecnologia che vediamo nei film.

    Potresti riconoscerlo dal cameo di una giovane principessa Leia nel film di Star Wars del 2016 Rogue One , che utilizzava il corpo di un altro attore e le riprese del primo film di Star Wars creato 39 anni prima.

    Ora, chiunque abbia un computer ad alta potenza, un'unità di elaborazione grafica (GPU) e il tempo a disposizione possono creare falsi video realistici, noti come "deepfake", utilizzando l'intelligenza artificiale (AI).

    Sembra divertente, Giusto?

    Il problema è che questi stessi strumenti sono accessibili a coloro che cercano di creare pornografia non consensuale di amici, colleghi di lavoro, compagne di classe, ex-partner e perfetti sconosciuti – e pubblicalo online.

    L'evoluzione dei deepfake

    A dicembre 2017, Motherboard ha svelato la storia di un utente di Reddit noto come "deep fakes", che ha usato l'intelligenza artificiale per scambiare i volti degli attori nei video pornografici con i volti di celebrità famose. Un altro utente Reddit ha quindi creato l'applicazione desktop chiamata FakeApp.

    Consente a chiunque, anche a chi non ha competenze tecniche, di creare i propri video falsi utilizzando il framework di apprendimento automatico open source TensorFlow di Google.

    La tecnologia utilizza un metodo di intelligenza artificiale noto come "apprendimento profondo", che comporta l'alimentazione di dati di un computer che il computer utilizza quindi per prendere decisioni. Nel caso del porno falso, il computer valuterà quali immagini facciali di una persona saranno più convincenti come scambio di volti in un video pornografico.

    Conosciuto come porno "morph", o "porno parassita", i video o le fotografie di sesso falso non sono un fenomeno nuovo. Ma ciò che rende i deepfake un problema nuovo e preoccupante è che la pornografia generata dall'intelligenza artificiale sembra significativamente più convincente e reale.

    Un'altra forma di abuso sessuale basato sull'immagine

    Creare, distribuire o minacciare di distribuire materiale pornografico falso senza il consenso della persona il cui volto appare nel video è una forma di "abuso sessuale basato sull'immagine" (IBSA). Conosciuto anche come "pornografia non consensuale" o "revenge porn", è una violazione della privacy e una violazione del diritto alla dignità, autonomia sessuale e libertà di espressione.

    In un caso di morph porn, le foto di una donna australiana sono state rubate dai suoi account sui social media, sovrapposte a immagini pornografiche e poi pubblicate su più siti web. Ha descritto l'esperienza come farla sentire "fisicamente malata, disgustato, arrabbiato, degradato, disumanizzato».

    Eppure le risposte a questo tipo di abuso sessuale rimangono incoerenti. Manca la regolamentazione in Australia, e altrove.

    Il volto di Donald Trump viene scambiato sul corpo di Alec Baldwin mentre fa la sua imitazione di Donald Trump.

    Ricorso ai sensi del diritto penale australiano

    Sud dell'Australia, NSW, Victoria e l'ACT hanno reati penali specifici per abuso sessuale basato sull'immagine con pene fino a quattro anni di reclusione. Sud dell'Australia, Il NSW e l'ACT definiscono esplicitamente un'immagine "intima" o "invasiva" includendo immagini che sono state alterate o manipolate.

    Le giurisdizioni prive di reati specifici potrebbero fare affidamento su leggi penali più generali. Per esempio, il reato federale delle telecomunicazioni di "usare un servizio di trasporto per minacciare, molestare o offendere", o reati statali e territoriali come riprese illegali, indecenza, stalking, voyeurismo o ricatto.

    Ma non è chiaro se tali leggi si applicherebbero ai casi di "fake porn", nel senso che attualmente, la legge penale fornisce una protezione incoerente per le vittime di abusi sessuali basati sull'immagine in tutta l'Australia.

    Ricorso ai sensi del diritto civile australiano

    Le vittime hanno scarso ricorso ai sensi della legge sul copyright a meno che non possano dimostrare di essere il proprietario dell'immagine. Non è chiaro se ciò significhi il proprietario dell'immagine del volto o il proprietario del video originale. Potrebbero avere più fortuna sotto la legge sulla diffamazione. Qui l'attore deve dimostrare che l'imputato ha pubblicato materiale falso e denigratorio che lo identifica.

    Seguendo il contenzioso civile, però, richiede tempo e denaro. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Anche, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.

    Addressing the gap in legislation

    The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.

    Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.

    È importante sottolineare che the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.

    Prevention and response beyond the law

    While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Però, al momento della scrittura, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.

    Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical

    A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.

    Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. Per allora, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.

    To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.

    Questo articolo è stato originariamente pubblicato su The Conversation. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com