• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Utilizzo di strumenti di intelligenza artificiale per identificare i livelli di violenza nei film

    Credito:CC0 Dominio pubblico

    Per molti nell'industria cinematografica, vedere il tuo film ottenere un punteggio NC-17 dalla Motion Picture Association of America (MPAA) è il bacio della morte. Con il tuo film non più accessibile agli spettatori sotto i 17 anni, ti viene presentata la possibilità di scegliere tra incassi limitati al botteghino o costose riedizioni, o anche rigirare, per soddisfare i requisiti di un rating R più appetibile.

    Ma cosa accadrebbe se ci fosse un modo più accurato per determinare la probabile classificazione di un film in fase di sceneggiatura, prima che passi attraverso il costoso processo di produzione e post-produzione? Un team di ricerca del Signal Analysis and Interpretation Lab (SAIL) della Viterbi School of Engineering della USC sta utilizzando l'apprendimento automatico per analizzare la rappresentazione della violenza nel linguaggio dei copioni. Il risultato è un nuovo strumento per assistere i produttori, sceneggiatori e studi nel determinare la potenziale classificazione dei loro progetti.

    Presentato alla conferenza dell'Associazione per l'avanzamento dell'intelligenza artificiale (AAAI) del 2019, il nuovo strumento di intelligenza artificiale è stato sviluppato da Ph.D. studenti Victor Martinez, Krishna Somandepalli, Karan Singla, Anil Ramakrishna, e il loro consigliere Shrikanth Narayanan, la cattedra di ingegneria Niki e Max Nikias. Questo è stato fatto in collaborazione con Yalda Uhls di Common Sense Media. Lo studio è la prima volta che l'elaborazione del linguaggio naturale è stata utilizzata per identificare il linguaggio e il contenuto violenti nelle sceneggiature dei film.

    Lo strumento di intelligenza artificiale è stato sviluppato utilizzando un set di dati di 732 copioni di film popolari che erano stati annotati per contenuti violenti da Common Sense Media. Da queste informazioni, il team ha costruito un modello di apprendimento automatico della rete neurale in cui gli algoritmi si intersecano, lavorare insieme e imparare dai dati di input (cioè, il testo degli script), al fine di creare un output (cioè, valutazioni di violenza per il film). Lo strumento di intelligenza artificiale ha analizzato il linguaggio nei dialoghi delle sceneggiature e ha scoperto che la semantica e il sentimento del linguaggio utilizzato erano un forte indicatore del contenuto violento valutato nei film completati.

    Narayanan e il suo team hanno utilizzato l'intelligenza artificiale per analizzare i dati incentrati sull'uomo per oltre 15 anni come parte della loro ricerca sulla media intelligence computazionale, che si concentra sull'analisi dei dati relativi al cinema e ai mass media. Lavorano regolarmente con partner come The Geena Davis Institute for Gender in Media per analizzare i dati di film e media per determinare cosa possono rivelare sulla rappresentazione.

    Narayanan ha affermato che l'analisi del testo ha una lunga storia nei campi creativi della valutazione dei contenuti per l'incitamento all'odio, linguaggio sessista e offensivo, ma analizzare la violenza nei film attraverso il linguaggio della sceneggiatura è un compito più complesso.

    "In genere, quando le persone studiavano scene di violenza nei media, cercano colpi di pistola, macchine stridenti o incidenti, qualcuno che combatte e così via. Ma il linguaggio è più sottile. Questi tipi di algoritmi possono guardare e tenere traccia del contesto, non solo cosa significano parole specifiche e scelte di parole. Lo guardiamo da un punto di vista generale, " Disse Narayanan.

    Martinez ha affermato che un esempio della capacità dello strumento di intelligenza artificiale di rilevare la violenza implicita che la tecnologia attuale non è in grado di rilevare è stata una parte del dialogo di The Bourne Ultimatum (2007):"Sapevo che sarebbe finito in questo modo. Sarebbe sempre finito questo modo…"

    Martinez ha affermato che questa linea è stata contrassegnata dallo strumento di intelligenza artificiale come violenta, anche se non ha segni linguistici espliciti per la violenza.

    "In contrasto con il modo in cui l'MPAA valuta, i nostri modelli guardano il contenuto reale del film, e il contesto in cui si dice il dialogo, per fare una previsione su quanto sia violento quel film, " ha detto Martinez.

    Somandepalli ha affermato che il team di ricerca sta ora utilizzando lo strumento per analizzare come le sceneggiature utilizzano la violenza nella rappresentazione di vittime e autori, e i dati demografici di quei personaggi.

    Tali risultati potrebbero svolgere un ruolo importante in un post #MeToo Hollywood, con preoccupazioni circa la rappresentazione delle donne e la perpetuazione di stereotipi negativi, e una rinnovata attenzione ai personaggi femminili forti con agenzia.

    Il team prevede che alla fine questo sarebbe uno strumento che potrebbe essere integrato nel software di sceneggiatura. La maggior parte dei programmi di sceneggiatura come Final Draft o WriterDuet sono già in grado di creare report che mostrano la proporzione dei dialoghi dei personaggi per genere. Questo strumento consentirebbe l'analisi del contenuto in termini di natura del linguaggio violento utilizzato da un personaggio, mostrando quali personaggi sono gli autori e quali le vittime.

    "Spesso ci possono essere modelli inconsci e pregiudizi presenti nella sceneggiatura che lo scrittore potrebbe non volere, e uno strumento come questo aiuterà ad aumentare la consapevolezza di ciò." ha detto Narayanan.

    Lo studio "Violence Rating Prediction from Movie Scripts" è pubblicato negli Atti della Trentatreesima Conferenza AAAI sull'Intelligenza Artificiale.


    © Scienza https://it.scienceaq.com