• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Altro
    Algoritmi non così bravi nell'identificare i contenuti per adulti
    Non è difficile immaginare un bot che segnala l'iconico dipinto dell'artista Georgia O'Keeffe "Linee grigie con il nero, Blue and Yellow" (nella foto qui alla Tate Modern) come contenuto per adulti. Rob Stothard/Getty Images

    La piattaforma Tumblr ha deciso di non consentire più contenuti per adulti. Il divieto entra in vigore il 17 dicembre 2018, e per farla rispettare, Tumblr sembra aver implementato un bot che è singolarmente scarso nel suo lavoro, segnalando contenuti innocenti come di natura pornografica e spingendo sia gli utenti che gli esperti di tecnologia a chiedersi perché il bot sia così scarso in quello che fa. Parte della risposta è che la moderazione con l'intelligenza artificiale è un compito estremamente difficile.

    Molte delle sottigliezze coinvolte nel decidere quale contenuto troviamo accettabile o discutibile devono essere scritte nella pietra, e il nostro track record nel farlo non è così eccezionale. Infatti, abbiamo difficoltà a identificare qualcosa come pornografico in primo luogo. Il compianto giudice della Corte Suprema degli Stati Uniti Potter Stewart ha riassunto il sentimento in una sentenza su un caso di oscenità (Jacobellis v. Ohio) con la frase "Lo so quando lo vedo".

    Quel sentimento si è dimostrato tanto vago nella pratica quanto lo è nel significato. Ecco un esempio:l'immagine di un uomo con un'erezione deve essere di natura oscena, Giusto? Ma cosa succede se questo è per un'illustrazione medica del priapismo, una condizione spesso dolorosa che provoca un'erezione prolungata, e appare su un sito medico? Se qualsiasi rappresentazione di una vulva è oscena, significa che il lavoro dell'artista Georgia O'Keeffe, i cui dipinti di fiori sono spesso considerati metafore visive dell'anatomia femminile, deve essere segnalato negli articoli di storia dell'arte?

    I social network e le piattaforme di contenuti incontrano continuamente queste situazioni. Per esempio, in un grave incidente di pubbliche relazioni nel 2016, Facebook ha censurato la foto vincitrice del Premio Pulitzer di Kim Phuc, una bambina nuda di 9 anni che correva terrorizzata da un attacco al napalm durante la guerra del Vietnam; la foto è stata pubblicata dal quotidiano più importante della Norvegia per un articolo rilevante sulla guerra. Al contrario, Gli utenti di Twitter non sono stati in grado di persuadere quella piattaforma a chiudere gli account neonazisti fino alla fine del 2017. Con filosofie diverse e apparentemente arbitrarie, regole libere dal contesto che possono confondere anche i moderatori umani, non c'è da meravigliarsi se gli algoritmi hanno problemi a capire cosa contrassegnare.

    Il sistema di Tumblr sembra cercare una quantità di ciò che vede come pelle esposta nelle immagini, o forme che ritiene possano essere capezzoli o genitali. Sfortunatamente, molti primi piani benigni su parti non erogene del corpo umano stanno superando la soglia per quanta carne nuda mostra un'immagine, come ha notato Dan Fallon che scrive per Digg. Alcuni oggetti come gli alberi potrebbero anche sembrare fallici. E in un caso apparentemente inspiegabile, Fallon ha scritto, le immagini della natura molto innocenti di un fotografo paesaggista sono state contrassegnate come problematiche, pure. Questo, però, non è insolito per tali algoritmi. Altre iterazioni di robot censori hanno contrassegnato immagini di dune e spiagge perché il colore della sabbia era simile al colore della pelle secondo i loro set di dati di allenamento.

    Questo errore sistematico ha senso anche se si considera quanti toni della pelle hanno gli esseri umani. I colori dal beige chiaro al quasi nero sono tutti naturali, e a seconda di come viene addestrata un'intelligenza artificiale o calibrato un sensore, potrebbe non capire che esistono anche i colori della pelle più scuri. Di conseguenza, un algoritmo addestrato per individuare e censurare immagini pornografiche con artisti caucasici potrebbe non essere in grado di contrassegnare immagini altrettanto esplicite con modelli dalla pelle scura. Una delle soluzioni facili per questo è sovracompensare, segnala tutto e giustifica i falsi positivi come meglio che non catturare abbastanza contenuti per adulti, che è ciò che sembra aver fatto Tumblr nella corsa per disinfettare il suo contenuto. Tumblr non ha restituito richieste di commento sul fatto che ci fosse un livello aggiuntivo per la sua moderazione.

    In definitiva, resta da vedere se un algoritmo di censura troppo zelante guiderà gli utenti che non pubblicano contenuti per adulti anche dalla piattaforma, o se sarà composto. Ma l'eccessiva pubblicità e aggressività di Tumblr mette in evidenza alcune delle molte difficoltà nel moderare i media online. Quindi gli errori continueranno a essere commessi, e fatto frequentemente. Fino a quando non riusciremo a capire come affrontare queste preoccupazioni, gli esseri umani dovranno supervisionare qualsiasi sforzo di moderazione veramente riuscito.

    Ora è interessante

    Persino il burbero Garfield è stato bandito da Tumblr nella prima spolverata, come hanno notato numerosi articoli.

    © Scienza https://it.scienceaq.com