• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Facebook afferma che l'intelligenza artificiale sta migliorando nello spiare i contenuti indesiderati

    Facebook ha investito molto nell'intelligenza artificiale per individuare automaticamente i contenuti vietati

    Facebook mercoledì ha affermato che il suo software sta diventando più abile nello spiare i contenuti vietati sul social network, quindi lavorare con gli umani per rimuovere rapidamente i video terroristici e altro ancora.

    "Mentre pecchiamo dalla parte della libera espressione, generalmente tracciamo un limite a tutto ciò che potrebbe causare danni reali, L'amministratore delegato di Facebook Mark Zuckerberg ha dichiarato durante un briefing sull'ultimo rapporto dell'azienda sulla ricerca di post che violano le sue politiche.

    "Questa è una piccola parte dei contenuti su Facebook e Instagram, e ne rimuoviamo gran parte prima che qualcuno lo veda."

    Facebook ha investito molto nell'intelligenza artificiale (AI) per individuare automaticamente i contenuti vietati, spesso prima che venga visto dagli utenti, e team umani di revisori che controllano se il software era sulla destinazione.

    Facebook ne ha più di 35, 000 persone che lavorano in materia di sicurezza e protezione, e spende miliardi di dollari ogni anno in quella missione, secondo Zuckerberg.

    "I nostri sforzi stanno dando i loro frutti, " ha detto Zuckerberg. "I sistemi che abbiamo costruito per affrontare questi problemi sono più avanzati".

    Quando si tratta di rilevare l'incitamento all'odio, Il software di Facebook ora trova automaticamente l'80% del contenuto rimosso con un enorme miglioramento rispetto a due anni fa, quando quasi tutto questo materiale non è stato trattato fino a quando non è stato segnalato dagli utenti, secondo l'azienda californiana.

    Sfumatura di ortica

    Zuckerberg ha notato che l'incitamento all'odio è più difficile da rilevare per l'intelligenza artificiale rispetto alla nudità nelle immagini o nei video a causa delle "sfumature linguistiche" che richiedono un contesto che potrebbe rendere minacciose anche le parole comuni.

    Aggiungete a ciò i video di attacchi guidati da pregiudizi contro una razza, sesso o religione potrebbero essere condivisi per condannare tale violenza piuttosto che glorificarla.

    Il presidente e CEO di Facebook Mark Zuckerberg testimonia davanti al Comitato dei servizi finanziari della Camera il 23 ottobre, 2019

    Le persone su Facebook continuano a provare a condividere il video di un orribile attacco alla moschea di Christchurch, Nuova Zelanda, con i sistemi di social network che bloccano il 95 percento di questi tentativi, secondo i dirigenti.

    Un uomo armato solitario ha aperto il fuoco su due moschee nella città di Christchurch uccidendo e ferendo decine di musulmani a marzo, trasmettendo le aggressioni in diretta su Facebook.

    Facebook ha esperti di terrorismo come parte di un team di oltre 350 persone dedicate alla prevenzione dell'utilizzo del social network da parte di gruppi terroristici, secondo Monika Bickert, responsabile della gestione delle politiche globali.

    I sistemi affinati per trovare ed eliminare i contenuti vietati su Facebook vengono utilizzati anche su Instagram, che ha intensificato gli sforzi per filtrare i contenuti che potrebbero incoraggiare il suicidio o l'autolesionismo consentendo alle persone di condividere tali esperienze traumatiche con uno spirito di recupero o guarigione,

    Le regole messe in atto di recente su Instagram hanno aggiunto disegni e altri contenuti di fantasia all'elenco per vietare le immagini che potrebbero incoraggiare il suicidio o l'autolesionismo.

    Il servizio di condivisione di immagini e video di proprietà di Facebook all'inizio di quest'anno ha bloccato le immagini di autolesionismo dopo che un'adolescente britannica che era andata online per leggere del suicidio si era tolta la vita nel 2017.

    La storia dei social media della quattordicenne ha rivelato che seguiva i resoconti sulla depressione e il suicidio.

    Il caso ha suscitato un acceso dibattito in Gran Bretagna sul controllo dei genitori e sulla regolamentazione statale dell'uso dei social media da parte dei bambini.

    Instagram non ha mai consentito post che promuovono o incoraggiano il suicidio o l'autolesionismo.

    Con una modifica delle regole all'inizio di quest'anno, Instagram ha iniziato a rimuovere i riferimenti a contenuti non grafici relativi a persone che si fanno del male dalle sue ricerche e funzionalità di raccomandazione.

    Le misure avevano lo scopo di rendere tali immagini più difficili da trovare per adolescenti depressi che potrebbero avere tendenze suicide.

    © 2019 AFP




    © Scienza https://it.scienceaq.com