• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Altro
    I ricercatori affermano che i media hanno bisogno di politiche di intelligenza artificiale generativa per aiutare a destreggiarsi tra la disinformazione e la disinformazione
    IA visiva generativa in natura. Credito:Giornalismo digitale (2024). DOI:10.1080/21670811.2024.2331769

    Una nuova ricerca sulle immagini IA generative mostra che solo più di un terzo delle organizzazioni mediatiche intervistate al momento della ricerca dispone di una politica IA specifica per le immagini.



    Lo studio, condotto dalla RMIT University in collaborazione con la Washington State University e il QUT Digital Media Research Center, ha intervistato 20 photo editor o ruoli correlati provenienti da 16 principali organizzazioni di media pubbliche e commerciali in Europa, Australia e Stati Uniti sulla loro percezione delle tecnologie di intelligenza artificiale generativa. nel giornalismo visivo.

    "L'intelligenza artificiale visiva generativa nelle testate giornalistiche:sfide, opportunità, percezioni e politiche" è stata pubblicata su Giornalismo digitale .

    Il ricercatore capo e docente senior dell'RMIT, Dr. TJ Thomson, ha affermato che, sebbene la maggior parte del personale intervistato sia preoccupato per l'impatto dell'intelligenza artificiale generativa sulla disinformazione e sulla disinformazione, fattori che aggravano il problema, come la portata e la velocità con cui i contenuti vengono condivisi sui social media e pregiudizi algoritmici, erano fuori dal loro controllo.

    "Gli editor di foto vogliono essere trasparenti con il loro pubblico quando vengono utilizzate le tecnologie di intelligenza artificiale generativa, ma le organizzazioni dei media non possono controllare il comportamento umano o il modo in cui altre piattaforme visualizzano le informazioni", ha affermato Thomson, della School of Media and Communication di RMIT.

    "Non sempre il pubblico clicca per saperne di più sul contesto e sull'attribuzione di un'immagine. Lo abbiamo visto accadere quando le immagini AI del Papa che indossava Balenciaga sono diventate virali, e molti credevano che fosse reale perché era un'immagine quasi fotorealistica condivisa senza contesto.

    "I redattori di foto che abbiamo intervistato hanno anche affermato che le immagini che ricevono non sempre specificano il tipo di editing delle immagini è stato effettuato, il che può portare i siti di notizie a condividere immagini AI senza saperlo, incidendo sulla loro credibilità."

    Thomson ha affermato che l'attuazione di politiche e processi che descrivano in dettaglio come l'intelligenza artificiale generativa può essere utilizzata in diverse forme di comunicazione potrebbe prevenire il verificarsi di episodi di cattiva informazione e disinformazione, come le immagini alterate del deputato vittoriano Georgie Purcell.

    "Un maggior numero di organizzazioni mediatiche deve essere trasparente con le proprie politiche in modo che anche il loro pubblico possa avere fiducia che i contenuti siano stati realizzati o modificati nel modo in cui l'organizzazione afferma che siano", ha affermato.

    Vietare l'uso dell'IA generativa non è la risposta

    Lo studio ha rilevato che cinque dei punti vendita intervistati hanno vietato al personale di utilizzare l’intelligenza artificiale per generare immagini, e tre di questi hanno vietato solo immagini fotorealistiche. Altri consentivano immagini generate dall'intelligenza artificiale se la storia riguardava l'intelligenza artificiale.

    "Molte delle politiche che ho visto da parte dei media sull'intelligenza artificiale generativa sono generali e astratte. Se un organo di stampa crea una politica sull'intelligenza artificiale, deve considerare tutte le forme di comunicazione, comprese immagini e video, e fornire una guida più concreta." Thomson ha detto.

    "Vietare completamente l'intelligenza artificiale generativa sarebbe probabilmente uno svantaggio competitivo e quasi impossibile da applicare.

    "Ciò priverebbe inoltre i lavoratori dei media dei vantaggi della tecnologia, come l'utilizzo dell'intelligenza artificiale per riconoscere volti o oggetti nelle immagini per arricchire i metadati e aiutare con i sottotitoli."

    Thomson ha affermato che l'Australia è ancora "in fondo alla classifica" per quanto riguarda la regolamentazione dell'IA, con gli Stati Uniti e l'UE in testa.

    "La popolazione australiana è molto più piccola, quindi le nostre risorse limitano la nostra capacità di essere flessibili e adattivi", ha affermato.

    "Tuttavia, c'è anche un atteggiamento di attesa e vediamo cosa stanno facendo gli altri paesi in modo da poter migliorare o emulare i loro approcci.

    "Penso che sia positivo essere proattivi, sia che si tratti di un governo o di un'organizzazione mediatica. Se riusciamo a dimostrare che siamo proattivi per rendere Internet un luogo più sicuro, dimostreremo leadership e potremo dare forma alle conversazioni sull'intelligenza artificiale."

    Distorsione algoritmica che incide sulla fiducia

    Dallo studio è emerso che i giornalisti erano preoccupati per il modo in cui i pregiudizi algoritmici potrebbero perpetuare stereotipi su genere, razza, sessualità e abilità, portando a rischi per la reputazione e sfiducia nei media.

    "Nel nostro studio abbiamo chiesto a un editor di foto di inserire un messaggio dettagliato in un generatore di testo in immagine per mostrare una donna dell'Asia meridionale che indossava un top e dei pantaloni", ha affermato Thomson.

    "Nonostante i dettagli degli abiti della donna, il generatore ha continuato a creare l'immagine di una donna dell'Asia meridionale che indossa un sari."

    "Problemi come questo derivano da una mancanza di diversità nei dati di formazione, e ci porta a chiederci quanto siano rappresentativi i nostri dati di formazione, e cosa possiamo fare per pensare a chi è rappresentato nelle nostre notizie, foto d'archivio ma anche cinema e videogiochi, che possono essere utilizzati per addestrare questi algoritmi."

    Anche il copyright rappresentava una preoccupazione per gli editor di foto poiché molti generatori di testo in immagini non erano trasparenti sulla provenienza dei materiali originali.

    Anche se ci sono stati casi di copyright sull'intelligenza artificiale generativa che sono arrivati ​​nei tribunali, come la causa intentata dal New York Times contro OpenAI, Thomson ha affermato che si tratta ancora di un'area in evoluzione.

    "Essere più conservatori e utilizzare solo generatori di intelligenza artificiale di terze parti addestrati su dati proprietari o utilizzarli solo per il brainstorming o la ricerca anziché per la pubblicazione può ridurre il rischio legale mentre i tribunali risolvono la questione del copyright", ha affermato.

    "Un'altra opzione è quella di addestrare i modelli con i contenuti di un'organizzazione e in questo modo hanno la certezza di possedere i diritti d'autore per le generazioni risultanti."

    L'intelligenza artificiale generativa non è del tutto negativa

    Nonostante le preoccupazioni relative a errori e disinformazione, dallo studio è emerso che la maggior parte degli editor di foto ha intravisto molte opportunità nell'utilizzo dell'intelligenza artificiale generativa, come il brainstorming e la generazione di idee.

    Molti erano felici di usare l'intelligenza artificiale per generare illustrazioni non fotorealistiche, mentre altri erano felici di usare l'intelligenza artificiale per generare immagini quando non disponevano di buone immagini stock esistenti.

    "Ad esempio, le immagini stock esistenti di bitcoin sembrano tutte abbastanza simili, quindi l'intelligenza artificiale generativa può aiutare a colmare una lacuna in ciò che manca in un catalogo di immagini stock", ha affermato Thomson.

    Sebbene si temesse di perdere posti di lavoro nel fotogiornalismo a causa dell'intelligenza artificiale generativa, un editor intervistato ha affermato che potrebbe immaginare di utilizzare l'intelligenza artificiale per semplici attività fotografiche.

    "I fotografi che lavorano potranno svolgere più progetti creativi e meno compiti come fotografare qualcosa su uno sfondo bianco", ha affermato l'editore intervistato.

    "Si potrebbe sostenere che anche queste cose sono molto facili e semplici e richiedono meno tempo per un fotografo, ma a volte sono anche un mal di testa."

    Ulteriori informazioni: T. J. Thomson et al, L'IA visiva generativa nelle organizzazioni giornalistiche:sfide, opportunità, percezioni e politiche, Giornalismo digitale (2024). DOI:10.1080/21670811.2024.2331769

    Fornito da RMIT University




    © Scienza https://it.scienceaq.com