• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Altro
    Le fiabe sono giuste? L'intelligenza artificiale aiuta a trovare pregiudizi di genere nei libri di fiabe per bambini
    L'intelligenza artificiale (AI) viene utilizzata per analizzare i libri di fiabe per bambini e identificare i pregiudizi di genere. I ricercatori hanno sviluppato algoritmi in grado di scansionare grandi raccolte di libri e contrassegnare quelli che contengono linguaggio o immagini stereotipate di genere. Questa ricerca è importante perché può aiutarci a creare una letteratura per bambini più inclusiva che promuova l’uguaglianza e la diversità.

    Uno studio, condotto da ricercatori dell’Università della California, Berkeley, ha scoperto che l’intelligenza artificiale è stata in grado di identificare i pregiudizi di genere nei libri illustrati per bambini con una precisione del 90%. Lo studio ha analizzato un corpus di oltre 1.000 libri e ha scoperto che i libri scritti per i ragazzi avevano maggiori probabilità di contenere parole legate alla violenza e all’azione, mentre i libri scritti per le ragazze avevano maggiori probabilità di contenere parole legate alle emozioni e alle relazioni.

    Un altro studio, condotto da ricercatori dell’Università di Glasgow, ha scoperto che l’intelligenza artificiale è stata in grado di identificare i pregiudizi di genere nei capitoli dei libri per bambini con una precisione dell’85%. Lo studio ha analizzato un corpus di oltre 10.000 libri e ha scoperto che i personaggi maschili avevano maggiori probabilità di essere ritratti come coraggiosi, forti e intelligenti, mentre i personaggi femminili avevano maggiori probabilità di essere ritratti come gentili, premurosi e premurosi.

    Questi studi suggeriscono che l’intelligenza artificiale può essere uno strumento prezioso per identificare i pregiudizi di genere nella letteratura per l’infanzia. Utilizzando l’intelligenza artificiale, possiamo creare libri per bambini più inclusivi che promuovano l’uguaglianza e la diversità.

    Ecco alcuni esempi specifici di pregiudizi di genere che l'intelligenza artificiale ha contribuito a identificare nei libri di fiabe per bambini:

    * I personaggi maschili hanno maggiori probabilità di essere descritti come coraggiosi, forti e intelligenti. Ad esempio, in uno studio condotto dall'Università della California, Berkeley, i ricercatori hanno scoperto che i personaggi maschili avevano tre volte più probabilità di essere descritti usando la parola "coraggioso" rispetto ai personaggi femminili.

    * I personaggi femminili hanno maggiori probabilità di essere descritti come gentili, premurosi e premurosi. Ad esempio, in uno studio condotto dall’Università di Glasgow, i ricercatori hanno scoperto che i personaggi femminili avevano quattro volte più probabilità di essere descritti usando la parola “gentile” rispetto ai personaggi maschili.

    * È più probabile che i ragazzi vengano mostrati impegnati in attività avventurose, mentre è più probabile che le ragazze vengano mostrate impegnate in attività domestiche. Ad esempio, in uno studio condotto dall’Università della California, Berkeley, i ricercatori hanno scoperto che i personaggi maschili avevano il doppio delle probabilità di essere raffigurati mentre praticavano sport o esploravano il mondo rispetto ai personaggi femminili.

    * I libri scritti per ragazzi hanno maggiori probabilità di contenere violenza, mentre i libri scritti per ragazze hanno maggiori probabilità di contenere romanticismo. Ad esempio, in uno studio condotto dall’Università di Glasgow, i ricercatori hanno scoperto che i libri per ragazzi avevano tre volte più probabilità di contenere scene di violenza rispetto ai libri per ragazze.

    © Scienza https://it.scienceaq.com