• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Per fermare un'apocalisse tecnologica abbiamo bisogno di etica e arte

    Come possiamo assicurarci che le nuove tecnologie rimangano centrate sul benessere umano? Credito:Axel Heimken / DPA

    Se i recenti programmi televisivi sono qualcosa da seguire, siamo un po' preoccupati per le conseguenze dello sviluppo tecnologico. Le narrazioni distopiche abbondano.

    Black Mirror proietta le conseguenze negative dei social media, mentre l'intelligenza artificiale diventa canaglia in The 100 e Better Than Us. La potenziale estinzione della razza umana è in palio in Travellers, e Altered Carbon si agita per la separazione della coscienza umana dal corpo. E Humans e Westworld vedono guai in vista per le relazioni uomo-androide.

    Narrazioni come queste hanno una lunga discendenza. La fantascienza ha articolato le nostre speranze e paure sull'interruzione tecnologica almeno dal Frankenstein di Mary Shelley (1818).

    Però, quando emergono auto senza conducente e robot terapisti, alcune preoccupazioni precedentemente fittizie non sono più speculazioni fantasiose. Anziché, rappresentano problemi reali e urgenti.

    Che tipo di futuro vogliamo?

    L'anno scorso, Il capo scienziato australiano Alan Finkel ha suggerito che in Australia dovremmo diventare "custodi umani". Questo significherebbe essere leader nello sviluppo tecnologico, etica, e diritti umani.

    Finkel non è solo nella sua preoccupazione. Ma non sarà semplice affrontare questi problemi nello sviluppo di nuove tecnologie.

    Molte persone al governo, L'industria e le università ora sostengono che includere le prospettive delle scienze umane e sociali sarà un fattore chiave.

    Un recente rapporto dell'Australian Council of Learned Academies (ACOLA) ha riunito esperti di settori scientifici e tecnici, nonché delle scienze umane, arti e scienze sociali per esaminare le questioni chiave derivanti dall'intelligenza artificiale.

    Secondo il presidente del consiglio di amministrazione di ACOLA, Hugh Bradlow, il rapporto mira a far sì che "il benessere della società" sia posto "al centro di ogni sviluppo".

    IA centrata sull'uomo

    Una visione simile guida l'Institute for Human-Centered Artificial Intelligence della Stanford University. L'istituto riunisce ricercatori delle discipline umanistiche, formazione scolastica, legge, medicinale, business e STEM per studiare e sviluppare tecnologie AI "human centered". L'idea alla base del loro lavoro è che "l'IA dovrebbe essere collaborativa, aumentativa e migliorativa della produttività umana e della qualità della vita."

    Nel frattempo, attraverso l'Atlantico, il Future of Humanity Institute dell'Università di Oxford indaga allo stesso modo "questioni generali" per garantire "un futuro lungo e fiorente per l'umanità".

    Il centro è destinato a raddoppiare le sue dimensioni nel prossimo anno grazie a un contributo di 13,3 milioni di sterline (25 milioni di dollari australiani) dall'Open Philanthropy Project. Il fondatore dell'istituto, filosofo Nick Bostrom, ha detto:"C'è una corsa a lunga distanza tra la capacità tecnologica dell'umanità, che è come uno stallone che galoppa per i campi, e la saggezza dell'umanità, che è più simile a un puledro su gambe instabili".

    Cosa costruire e perché

    Il settore IT è anche alle prese con le questioni etiche sollevate dal rapido progresso tecnologico. Brad Smith e Harry Shum di Microsoft hanno scritto nel loro libro del 2018 The Future Computed che una delle loro "conclusioni più importanti" è stata che le scienze umane e sociali hanno un ruolo cruciale da svolgere nell'affrontare le sfide poste dall'intelligenza artificiale:

    "Le lingue, arte, storia, economia, etica, filosofia, i corsi di psicologia e sviluppo umano possono insegnare aspetti critici, competenze filosofiche ed etiche che saranno strumentali allo sviluppo e alla gestione di soluzioni di intelligenza artificiale.

    "Le pratiche di assunzione nelle aziende tecnologiche stanno già cambiando. In un TED talk su "Perché la tecnologia ha bisogno delle discipline umanistiche, " Eric Berridge, amministratore delegato della società di consulenza tecnologica di proprietà di IBM Bluewolf, spiega perché la sua azienda assume sempre più laureati in discipline umanistiche".

    Mentre le scienze ci insegnano come costruire le cose, sono le discipline umanistiche che ci insegnano cosa costruire e perché costruirle.

    Solo 100 di Bluewolf 1, 000 dipendenti hanno una laurea in informatica e ingegneria. Anche il Chief Technology Officer è un maggiore inglese.

    Educazione per un futuro migliore

    Allo stesso modo, Matt Reaney, l'amministratore delegato e fondatore di Big Cloud, una società di reclutamento specializzata in data science, machine learning e occupazione con intelligenza artificiale—ha sostenuto che la tecnologia ha bisogno di più persone con una formazione umanistica. "[Le discipline umanistiche] danno un contesto al mondo in cui operiamo giorno per giorno. Capacità di pensiero critico, comprensione più profonda del mondo che ci circonda, filosofia, etica, comunicazione, e la creatività offrono approcci diversi ai problemi posti dalla tecnologia."

    Reaney propone un "approccio più misto" all'istruzione superiore, offrendo diplomi che combinano le arti e le discipline STEM.

    Un altro sostenitore dell'approccio interdisciplinare è Joseph Aoun, Presidente della Northeastern University di Boston. Ha sostenuto che nell'era dell'intelligenza artificiale, l'istruzione superiore dovrebbe concentrarsi su ciò che lui chiama "umanesimo, " dotare i laureati di tre competenze chiave:alfabetizzazione tecnologica, Alfabetizzazione dei dati e alfabetizzazione umana.

    È giunto il momento di rispondere all'appello di laureati in discipline umanistiche capaci di sconfinare nel mondo della tecnologia affinché il nostro futuro umano possa essere il più luminoso possibile.

    Senza formazione in etica, diritti umani e giustizia sociale, le persone che svilupperanno le tecnologie che daranno forma al nostro futuro potrebbero prendere decisioni sbagliate. E quel futuro potrebbe rivelarsi una delle calamità che abbiamo già visto sullo schermo.

    Questo articolo è stato ripubblicato da The Conversation con una licenza Creative Commons. Leggi l'articolo originale.




    © Scienza https://it.scienceaq.com