IA: sfide etiche
Cosa significa intelligenza artificiale IA (o AI se letta in inglese)? Essa indica la branca della scienza e della tecnologia rivolta alla realizzazione di macchine e softwares in grado di eseguire funzioni normalmente affidate all’intelligenza umana. L’IA consente di analizzare grandi quantità di dati (big data) apprendendo da queste informazioni e conoscenze acquisite, al fine di prevedere situazioni o prendere decisioni. La grande mole di dati implica tempi e capacità mnemoniche inaccessibili per l’essere umano. L’IA riguarda l’apprendimento, il riconoscimento del linguaggio, la percezione visiva, la risoluzione di problemi specifici, l’abilità di adattarsi ed imparare dall’esperienza. Essa è presente da tempo nella quotidianità e rappresenta una nuova prospettiva di vita rivoluzionaria per i settori fondamentali della società (ChatGPT). Lo scorso mese di marzo il Parlamento europeo ed il Consiglio dell’Unione europea hanno varato la cosiddetta prima “legge” (o meglio Regolamento) sull’IA dopo 3 anni di lavoro, anche se i primi studi sull’intelligenza delle macchine risalgono al 1950 (Turing: “Computer Machinery and Intelligence”).
Le applicazioni concrete dell’IA passano dai cosiddetti “assistenti virtuali” alle analisi dei comportamenti umani, dalla guida di veicoli senza conducente alla sanità (l’analisi delle immagini mediche per la previsione dei risultati), dai servizi pubblici (prevenzione civile di catastrofi ambientali) all’agricoltura (robot di filiera). Se ne apprezzano l’efficienza e la produttività, la personalizzazione dei servizi offerti, la precisione di analisi, la disponibilità del servizio, l’aumento delle opportunità di lavoro. Ma non tutto è roseo: i discorsi filosofici sulla coscienza dell’IA e sugli effetti del suo utilizzo generano discussioni, sollevano preoccupazioni su temi trasversali come l’etica, la sociologia, il diritto. Si teme che l’automatizzazione di alcuni lavori metta al rischio il futuro di alcuni settori lavorativi, che l’utilizzo senza scrupoli della IA possa condurre a guerre informatiche, a scapito della sicurezza dei dati. Il difetto di una IA preparata in modo poco flessibile (overfitting) potrebbe causare danni. Emergono i temi della trasparenza delle decisioni e della responsabilità connessa in caso di errore (danni cagionati da veicolo a guida autonoma), della possibile dipendenza dell’uomo dalle macchine e della perdita del suo controllo sul sistema IA. Un simile scenario impone inevitabilmente sfide etiche, sociali, culturali, politiche che l’Unione europea ha stigmatizzato: si è solo all’inizio di un lungo lavoro.