Agli inizi di novembre si è tenuto a Ravenna la 23/esima sessione programmatica del Consiglio Nazionale dei Consumatori e degli Utenti (CNCU) – MIMIT – Regioni, dal titolo “Intelligenza Artificiale: etica opportunità e rischi”. Un tema di estrema attualità poiché l’IA non è più un concetto fantascientifico ma, una realtà pervasiva che sta rimodellando ogni aspetto della nostra vita e del nostro lavoro. Dagli assistenti vocali agli algoritmi di diagnosi medica, la sua utilità è innegabile, e promette un futuro di efficienza e innovazione senza precedenti. Tuttavia, questa rapida evoluzione solleva anche interrogativi etici e rischi sociali che non possiamo permetterci di ignorare. L’IA sta dimostrando la sua potenza in una moltitudine di settori, fungendo da catalizzatore per il progresso e l’ottimizzazione.
A titolo esemplificativo, per quanto riguarda Sanità e Ricerca: i sistemi di IA analizzano enormi quantità di dati biomedici per accelerare la scoperta di nuovi farmaci e vaccini. Nella diagnosi permette di identificare patologie come il cancro con una precisione e una rapidità che spesso superano quelle umane, supportando i medici nelle decisioni critiche.
Aumento della Produttività: in ambito lavorativo l’IA alleggerisce il carico di compiti ripetitivi e gravosi. Servizi Pubblici e Sostenibilità: l’applicazione dell’IA può portare a una gestione più intelligente delle risorse, dai sistemi di trasporto pubblico ottimizzati alla riduzione degli sprechi energetici e di gestione dei rifiuti contribuendo a raggiungere gli obiettivi di sostenibilità e rendere le nostre città migliori sotto il profilo dell’efficienza. Se quanto detto è senz’altro un bene, nonostante le immense promesse, l’Intelligenza Artificiale porta con sé una serie di rischi che richiedono una rigorosa regolamentazione e un approccio etico.
Impatto sul Lavoro e Disuguaglianze: la preoccupazione più diffusa riguarda la perdita di posti di lavoro dovuta all’automazione. Sebbene l’IA crei nuove professioni legate al suo sviluppo e gestione, l’esposizione all’automazione è alta per i ruoli che coinvolgono compiti ripetitivi e questo può esacerbare le disuguaglianze economiche specialmente in assenza di programmi di formazione e riqualificazione. Privacy e Sorveglianza: i sistemi di IA si basano sull’analisi di enormi volumi di dati. Ciò solleva gravi preoccupazioni sulla raccolta, l’uso e la sicurezza dei dati personali. Un uso non regolamentato può portare alla violazione dei diritti individuali fondamentali e favorire la censura o la manipolazione. Discriminazione: i sistemi di IA imparano dai dati con cui vengono addestrati. Pertanto, se tali dati riflettono pregiudizi storici o sociali (ad esempio discriminazioni di genere o razziali), l’IA può perpetuarli e persino amplificarli. Un algoritmo di selezione del personale, basato su dati passati, potrebbe ingiustamente discriminare certi candidati, portando all’esclusione sociale. Perdita di Controllo e Affidabilità: l’eccessiva fiducia nei confronti dei sistemi di IA, soprattutto in settori ad alto rischio (sanità, trasporti, giustizia), può portare a considerare il loro giudizio come indiscutibile e può generare conseguenze gravi facendo venir meno il giudizio critico, prerogativa propria dell’uomo. IA e Informazione: la produzione di notizie, immagini e video falsi ma non distinguibili dal vero pone seri interrogativi anche in relazione alla possibile manipolazione del consenso.
Quindi, per garantire che l’IA sia sviluppata in modo responsabile e vantaggioso per l’intera società, è fondamentale stabilire quadri normativi ed etici chiari. Le conclusioni della 23/esima sessione di Ravenna nel documento conclusivo hanno messo in evidenza i pilastri a cui non si deve rinunciare: Etica come sistema immunitario dell’innovazione, Centralità dell’essere umano, Educazione digitale, Governance pubblica, IA al servizio del bene comune, nuovo patto tra umanità e tecnologia.
Angelo D’Adamo