L’Intelligenza Artificiale è una tecnologia etica?
Etica e tecnologia un rapporto complesso
Cominciamo da una domanda: la tecnologia è etica? A questa domanda hanno provato a rispondere in tanti. Filosofi, sociologi, giuristi e tecnologi: ognuno di loro ha offerto punti di vista diversi e posizioni molto interessanti – spesso anche in contraddizione.
Alcuni focalizzano l’attenzione su come dovremmo utilizzare la tecnologia senza infrangere diritti umani. Per esempio, la tecnologia di riconoscimento facciale utilizzata dalla polizia può sollevare preoccupazioni significative sulla privacy. La città di San Francisco ha bandito l’uso della sorveglianza facciale da parte della polizia e di altre agenzie governative, con una presa di posizione etica contro le potenziali violazioni della privacy.
Fonte: CPOMagazine, 2020
Altri si chiedono cosa dovremmo fare per promuovere benessere diffuso e inclusione. Pensate ad esempio alle app di telemedicina come “Teladoc”, che offrono consulti medici a distanza e che possono essere particolarmente utili per le comunità in aree rurali o per persone con difficoltà di mobilità, promuovendo così un accesso più equo alle cure mediche.
Fonte: Teladoc, 2024
Altri ancora si interrogano su come dovrebbe essere progettata la tecnologia. Un esempio è l’approccio di “Privacy by Design” adottato da aziende come Apple, che integra la protezione della privacy direttamente nel processo di sviluppo del software e dell’hardware, garantendo che la tutela della privacy non sia un’aggiunta tardiva ma parte integrante della tecnologia.
C’è chi, infine, discute in che modo la tecnologia dovrebbe essere governata per scongiurare i rischi e aumentare i benefici. Pensate a “OpenAI”, che ha stabilito una politica di governance aperta e collaborativa per lo sviluppo di GPT-3, coinvolgendo esperti di etica e sicurezza nelle prime fasi di sviluppo per assicurare che l’intelligenza artificiale sia sviluppata in modo sicuro e responsabile.
Fonte: OpenEthics, 2024
Naturalmente l’intelligenza artificiale è, tra tutte le tecnologie, quella che solleva le questioni etiche più gravi e urgenti da risolvere. Si può dire che non esiste branca del pensiero filosofico che abbia affrontato questioni etiche che non trovi applicazione rispetto all’intelligenza artificiale.
- Prendete l’etica utilitaristica di Jeremy Bentham e John Stuart Mill. In base a questa teoria le azioni o le politiche dovrebbero essere valutate in base alla loro capacità di produrre il maggior bene per il maggior numero di persone. Nel caso dell’intelligenza artificiale, l’approccio utilitaristico valuta l’intelligenza artificiale e in base all’entità del beneficio netto (o del danno) che producono. Per cui, ad esempio, utilizzare l’intelligenza artificiale nella diagnostica medica è eticamente accettabile soltanto se permette di avere diagnosi più accurate e trattamenti migliori per un grande numero di pazienti.
Fonte: Appinventiv, 2024
- Oppure pensate all’etica dell’assistenza di Carol Gilligan e Nel Noddings. Secondo Gilligan e Noddings il fulcro dell’etica morale sono le relazioni umane e la cura reciproca. Per cui è fondamentale mantenere relazioni etiche basate su risposta e cura piuttosto che soltanto su diritti e doveri. Nel modo in cui influenza le relazioni umane e su come possono essere progettate per sostenere la cura reciproca, ad esempio in sistemi assistenziali per anziani o disabili.
- Altro esempio: la teoria etica dei Capabilities di Martha Nassbaum e Amarty Sen. Questa teoria si concentra sull’abilitazione delle persone a realizzare le loro potenzialità attraverso l’espansione delle loro “capabilities” o capacità. Per cui in sostanza un approccio basato sui capabilities valuta l’intelligenza artificiale in funzione di come essa amplia o restringe le capacità delle persone di vivere la vita che hanno ragione di valutare. In questo caso l’uso dell’intelligenza artificiale va misurato in base alla capacità di questa di migliorare l’accessibilità per le persone con disabilità.
Fonte: Hubpages, 2018
In questo articolo vogliamo raccontarvi delle sfide etiche dell’intelligenza artificiale. Partiamo dai rischi che oggi hanno la maggior parte delle applicazioni di intelligenza artificiale. Passiamo poi a discutere le soluzioni, alcune estemporanee, altre promettenti. Infine, diamo un occhio a cosa accadrà nei prossimi anni.
Cinque problemi etici dell'intelligenza artificiale
Quali sono allora i principali punti deboli dell’intelligenza artificiale dal punto di vista etico?
Ne abbiamo trovati almeno cinque importanti, che occorre considerare:
- Primo, l’intelligenza artificiale può trattare enormi quantità di dati personali per alimentare algoritmi, spesso senza il consenso esplicito degli utenti. Il caso di Cambridge Analytica ha evidenziato come i dati possono essere usati per influenzare le decisioni politiche, sollevando preoccupazioni sulla privacy e il consenso degli utenti.
Fonte: Vox, 2018
- Secondo, gli algoritmi possono perpetuare o persino esacerbare i pregiudizi esistenti se non progettati correttamente. Nel 2018 uno studio condotto da Joy Buolamwini del MIT Media Lab ha rivelato la tendenza del software di riconoscimento facciale a essere meno accurato per le persone di colore. Lo studio, intitolato “Gender Shades”, esamina i sistemi di riconoscimento facciale sviluppati da grandi aziende tecnologiche come Microsoft, IBM e Face++. Il lavoro di Buolamwini ha evidenziato che questi sistemi avevano prestazioni molto migliori nel riconoscimento dei volti di uomini bianchi rispetto a quelli di donne nere. La ricerca ha mostrato tassi di errore fino al 34,7% per le donne dalla pelle scura, mentre per gli uomini bianchi l’errore era significativamente più basso, attorno all’1%. Questi risultati hanno sollevato preoccupazioni significative riguardo al bias di genere e razziale incorporato nei sistemi di IA, ponendo interrogativi sull'equità e l'affidabilità di queste tecnologie.
Fonte: SpeakerDeck, 2020
- Terzo, l’uso dell’IA nella sorveglianza può portare a un controllo invasivo da parte dei governi o delle corporazioni. Ad esempio in Cina l’IA è utilizzata per monitorare comportamenti e attività delle persone attraverso un sistema di crediti sociali che influisce sulla vita quotidiana degli individui.
Fonte: Visual Capitalist, 2019
- Quarto, l’IA può creare e diffondere disinformazione, come deepfakes, che possono essere utilizzati per ingannare il pubblico. I deepfakes hanno sollevato preoccupazioni durante le elezioni, con la capacità di creare video che mostrano figure politiche che dicono cose mai realmente espresse. Uno dei primi casi eclatanti di questo genere di manipolazione sintetica dei contenuti risale al 2018. Il commediografo Jordan Peele e Buzzfeed crearono un video deepfake del Presidente degli Stati Uniti Barack Obama per sensibilizzare il pubblico sui pericoli della disinformazione guidata dall’intelligenza artificiale. Nel video, Obama sembra dire una serie di affermazioni insolite e fuori carattere, mentre in realtà la voce era quella di Peele, che imitava Obama mentre le parole erano generate artificialmente per muovere in sincrono le labbra del video originale.
- Quinto, e ultimo, punto: l’automazione guidata dall’IA minaccia di sostituire molti lavori umani, creando sfide economiche e sociali nuove e apparentemente insormontabili. Secondo alcune previsioni l’IA potrebbe automatizzare milioni di posti di lavoro, spingendo al dibattito su reddito di base e tassazione delle macchine. Un report del World Economic Forum del 2020 ha indicato che l’automazione e l'IA potrebbero sostituire 85 milioni di posti di lavoro entro il 2025 a livello globale. Secondo il McKinsey Global Institute, circa il 30% delle attività in circa il 60% di tutte le professioni potrebbe essere automatizzato. Questo include settori come la manifattura, il trasporto e la logistica, nonché funzioni amministrative e di supporto.
Fonte: University of Oxford, 2024
Insomma, apparentemente con l’intelligenza artificiale siamo meno informati, rischiamo di perdere il posto di lavoro, mettiamo le nostre informazioni personali a repentaglio e, come se non bastasse, siamo discriminati in base al colore della pelle o come la pensiamo. Ma è davvero tutto così negativo? Nella prossima sezione proviamo a guardare alle soluzioni che scienziati e studiosi di tutto il mondo stanno provando a escogitare per gestire i problemi etici dell’intelligenza artificiale.
L'intelligenza artificiale non è etica: un problema che si può risolvere?
Iniziamo dal dire che la risposta a questa domanda è aperta. In altre parole, forse sì, l’etica dell’intelligenza artificiale è un problema risolvibile, ma non necessariamente. Non ancora almeno. Sicuramente ci sono molte soluzioni che vengono sperimentate. Alcune si sono mostrate efficaci, altre meno. Alcune sono state del tutto inutili.
Vediamole insieme:
La soluzione normativa. Secondo i fautori di questa soluzione, adottare e implementare leggi più stringenti sulla privacy dei dati e sulla sorveglianza è l’unica soluzione percorribile per evitare abusi e proteggere i cittadini dagli abusi. Secondo le stime di Deloitte, nel 2023 127 paesi hanno introdotto nuove policy sull’intelligenza artificiale. Ci sono oltre 1600 policy vigenti a livello globale.Tra i sostenitori di questo approccio c’è l’Unione europea, che ha recentemente adottato un regolamento sull’intelligenza artificiale – primo al mondo. Lo stesso regolamento sulla tutela dei dati personali (GDPR) offre agli utenti un maggior controllo sui loro dati personali e impone pesanti sanzioni per le violazioni.
Ma ci sono anche altre soluzioni. Una per esempio è l’UBI, il reddito di base universale. È una misura di politica sociale che propone di fornire a tutti i cittadini una somma di denaro regolare e incondizionata, sufficiente per coprire le spese essenziali di vita. L’idea è quella di offrire una rete di sicurezza che possa aiutare le persone a gestire la transizione causata dall'automazione senza il rischio di cadere nella povertà.
Ci sono poi economisti e politici, come Bill Gates, che hanno proposto di introdurre una tassazione sulle macchine che sostituiscono i lavoratori umani. L’idea è che le tasse raccolte potrebbero finanziare programmi di formazione e ricollocazione per i lavoratori colpiti dall’automazione. Questo approccio si basa sull’argomentazione per cui se le macchine contribuiscono economicamente in modo simile agli esseri umani, dovrebbero anche contribuire fiscalmente.
Fonte: PixelPlex, 2023
La soluzione della trasparenza e responsabilità. Questa soluzione lavora allo scopo di rendere gli algoritmi più trasparenti e i creatori responsabili. Cosa significa in pratica? Per esempio alcune aziende stanno introducendo “scatole nere” – o black boxes – che consentono a chi lo chiede di spiegare il procedimento di associazione dei dati che porta alle decisioni adottate dagli algoritmi. Immaginate una banca che utilizza un sistema di intelligenza artificiale per raccomandare se concedere o meno un prestito ai candidati. Un approccio trasparente e responsabile a questo sistema potrebbe includere il fatto che la banca renda pubblici i criteri usati dall’algoritmo per valutare le richieste di prestito, oppure che possa fornire agli utenti finali (i candidati al prestito) spiegazioni comprensibili su come le decisioni sono state prese. Oppure, ancora, che mantenga un registro dettagliato delle decisioni prese dall’algoritmo, accessibile agli auditor interni o esterni. Questo registro aiuterebbe a tracciare come le decisioni sono state prese nel tempo e faciliterebbe l’individuazione di potenziali problemi o bias.
Fonte: HubSpot Blog, 2023
La soluzione dell’auditing e delle valutazioni di Impatto. I promotori di questa soluzione suggeriscono di condurre audit regolari e valutazioni di impatto etico prima del lancio di nuovi prodotti di intelligenza artificiale. Ci sono già diversi esempi al riguardo. IBM per esempio ha sviluppato strumenti per aiutare le aziende a valutare l'impatto etico dei loro sistemi AI. Un altro caso è il progetto Maven, frutto della collaborazione tra Google e il Pentagono nel 2017. L’iniziativa aveva la finalità di implementare l’intelligenza artificiale per analizzare immagini di droni. In questo modo si voleva migliorare la precisione nella identificazione di obiettivi in immagini video. Il progetto non andò a buon fine. Sollevò preoccupazioni etiche significative tra i dipendenti di Google e il pubblico. Infatti nel 2018 Google decise di non rinnovare il contratto con il Pentagono per il Progetto Maven, segnalando l’importanza di considerazioni etiche nel deploy di tecnologie di IA. Successivamente, Google pubblicò un set di principi etici per guidare lo sviluppo e l’uso dell’intelligenza artificiale, promettendo di non sviluppare tecnologie che potessero causare o facilitare lesioni a esseri umani.
Fonte: Thomson Reuters, 2023
La soluzione della formazione e della sensibilizzazione. In base a questa soluzione occorre sviluppare un’educazione continua sull’etica dell’intelligenza artificiale a vantaggio sia degli sviluppatori sia degli utenti. Ci sono già oggi moltissimi corsi di formazione dedicati al tema. Pensate che, solamente in Italia, sono attivi oltre 160 curricula universitari, incardinati in 53 Atenei, che erogano insegnamenti collegati all’intelligenza artificiale. C’è anche un dottorato nazionale in IA, articolato in cinque dottorati federati che raggruppano 61 università ed enti di ricerca. La soluzione della formazione può essere promossa in molti modi. Ad esempio attraverso campagne per l’alfabetizzazione digitale: implementando percorsi formativi di alfabetizzazione sull’intelligenza artificiale nelle scuole e diffondendo informazioni attraverso campagne pubblicitarie per promuovere la comprensione delle implicazioni etiche e sociali dell’intelligenza artificiale. Oppure con iniziative di Upskilling e Reskilling: sostenendo cioè iniziative per aggiornare le competenze dei lavoratori e reinserirli efficacemente nel ciclo produttivo. Questo aiuta a preparare i lavoratori per i nuovi posti di lavoro creati dalle tecnologie dell’intelligenza artificiale, evitando disoccupazione e marginalizzazione.
Fonte: Global Market Insights, 2023
Intelligenza artificiale, sviluppo tecnologico ed etica. Cosa ci aspetta il futuro?
Lo abbiamo detto già: lo scenario è aperto. Guardare avanti a noi richiede uno sforzo di immaginazione e fiducia.
Immaginazione perché è necessario pensare a come evolveranno le sfide dell’intelligenza artificiale e anche le risposte che i governi, le università, le aziende e la società civile sapranno trovare.
Fiducia perché molte di queste risposte sono ancora incomplete e molto dipenderà da come sapranno rapportarsi alle evoluzioni tecnologiche.
Noi per concludere abbiamo voluto individuare quattro mega trend che potrebbero influenzare lo sviluppo etico dell’intelligenza artificiale nei prossimi anni. Vediamoli assieme:
- Il primo è lo sviluppo di Standard Globali. Potrebbe cioè emergere un quadro internazionale e condiviso per la gestione dell’IA etica. Le Nazioni Unite, oppure l’Unione europea, potrebbero giocare un ruolo chiave nello sviluppo di tali standard. Oggi c’è già chi, come Anu Bradford, dice che la battaglia per la primazia regolatoria nel settore tecnologico mostra segnali di convergenza verso principi globali.
- Il secondo sono le innovazioni nell’intelligenza artificiale per la Governance Etica. Nuove tecnologie potrebbero automatizzare il monitoraggio dell’etica dell'IA. È un principio semplice ma rivoluzionario: introdurre AI che monitorano altre AI per garantire la conformità alle normative etiche.
- Il terzo è una partecipazione pubblica maggiore, ossia un coinvolgimento più attivo del pubblico nelle decisioni sull’intelligenza artificiale attraverso piattaforme partecipative. Queste piattaforme online potrebbero offrire ai cittadini soluzioni per discutere e votare su come dovrebbero essere utilizzate le tecnologie.
- Il quarto trend è un adattamento delle politiche lavorative. Si tratta cioè di adattare le politiche lavorative per mitigare l’impatto dell'automazione. Le soluzioni in questa direzione sono quelle che abbiamo già visto e propongono un reddito di base universale come risposta alla perdita di lavori causata dall’automazione.