Intelligenza artificiale, le sfide e i rischi

Di Giuseppe F. Italiano Giovedì 23 Febbraio 2023 18:39 Stampa
Intelligenza artificiale, le sfide e i rischi ©iStockphoto/Ponomariova Maria

Le tecnologie di intelligenza artificiale sono ormai pervasive nelle no­stre vite e nelle nostre società. Con l’aumentare della loro diffusione, crescono anche le sfide e i rischi associati al loro impiego. Di seguito proveremo a esaminare alcune di queste sfide e a prendere in con­siderazione potenziali strumenti di mitigazione dei rischi associati.

GESTIONE DEI DATI, PRIVACY/RISERVATEZZA

La qualità dei dati utilizzati dai modelli di intelligenza artificiale è fondamentale per il loro corretto funzionamento. Tuttavia, quando si parla di dati, e in particolare di big data, c’è una certa incertezza sul loro livello di veridicità.1 Insieme ad altre caratteristiche come l’esaustività (quanto è ampio l’ambito dei dati utilizzati) e l’esten­sionalità (quanto è facile aggiungere o modificare i campi), la ve­ridicità è fondamentale per l’uso di grandi volumi di dati, poiché potrebbe rivelarsi molto difficile per gli utenti di un sistema di intelligenza artificiale riuscire a valutare se il dataset utilizzato è affidabile. La corretta etichettatura e strutturazione di big data è un prerequisito fondamentale affinché i modelli di machine learning possano essere in grado di identificare con successo eventuali segnali all’interno dei dati, di distinguere i segnali dal rumore, e di riconoscere opportuni pattern nei dati.2 Attualmente sono in fase di studio e sviluppo diverse metodologie per ridurre l’esistenza di caratteristiche irrilevanti o “rumore” nei dataset, e per migliorare le prestazioni di modelli di machine learning, come ad esempio la cre­azione di dataset artificiali o “sintetici”, generati e utilizzati ai fini della modellazione per algoritmi di machine learning. Questi data­set possono essere estremamente utili per scopi di test e convalida dei modelli nel caso in cui i dataset esistenti difettino di scalabilità o diversità.

Dataset sintetici possono anche consentire di proteggere la privacy dei consumatori, che è un’altra delle sfide importanti dell’uso dei dati nell’intelligenza artificiale, creando dataset anonimi conformi ai requisiti di privacy. Infatti, approcci tradizionali all’anonimizzazione dei dati non forniscono garanzie di privacy rigorose, poiché sofisti­cati modelli di machine learning hanno il potere di fare inferenze su grandi volumi di dati. In particolare, l’utilizzo di big data in modelli basati su intelligenza artificiale potrebbe espandere l’universo dei dati considerati sensibili, poiché tali modelli possono diventare partico­larmente abili a identificare individualmente singoli utenti a partire da dati relativi al profilo dei clienti.3

In linea di principio, la privacy dei dati utilizzati può essere salva­guardata attraverso l’uso di pratiche di “notifica e consenso”, che però potrebbero non essere necessariamente facili da implementare nei modelli di machine learning. Ad esempio, quando i dati osservati non sono forniti direttamente dal cliente (come i dati di geoloca­lizzazione o i dati di transazione delle carte di credito) la notifica e le protezioni del consenso sono difficili da realizzare. Lo stesso vale quando si tratta di tracciare l’attività online con modalità di traccia­mento avanzate o di condividere i dati da parte di fornitori di terze parti. Inoltre, nella misura in cui i consumatori non sono necessaria­mente informati su come vengono gestiti i loro dati e dove vengono utilizzati, i loro dati possono essere utilizzati senza la loro compren­sione e il loro consenso informato.

BIAS ALGORITMICI E DISCRIMINAZIONI NELL’INTELLIGENZA ARTIFICIALE

A seconda di come vengono utilizzati, gli algoritmi di machine learning possono aiutare a evitare discriminazioni basate sulle interazio­ni umane oppure possono intensificare i pregiudizi, il trattamento iniquo e le discriminazioni. Il rischio di distorsioni e di discrimina­zioni non intenzionali verso sottoinsiemi della popolazione è molto legato all’uso improprio dei dati e all’uso di dati inappropriati da parte dei modelli di machine learning. Le applicazioni di intelligenza artificiale possono potenzialmente aggravare le distorsioni esistenti già riscontrabili nei dati; i modelli addestrati con dati contenenti bias perpetueranno i pregiudizi; e l’identificazione di correlazioni spurie può aggiungere un ulteriore livello ai rischi di trattamento iniquo. I risultati distorti o discriminatori dei modelli di machine learning non sono necessariamente intenzionali e possono verificarsi anche con dati di buona qualità e ben etichettati, attraverso inferen­ze e proxy, o per il fatto che le correlazioni tra variabili sensibili e “non sensibili” possono essere difficili da rilevare in dataset di gran­di volumi.4

Un’attenta progettazione, un auditing diligente e un testing accura­to dei modelli di machine learning possono aiutare ulteriormente a evitare potenziali distorsioni. Modelli di machi­ne learning non adeguatamente progettati e con­trollati comportano invece il rischio di esacer­bare o rafforzare pregiudizi esistenti, rendendo allo stesso tempo le discriminazioni ancora più difficili da osservare. I meccanismi di controllo dei modelli di machine learning e gli algoritmi che verificano i risultati dei modelli rispetto ai dataset di partenza possono aiutare a garantire che non vi siano trattamenti iniqui o discrimina­zioni dipendenti dalla tecnologia di intelligenza artificiale utilizzata. Idealmente, utenti e supervisori dovrebbero es­sere in grado di testare i sistemi per garantirne l’equità e l’accura­tezza.5 Si possono anche eseguire test opportuni e applicare varie tecniche per identificare e correggere le discriminazioni nei modelli di machine learning.6

L’elemento umano è fondamentale nelle varie fasi di sviluppo e di utilizzo di un modello di machine learning. L’intervento umano è necessario per identificare e correggere pregiudizi insiti nei dati o nella progettazione del modello, e per spiegare l’output del model­lo. Questa è tuttavia un’attività molto complessa, in particolare per la mancanza di interpretabilità e di “spiegabilità” (explainability) di modelli di machine learning molto sofisticati. Il giudizio umano è importante anche per evitare di interpretare le correlazioni prive di significato osservate dai modelli come relazioni causali, risultanti in processi decisionali errati o distorti.

IL DILEMMA DELLA SPIEGABILITÀ NEI MODELLI DI MACHINE LEARNING

Una delle sfide probabilmente più rilevanti nei modelli basati sull’in­telligenza artificiale è la difficoltà intrinseca nel decomporre l’output di un modello di machine learning nei fattori costituenti che sono alla base delle sue decisioni finali. Questo problema è ulteriormente aggravato dal divario esistente nell’alfabetizzazione informatica della maggior parte dei consumatori finali, insieme alla discrepanza tra la complessità tipica dei modelli di machine learning e la necessità di avere ragionamenti semplificati e a misura d’uomo.7 Anche se i prin­cipi matematici che sono alla base delle tecniche di intelligenza arti­ficiale più avanzate possono essere in qualche modo spiegati, queste tecniche mancano ancora di “conoscenze dichiarative esplicite”.8 Ciò le rende incompatibili con le regolamentazioni esistenti che possono richiedere che gli algoritmi siano pienamente compresi e spiegabili, a livello globale o a livello locale, durante tutto il loro ciclo di vita. Allo stesso modo, la mancanza di spiegabilità è incompatibile con le normative che garantiscono ai cittadini un “diritto alla spiegazione” per le decisioni prese da algoritmi, e informazioni sulla logica coin­volta, come ad esempio il Regolamento generale sulla protezione dei dati dell’UE (GDPR).

È anche interessante notare come applicazioni di intelligenza ar­tificiale corrano il rischio di essere tenute a standard più elevati e quindi soggette a requisiti di spiegabilità più onerosi rispetto ad altre tecnologie, con possibili ripercussioni negative sull’innovazione.9 Va peraltro tenuto presente che gli obiettivi di un’analisi della spiegabi­lità dovrebbero concentrarsi più sui rischi a cui il modello potreb­be esporre un’istituzione e di come questi siano gestibili, invece di fornire dimostrazioni di natura matematica. Un livello minimo di spiegabilità dovrebbe comunque essere sempre garantito affinché si riesca ad analizzare il modello e ci si possa sentire a proprio agio con il suo eventuale utilizzo.

Tipicamente esistono trade-off tra spiegabilità e prestazioni del mo­dello. In tal senso, i fornitori di servizi basati su sistemi di intelligenza artificiale devono trovare il giusto equilibrio tra spiegabilità e accura­tezza e prestazioni del modello. Va inoltre sottolineato che non è ne­cessario un unico principio o un unico approccio valido per tutti per spiegare i modelli di machine learning: la spiegabilità di un modello può dipendere infatti in larga misura dal suo contesto.10 È importante anche sottolineare che garantire la spiegabilità di un modello non ga­rantisce di per sé il fatto che il modello sia anche affidabile. L’allinea­mento contestuale della spiegabilità con gli utenti del sistema può anche essere accompagnato dalla “spiegabilità del rischio”, ovvero la comprensione dell’esposizione al rischio risultante dall’uso del modello anziché dalla spiegabilità della metodo­logia alla base del modello.

Un miglioramento dei livelli di spiegabilità nelle applicazioni di intelligenza artificiale può contri­buire a mantenere il livello di fiducia degli utenti e delle autorità di regolamentazione/supervisio­ne, in particolare per quanto riguarda servizi cri­tici.11 Alcune ricerche recenti suggeriscono che una spiegabilità che riesce a essere “significativa per gli esseri umani” è in grado di influenzare positivamente la perce­zione dell’accuratezza di un sistema da parte degli utenti, indipenden­temente dall’effettiva accuratezza osservata.12 Al contrario, quando vengono fornite spiegazioni meno significative per gli esseri umani, è meno probabile che l’accuratezza delle tecnologie di intelligenza arti­ficiale impiegate venga giudicata positivamente dai suoi utenti.

Un altro aspetto molto importante è quello della verificabilità (au­ditability) e della divulgazione (disclosure) delle tecnologie di intelli­genza artificiale. L’opacità dei sistemi basati su algoritmi di machine learning potrebbe essere affrontata attraverso requisiti di trasparenza, garantendo che siano fornite informazioni chiare sulle capacità e sui limiti del sistema di intelligenza artificiale.13 Nella definizione di un sistema software, un’opportuna informativa dovrebbe rendere edotti i potenziali utenti sull’uso di una tecnologia di intelligenza artificiale e sulla loro conseguente interazione con sistemi automatici, anziché con esseri umani, per consentire ai clienti di effettuare una scelta consapevole.

Alcune autorità di regolamentazione utilizzano la documentazione della logica alla base dell’algoritmo, nella misura del possibile, come un modo per garantire che i risultati prodotti dal modello siano spiegabili, tracciabili e ripetibili.14 L’Unione europea, ad esempio, sta valutando l’utilizzo di requisiti relativi alla documentazione di divulgazione delle metodologie, dei processi e delle tecniche di pro­grammazione e di addestramento utilizzati per costruire, testare e convalidare i sistemi di intelligenza artificiale, compresa la documen­tazione sull’algoritmo (cosa deve ottimizzare il modello, quali pesi sono progettati per determinati parametri all’inizio ecc.).15 Il Public Policy Council dell’Association for Computing Machine ha propo­sto una serie di principi volti, tra l’altro, alla trasparenza e alla verifi­cabilità nell’uso degli algoritmi, suggerendo che i modelli, i dati, gli algoritmi e le decisioni siano registrati in modo da essere disponibili per l’audit quando si sospetta un potenziale danno.16

RISCHI DI CONCENTRAZIONE

Sussistono anche ulteriori preoccupazioni relative all’utilizzo di dati nei modelli di machine learning. Data l’importanza fondamentale della capacità di aggregare, archiviare, elaborare e trasmettere dati oltre i confini nazionali, l’importanza di avere regole di governance dei dati adeguate sta diventando sempre più cruciale.17 Nello stesso tempo, stiamo assistendo a una ridefinizione delle economie di uti­lizzo dei dati: sta sempre più emergendo un limitato numero di pla­yer nella fornitura di dataset, che sfrutta l’aumento della domanda di dataset utilizzabili da tecnologie di intelligenza artificiale, e in que­sta fase si ha una visibilità molto limitata sulle loro attività. Inoltre, l’aumento nei costi di conformità alle normative volte a proteggere il consumatore può ridefinire ulteriormente le economie di utilizzo di big data.

L’accesso ai dati dei clienti da parte di aziende che esulano da specifi­ci perimetri normativi, come ad esempio le grandi Big Tech (Google, Amazon, Facebook, Apple e Microsoft negli Stati Uniti e in Europa; Baidu, Alibaba, Tencent e Xiaomi in Asia), solleva rischi di concen­trazione e di dipendenza da pochi grandi attori. L’accesso diseguale ai dati e il potenziale dominio da parte di poche grandi Big Tech nell’approvvigionamento e fornitura di dati potrebbero ridurre la ca­pacità di attori più piccoli di competere nel mercato dei prodotti/ servizi basati sull’intelligenza artificiale.

ALTRE FONTI DI RISCHIO NEI CASI D’USO DELL’INTELLIGENZA ARTIFICIALE: CONSIDERAZIONI NORMATIVE, LAVORI E COMPETENZE

Sebbene molti paesi abbiano strategie di intelligenza artificiale,18 soltanto un numero molto ristretto di giurisdizioni ha attualmente specifici requisiti che considerano specificamente algoritmi e modelli basati su intelligenza artificiale. Nella maggior parte dei casi, la rego­lamentazione e la supervisione delle applicazioni di machine learning si basano su requisiti generali per sistemi e controlli. Questi consi­stono principalmente in test rigorosi degli algoritmi utilizzati prima del loro impiego e nel monitoraggio continuo delle loro prestazioni durante tutto il loro ciclo di vita.

Il principio di neutralità tecnologica che è tipicamente applicato dal­la maggior parte delle giurisdizioni per regolamentare i prodotti in molti mercati, come ad esempio i mercati finanziari, può essere mes­so in discussione dalla crescente complessità di alcuni casi d’uso in­novativi. Data la rapidità e la profondità dei progressi tecnologici nei settori dell’intelligenza artificiale, ad esempio la rivoluzione portata dai large language model come GPT-3 e ChatGPT, i regimi di rego­lamentazione esistenti potrebbero non riuscire ad affrontare i rischi posti da una potenziale ampia adozione di tali tecniche. La natura complessa dei sistemi di intelligenza artificiale potrebbe dar luogo a potenziali incompatibilità con le norme e i regolamenti esistenti (ad esempio, a causa della mancanza di spiegabilità, di cui si è accennato in precedenza).

L’adozione diffusa di tecnologie di intelligenza artificiale e di machine learning può dar luogo ad alcune sfide occupazionali e alla necessità di aggiornare le competenze necessarie. La doman­da di professionalità nell’intelligenza artificiale, ingegneria del software e data science è in conti­nuo aumento, mentre la diffusione di tali tecno­logie può comportare perdite di posti di lavoro potenzialmente significative. La perdita di posti di lavoro può determinare un’eccessiva dipendenza da sistemi di in­telligenza artificiale completamente automatizzati, il che potrebbe, a sua volta, portare a un aumento del rischio di interruzioni di servizi critici. I fornitori di servizi particolarmente critici devono garantire che, dal punto di vista delle risorse umane, siano pronti a sostituire i sistemi automatizzati di intelligenza artificiale con risorse umane ben addestrate che fungano da rete di sicurezza umana e siano in grado di garantire che non ci siano interruzioni nell’erogazione del servizio.

L’intelligenza artificiale dovrebbe essere vista come una tecnologia che aumenta le capacità umane invece di sostituirle. Si potrebbe so­stenere che una combinazione di “essere umano e macchina”, in cui l’intelligenza artificiale informa il giudizio umano anziché sostituir­lo, potrebbe consentire il concretizzarsi dei vantaggi delle tecnologie pur mantenendo le garanzie di responsabilità e di controllo sulla de­cisione finale. Considerando l’attuale fase di maturità delle soluzioni di intelligenza artificiale, per garantire che le vulnerabilità e i rischi derivanti dall’uso di tecniche basate su intelligenza artificiale siano ridotti al minimo, è ancora necessario un certo livello di supervisio­ne umana. L’identificazione di punti di convergenza, in cui essere umano e intelligenza artificiale sono integrati, sarà fondamentale per l’attuazione pratica di un approccio combinato “essere umano e mac­china” (“human in the loop”).

 


 

[1] IBM, The Four V’s of Big Data, IBM Big Data & Analytics Hub, 2020, disponibile su www.ibmbigdatahub.com/infographic/four-vs-big-data.

[2] S&P, Avoiding Garbage in Machine Learning, 2019, disponibile su www.spglobal.com/en/research-insights/articles/avoiding-garbage-in-machine-learning-shell.

[3] Dipartimento del Tesoro degli Stati Uniti, A Financial System That Creates Economic Opportunities. Nonbank Financials, Fintech, and Innovation, luglio 2018, disponibile su home.treasury.gov/sites/default/files/2018-08/A-Financial-System-that-Creates- Economic-Opportunities---Nonbank-Financials-Fintech-and-Innovation.pdf.

[4] B. Goodman, S. Flaxman, European Union regulations on algorithmic decision-mak­ing and a “right to explanation’’, in “AI Magazine,” 3/2017, disponibile su dx.doi. org/10.1609/aimag.v38i3.2741.

[5] D. Citron, F. Pasquale, The Scored Society: Due Process for Automated Predictions, 2014, disponibile su papers.ssrn.com/abstract=2376209.

[6] M. Feldman et al., Certifying and removing disparate impact, Association for Computing Machinery, New York 2015, disponiblie su dx.doi.org/10.1145/2783258.2783311.

[7] J. Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algo­rithms, 2016 disponibile su dx.doi.org/10.1177/2053951715622512.

[8] A. Holzinger, From Machine Learning to Explainable AI, 2018, disponibile su www. researchgate.net/profile/Andreas_Holzinger/publication/328309811_From_Ma­chine_Learning_to_Explainable_AI/links/5c3cd032a6fdccd6b5ac71e6/From-Ma­chine-Learning-to-Explainable-AI.pdf.

[9] D. Hardoon, Contextual Explainability, 2020, disponibile su davidroihardoon.com/ blog/f/contextual-explainability?blogcategory=Explainability.

[10] Ibid.

[11] FSB, Artificial Intelligence and Machine Learning In Financial Services Market De­velopments and Financial Stability Implications, 2017, disponibile su www.fsb.org/ wp-content/uploads/P011117.pdf.

[12 M. Nourani et al., The Effects of Meaningful and Meaningless Explanations on Trust and Perceived System Accuracy in Intelligent Systems, 2020, disponibile su www.aaai. org.

[13] Commissione europea, White Paper on Artificial Intelligence. A European Approach To Excellence and Trust, 2020, disponibile su commission.europa.eu/publictaions/ white-paper-artificial-intelligence-european-approach-excellence-and-trust_en.

[14] FSRA, Supplementary Guidance-Authorisation of Digital Investment Management (“Robo-advisory”) Activities, 2019.

[15] Commissione europea, White Paper on Artificial Intelligence cit.

[16] ACM US Public Policy Council, Principles for Algorithmic Transparency and Ac­countability, 2017, disponibile su www.acm.org/binaries/content/assets/public-poli­cy/2017_usacm_statement_algorithms.pdf.

[17] D. Hardoon, Contextual Explainability cit.

[18] OECD, Artificial Intelligence in Society, OECD Publishing, Parigi 2019, disponibile su dx.doi.org/10.1787/eedfee77-en.