Giovani Universitari In Parlamento

L’Intelligenza Artificiale come black-box: Il problema della trasparenza e le sfide dell’explainability

Come ormai noto, l’Intelligenza Artificiale (IA) sta permeando nella nostra quotidianità, rivoluzionando settori fondamentali come la sanità, la finanza, la sicurezza e il diritto. Le capacità predittive e decisionali di questi sistemi consentono di automatizzare processi, ottimizzare risorse e generare nuove opportunità di crescita economica e sociale. Tuttavia, un uso diffuso e generalizzato dell’IA solleva questioni critiche riguardanti la trasparenza e l’affidabilità delle decisioni adottate. A tal proposito uno dei problemi più rilevanti è dato dai c.d. algoritmi come black-box, ovvero sistemi la cui logica decisionale risulta opaca e difficilmente interpretabile dagli utenti. Questo fenomeno pone dunque sfide significative in termini di fiducia, responsabilità e conformità normativa.

L’algoritmo come black-box

Con lo svilupparsi dei più recenti sistemi di Intelligenza Artificiale, il concetto di “scatola nera” ha iniziato a rappresentare una sfida cruciale. Infatti, gli algoritmi, in particolare quelli basati su tecniche di deep learning, operano mediante l’elaborazione di enormi quantità di dati e la costruzione di modelli matematici complessi che identificano correlazioni e pattern difficili da decifrare. Il risultato è un sistema che se da un lato offre prestazioni sorprendenti, dall’altro non permette di comprendere il processo decisionale in maniera intuitiva; semplificando, quando interagiamo con questi programmi conosciamo l’input che inseriamo e l’output che viene generato, mentre il procedimento seguito dall’algoritmo e tutte le operazioni connesse, restano nell’ignoto. Tale opacità ha conseguenze dirette: da un lato, viene minata la fiducia degli utenti poiché risulta difficile accettare decisioni automatizzate la cui logica rimane nascosta e, dall’altro, le responsabilità in caso di errori diventano complicate da attribuire. In ambiti quali la giustizia, l’allocazione di risorse o i processi di selezione del personale, l’assenza di trasparenza può tradursi in discriminazioni o ingiustizie, rendendo imprescindibile il dibattito sull’etica e l’affidabilità dei sistemi di IA. Il problema risiede, infatti, nella mancanza di una verificabilità piena, oltre che di motivazione chiara e completa; è bene inoltre ricordare come possa capitare che i dati, sui quali gli algoritmi vengono allenati e da cui attingono per l’elaborazione dell’output, possano contenere errori, ovvero che siano affetti da bias, intendendosi informazioni viziate e sfavorevoli a certe categorie di individui.

La strada verso l’IA spiegabile (XAI)

Il percorso verso un’Intelligenza Artificiale più comprensibile nei suoi processi di elaborazione dei risultati richiede un approccio multilivello. Infatti, chi crea sistemi che utilizzano il Machine Learning si trova regolarmente a dover affrontare questioni riguardanti il come e il dove. Da una parte, gli sviluppatori di software e gli amministratori di sistema incaricati di progettare, mantenere, riparare e, in generale, migliorare il comportamento di un algoritmo devono sapere non solo ciò che quest’ultimo fa, ma anche come lo fa. Dall’altra, gli ingegneri impegnati a realizzare l’hardware in cui il sistema è implementato, devono sapere dove certi processi sono localizzati. Sul punto, a riprova della delicatezza del tema, anche la statunitense Defense Advanced Research Projects Agency (DARPA), ha avviato, nel 2016, un programma specificatamente incentrato sul rendere più spiegabile il modus operandi dell’Intelligenza Artificiale, il c.d. XAI program (Explainable Artificial Intelligence).

Il progetto mira a migliorare la spiegabilità mantenendo un elevato livello di risultato nell’apprendimento delle tecniche di Machine Learning. Inoltre, si sottolinea come esista una tensione intrinseca tra le prestazioni del ML, in merito all’accuratezza predittiva e la comprensione dei processi; spesso, i metodi più performanti, come il Deep Learning, sono i meno decifrabili, mentre al contrario quelli più chiari, ad esempio, gli alberi decisionali, sono i meno accurati. Il programma ha così previsto di finanziare diverse tecniche di approccio, in modo da poter fornire ai futuri sviluppatori una gamma di opzioni di progettazione che meglio possano equilibrare il rapporto tra prestazioni e spiegabilità.

Ad oggi, tra le possibili soluzioni adottabili, emergono le tecniche di interpretabilità post-hoc, che sono applicate successivamente alla produzione dell’output da parte del modello. Questo approccio analizza il comportamento dell’algoritmo, evidenziando quali variabili e processi abbiano maggiormente influenzato la decisione finale. Ad esempio, strumenti come LIME (Local Interpretable Model-agnostic Explanations) operano come “lenti d’ingrandimento” su singoli casi: viene creata una versione semplificata e localizzata dell’algoritmo complesso, identificando quali variabili (es. debito, età, storico creditizio) hanno pesato maggiormente in una specifica decisione, come il rifiuto di un prestito. Parallelamente, metodi come SHAP (SHapley Additive exPlanations) procedono assegnando a ogni input un “punteggio di contributo” che quantifica quanto ciascun dato (es. il codice postale o il reddito) abbia influenzato il risultato finale, ripartendo il peso avuto nel processo decisionale tra i vari elementi considerati.

Questi approcci, sebbene non siano in grado di svelare a pieno la logica interna della “black box”, offrono delle spiegazioni intuitive tramite l’impiego di grafici o percentuali, utili per scoprire bias nascosti (es. discriminazioni geografiche) o giustificare decisioni critiche in ambiti come la medicina (diagnosi automatizzate) o la finanza (approvazione di mutui). Tuttavia, permangono limiti significativi, infatti, essi spiegano il cosa (quali dati hanno influito), non il perché (la relazione causale dietro quei pesi), e richiedono un’interpretazione umana per evitare conclusioni errate. Nonostante ciò, sono diventati strumenti utili per rispettare le normative vigenti. Inoltre, pur non essendo tali soluzioni definitive al problema dell’opacità algoritmica, esse offrono un compromesso apprezzabile tra prestazioni elevate ed accountability, ponendo le basi per un’IA che sia più etica e controllabile.

La normativa UE

Il legislatore europeo ha prontamente riconosciuto l’importanza della trasparenza nei sistemi di IA, in particolare già con l’introduzione del Regolamento Generale sulla Protezione dei Dati (GDPR), che prevede il diritto per gli utenti di non essere soggetti a decisioni basate unicamente su trattamenti automatizzati (art. 22). Tale principio impone che laddove vi siano giudizi o scelte demandate a processi algoritmici idonei ad incidere significativamente sulla vita degli individui, questi ultimi possano richiedere l’intervento umano ovvero ricevere appropriate spiegazioni. Al GDPR si affianca il già menzionato Regolamento sull’Intelligenza Artificiale, il quale classifica i sistemi di IA in base al rischio e prevede requisiti stringenti di trasparenza, soprattutto per le applicazioni che potrebbero influire sui diritti fondamentali o sulla sicurezza delle persone. Tali interventi normativi non solo forniscono linee guida essenziali per gli sviluppatori, ma rafforzano anche la fiducia del pubblico nei confronti delle nuove tecnologie, ponendo l’accento sulla necessità di un’IA responsabile e verificabile.

Nondimeno va considerato anche l’aspetto etico, infatti, la trasparenza e l’explicability non sono solo questioni tecniche, ma rappresentano il fondamento per un uso corretto e ponderato dell’IA. Una tale situazione implica, per il futuro, che vi sia un processo di responsabilizzazione per i soggetti che sviluppano ed impiegano i sistemi algoritmici, abbracciando una concezione umano-centrica, che ponga l’accento sugli individui. L’Intelligenza Artificiale non può, quindi, per la sua portata innovativa, limitarsi ad essere un mero strumento tecnologico, ma deve mirare a divenire un supporto affidabile per gli utenti, con l’obiettivo finale di aumentarne il benessere. Contestualmente, gli interventi legislativi devono tendere a garantire un alto livello di protezione dei dati personali e richiedere l’implementazione di misure per garantire una tutela effettiva. Per questo motivo, l’auspicio che emerge prevede come necessarie linee guida improntate alla moralità e all’etica, che si fondino sul quadro normativo esistente e che dovrebbero essere applicate da sviluppatori, fornitori e utenti  nel mercato interno, stabilendo un livello equipollente in tutti gli Stati Membri.

Conclusioni

Volgendo lo sguardo al futuro della XAI, i principi cardine che dovranno essere rispettati in fase di sviluppo sono l’adattabilità, l’accuratezza e la spiegabilità degli algoritmi. A tal fine, deve essere garantito che le autorità pubbliche abbiano la capacità di esercitare i loro poteri di supervisione in linea con i loro mandati; a parità di tutte le altre condizioni, meno un essere umano può esercitare controllo su una macchina, più ampio deve essere il testing e più rigorosa la governance richiesta. Concludendo, si evince come il problema rappresentato dagli algoritmi quali black-box sia percepito come attuale, sia da coloro che lavorano nell’ambito tecnico di sviluppo, sia dai soggetti regolatori.  Diviene pertanto necessaria una sinergia comune che miri a creare sistemi più trasparenti e in linea con i valori della società, specialmente laddove all’IA sono demandati ruoli che prevedono scelte impattanti nella vita delle persone.

Fonti:

J. Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, Big data & society 3.1, 2016.

M. Carabantes, Black-box artificial intelligence: an epistemological and critical analysis, AI & society 35.2, 2020.

B. Goodman – S. Flaxman, EU regulations on algorithmic decision-making and a “right to explanation”, ICML workshop on human interpretability in machine learning, New York, 2016.

C. Zednik, Solving the black box problem: A normative framework for explainable artificial intelligence, Philosophy & technology 34.2, 2021.

Explainable Artificial Intelligence, DARPA-BAA-16-53, 10 agosto 2016.

Communication from the Commission to the European Parliament, the council, the European economic and social committee and the committee of the regions, Building Trust in Human-Centric Artificial Intelligence, Bruxelles 8 aprile 2019.

Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence.

Sharma, S., Henderson, J., & Ghosh, J. CERTIFAI: Counterfactual Explanations for Robustness, Transparency, Interpretability, and Fairness of Artificial Intelligence Models, 2019.

Burkart, N., & Huber, M. F,  A Survey on the Explainability of Supervised Machine Learning, 2020.

Non perderti le Novità!

Iscriviti alla Newsletter di Giovani Universitari in Parlamento

Trattamento per finalità di comunicazione digitale: inviando il presente modulo acconsenti alla ricezione di newsletter e comunicazioni da parte di Giovani Universitari in Parlamento.