Come dare trasparenza e obiettività agli algoritmi: dalle sperimentazioni dei registri pubblici alle tecniche di “apprendimento federato”
Dare trasparenza agli algoritmi sta diventando quasi una necessità. Agli algoritmi ormai non rinuncia più nessuno. Tutte le barriere sembrano essere cadute, anche per non restare indietro con i processi innovativi.
Da più parti però si moltiplicano gli sforzi per avere delle combinazioni all’insegna della trasparenza e dell’obiettività. Stiamo parlando di quei criteri che ci permettono di capire come avvengono le scelte degli utenti. Parliamo di decisioni il più possibile imparziali. Sta parallelamente emergendo la volontà di creare dei registri degli algoritmi.
La trasparenza è considerata un valore. Questa ci permette di comprendere come le nostre decisioni sono influenzate dall’esterno. Gli algoritmi “opachi”, invece, possono portare a decisioni arbitrarie e ingiuste.
Gli esempi sono innumerevoli. Un algoritmo per la selezione di figure lavorative con funzionamento non reso pubblico, potrebbe generare sospetto. E’ possibile che vi sia dietro della discriminazione contro alcune categorie. Nello stato di New York è successo. Una compagnia di assicurazioni automobilistiche ha ricevuto accuse di discriminazione razziale. I suoi algoritmi avevano assegnato tariffe più elevate ai conducenti di colore rispetto ai conducenti bianchi.
I nostri menu, pieni di “ti potrebbe piacere anche…” sulle piattaforme video e audio, quanto sono guidati dai nostri gusti reali e quanto filtrati da interessi di vario tipo?
Algoritmi trasparenti: cosa si sta facendo in giro per il mondo
Ad oggi vediamo soprattutto le municipalità di importanti città tentare la strada del “Registro pubblico degli algoritmi”. Da qualche anno la città di New York, ha creato il NYC Automated Decision Systems Task Force. Questo gruppo è stato creato per identificare utilizzi impropri degli algoritmi. L’obiettivo è garantire che i dati utilizzati dalla città siano trasparenti e imparziali.
Qualcosa di analogo si sta tentando ad Amsterdam e Helsinki, ancora in una versione beta sperimentale. La procedura ricercata si ispira alla metodologia interattiva della democrazia partecipativa, fondata sul dialogo collaborativo pubblico-privato e sempre tracciabile. Lo scopo è fornire gli utenti di una panoramica generale. Una visione completa dei sistemi di intelligenza artificiale utilizzati nel processo di sviluppo, implementazione, gestione e smantellamento degli algoritmi.
Anche il Regno Unito si sta allineando. Nel 2020, il governo ha pubblicato un rapporto intitolato “Il futuro dell’intelligenza artificiale nel Regno Unito“, in cui si afferma che il governo sta considerando l’idea di creare un registro degli algoritmi per garantire la tracciabilità dei processi decisionali basati sull’Intelligenza Artificiale.
Oltre alla creazione di registri degli algoritmi, molte organizzazioni indipendenti stanno anche lavorando per sviluppare algoritmi più etici. Una delle tecniche utilizzate allo scopo è l’interpretazione degli algoritmi, un processo di analisi di come un algoritmo prende decisioni. Questa pratica può aiutare a identificare eventuali pregiudizi impliciti nei dati di partenza e a garantire che l’algoritmo prenda decisioni non discriminatorie.
Algoritmi trasparenti: l’apprendimento federato
Un altro approccio per garantire la algoritmi trasparenti è quello di utilizzare l’apprendimento federato. Tale tecnica di apprendimento automatico permette di addestrare un algoritmo attraverso l’utilizzo di dispositivi decentralizzati o server che mantengono i dati, senza la necessità di scambiare i dati stessi.
Questo approccio si oppone alle tradizionali tecniche di apprendimento automatico centralizzate dove i dati vengono caricati su un server; o ai più tradizionali metodi decentralizzati che assumono che i dati locali siano distribuiti in modo identico. L’apprendimento federato permette invece ai diversi partecipanti di costruire un modello per l’apprendimento automatico comune ed efficace, senza lo scambio di qualsiasi dato.
L’utilizzo avanzato di questa tecnica, secondo gli esperti, consente di affrontare problemi critici come la protezione, la sicurezza, i diritti di accesso ai dati e l’impiego di dati veramente eterogenei. Le principali applicazioni dell’apprendimento federato comprendono vari campi di assoluta rilevanza come la difesa, le telecomunicazioni e la farmaceutica.