Sebbene gli Stati Uniti. L’Equal Credit Opportunity Act vieta la discriminazione nei prestiti. Quando i pregiudizi si riversano nei modelli di apprendimento automatico utilizzati per semplificare il processo decisionale, possono avere conseguenze di vasta portata per l’equità abitativa e persino contribuire ad ampliare il divario di ricchezza razziale. Se un modello viene addestrato su un set di dati ingiusto in cui a una percentuale maggiore di mutuatari neri sono stati negati prestiti rispetto a mutuatari bianchi con lo stesso reddito, punteggio di credito, ecc., tali pregiudizi influenzeranno le previsioni del modello quando viene applicato a situazioni reali. I ricercatori del MIT hanno creato un processo che rimuove i pregiudizi nei dati utilizzati per addestrare modelli di apprendimento automatico per fermare la discriminazione sui prestiti ipotecari. La tecnica dei ricercatori è nuova nel campo dei prestiti ipotecari perché può rimuovere i pregiudizi da un set di dati che ha più attributi sensibili, come razza ed etnia, nonché diverse opzioni “sensibili” per ciascun attributo, come Nero o Bianco. I ricercatori hanno utilizzato una tecnica chiamata dualfair per addestrare un classificatore di apprendimento automatico in grado di fare previsioni corrette sul fatto che i mutuatari riceveranno un mutuo ipotecario. Il loro metodo ha ridotto la discriminazione nelle previsioni mantenendo un’elevata precisione quando l’hanno applicato ai dati sui prestiti ipotecari di diversi stati degli Stati Uniti. Jashandeep Singh, un anziano alla Floyd Buchanan High School e co-autore principale del documento, afferma che è importante che i pregiudizi non vengano messi nei sistemi finanziari e di prestito ipotecario perché possono enfatizzare le lacune che sono già in atto nei confronti di alcuni gruppi. Ci sono due tipi di bias nel set di dati sui prestiti ipotecari. Gli uomini bianchi che non sono ispanici o latini, le donne nere che sono ispaniche o latine e altri attributi sensibili sono raggruppati nel maggior numero di sottogruppi in base a combinazioni di attributi sensibili. Quando la razza di una persona viene modificata in bianco, dualfair considera il punto dati distorto e lo rimuove dal set di dati. Hanno addestrato un modello di apprendimento automatico per prevedere accettazioni e rifiuti di prestiti utilizzando l’intero set di dati e set di dati più piccoli. Il livello di precisione è rimasto elevato in tutti gli stati dopo l’applicazione del dualfair. L’indice del mondo alternativo è una metrica di equità che considera la distorsione da più attributi sensibili nel loro insieme. Hanno scoperto che dualfair ha aumentato l’equità nelle previsioni per quattro dei sei stati mantenendo un’elevata precisione. I ricercatori vogliono applicare il loro metodo a diversi tipi di set di dati, come risultati sanitari, tariffe assicurative auto o domande di lavoro. I ricercatori del MIT hanno sviluppato una tecnica che rimuove più tipi di pregiudizi da un set di dati sui prestiti ipotecari, migliorando l’accuratezza e l’equità dei modelli di apprendimento automatico che possono aiutare a fare previsioni corrette sul fatto che i mutuatari ottengano un prestito ipotecario.

You may also like

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *