Sembra mostrarsi sempre più difficile la convivenza fra big data ed etica nell’ottica dell'innovazione data driven.
La Federal Trade Commission ha di recente rilasciato un report sulla discriminazione involontaria attraverso i data analytics.
Formulare offerte specifiche ai segmenti di pubblico attraverso l’utilizzo dell’enorme mole di dati potrebbe infatti danneggiare gruppi maggiormente vulnerabili.
Big data e settore bancario
Il report “Big Data: uno strumento di inclusione o esclusione?” suggerisce ad esempio alle compagnie che promuovono carte di credito, conti bancari e prestiti, di porre molta attenzione alla targetizzazione dei propri segmenti.
Poniamo un caso specifico: cosa accadrebbe se una donna single fosse in grado di qualificarsi per un prodotto prime, ma a causa degli analytics dei big data le venisse proposto un prodotto sub-prime con un tasso di interesse più alto?
Come spiega l'articolo di Advertising Age, proibire alle donne single di richiedere una carta prime basandosi sul loro stato civile significherebbe violare l’Equal Credit Opportunity Act, ossia il regolamento statunitense che tutela minoranze e soggetti deboli dell’economia proibendo l’uso di alcune informazioni nella formalizzazione del processo decisionale.
La commissione del report, che si è in parte costituita nel 2014 in un workshop sul tema, ricorda agli inserzionisti che nelle loro pubblicità le compagnie non possono scoraggiare una persona dal presentare una richiesta.
Le azioni di marketing possono condizionare le future offerte, rischiando di rivelarsi discriminatorie o comunque affette da pregiudizi.
Attenzione agli analytics, raccomanda la FTC
E’ difficile quantificare quanto frequentemente si presenti la discriminazione da data analytics, ma “avvertiamo le compagnie di procedere con cautela in questo campo” ha detto Andrea Arias, rappresentante legale della FTC – Divisione Privacy e Protezione Identità e “desideriamo accendere i riflettori su cosa sta iniziando ad accadere”.
L’agenzia ha già intrapreso azioni nei confronti di alcune compagnie in relazione alle discriminazioni del passato. La società CompuCredit, ad esempio, ha dovuto risarcire 114 milioni di dollari ai propri clienti, dopo essere stata denunciata dalla Federal Trade Commission nel 2008 per pratiche commerciali ingannevoli. Tra le accuse, l’omissione di una corretta comunicazione per i titolari di carta che venivano puniti per gli acquisti effettuati presso bar e sale da biliardo.
Prevenire la discriminazione dei dati
Secondo l’agenzia, le compagnie dovrebbero assicurare che la loro raccolta di dati sia rappresentativa anche di minoranze (come la popolazione LGBT) e che i pregiudizi nascosti negli algoritmi non possano in alcun modo danneggiare questi gruppi.
La FTC ricorda alle compagnie che sebbene certe correlazioni possano risultare interessanti in un’ottica di marketing, possano in realtà rivelarsi non significative andando comunque ad incidere negativamente su gruppi vulnerabili.
“Può essere utile avere un controllo umano sui dati e gli algoritmi quando i big data vengono utilizzati per prendere decisioni importanti, come quelle che riguardano la salute, il credito e l’impiego”, aggiunge il report, ma la correttezza deve essere più importante degli analytics.