Quando l’algoritmo
è un pregiudizio:
la libertà di scelta nell’era digitale
Secoli di lotte per l’uguaglianza rischiano di andare in fumo a causa di intelligenze artificiali che sempre più spesso ci inquadrano in un profilo immutabile con un rapido ragionamento induttivo. Ne è convinto il teologo della Pontificia Università Gregoriana Paolo Benanti, recentemente intervenuto a Catania nell’ambito del convegno “Dio, Macchine e libertà”. Ma, nel nostro vivere quotidiano, siamo tanto diversi da questi meccanismi?
Oggi un algoritmo di machine learning può essere la più grande forma di disuguaglianza e di pregiudizio. In che modo? L’apprendimento automatico, parte dell’intelligenza artificiale, si basa su algoritmi che imparano da un insieme di dati a fare delle predizioni. Un metodo che utilizza è il ragionamento induttivo: a partire da casi particolari si giunge a una conoscenza universale. Un esempio? «Se cercassi su Linkedin un programmatore e, tra quelli proposti, aprissi il profilo di un ragazzo romano di 31 anni, alla mia successiva ricerca, ad esempio “avvocato a Catania”, mi verranno probabilmente mostrati profili di maschi bianchi tra i 25 e i 35 anni». Così il teologo Paolo Benanti, in occasione del convegno tenutosi a Catania dal titolo “Dio, Macchine e libertà” ha spiegato come gli algoritmi dei sistemi digitali orientino le nostre scelte. In base a meccanismi simili operano Facebook e altri giganti del digitale: la “monogamia dell’informazione” è un rischio sempre più concreto. Un altro esempio? «Un progetto Microsoft – continua Benanti – analizzando dati di studenti di scuole pubbliche di Washington, indicava chi avrebbe avuto un intoppo scolastico. Mentre un direttore lo usava per investire sugli studenti bisognosi, un altro pensava più utile il contrario. Abbiamo fatto le battaglie più sanguinose per dire che siamo tutti uguali, ora torniamo indietro perché ce lo dice un algoritmo di profilazione», apostrofa il teologo dell’algor-etica. Ma in fondo, quando agiamo per pregiudizi, siamo così diversi dagli algoritmi? Il pregiudizio infatti non è (anche) un salto induttivo dai dati raccolti a una conclusione?
Nella nostra vita usiamo continuamente l’induzione ma, come insegna il filosofo scozzese David Hume, è un’abitudine, non una spiegazione: le premesse non implicano la conclusione. «Se Aristotele alla domanda “Piove?” avrebbe risposto “Per far crescere l’erba” e Newton con una spiegazione causale, oggi il machine learning ci dice che dove ci sono ombrelli aperti, lì starà piovendo. Questa è solo una correlazione. Le macchine non sanno dirci se sono gli ombrelli che causano la pioggia o è la pioggia che spiega gli ombrelli. Ci stiamo convincendo che possiamo fare a meno della ricerca delle cause». Google non dice perché ma che statisticamente accade così. Hume non parla di statistiche ma di uniformità della natura: è la fede nel fatto che tutto ciò che abbiamo esperito fino ad ora sarà simile nel futuro, il che ha le sue utilità: immaginate le notti a crogiolarci temendo che non sorgerà il sole. Ma è giusto affidarci totalmente all’induzione? È giusto delegare le nostre decisioni ad algoritmi che consigliano acquisti e scelte elettorali? Lo studente dato per spacciato da Microsoft non potrebbe invece migliorare? L’esistenza è meraviglia che deborda da ogni schema, stupendo le nostre aspettative, nel bene e nel male. Prenderne contezza significa approcciare in maniera proficua la tecnologia.