New York mette al bando l’AI
In un mondo sempre più governato dalla tecnologia, la città di New York decide di andare controcorrente e introduce numerose limitazioni all’utilizzo dell’intelligenza artificiale nella selezione dei dipendenti pubblici. Diversi esperti consultati dai vertici dell’amministrazione cittadina avrebbero infatti confermato come i sistemi di AI utilizzati nei processi di scrematura dei CV non sarebbero completamente neutrali nello scartare un candidato o nel farlo procedere lungo il percorso di selezione.
Meno donne. La preoccupazione dei leader newyorkesi non sembra del tutto infondata: già nel 2018 Reuters aveva scoperto che un sistema di AI adottato da Amazon per la prima scrematura delle candidature ricevute in base ai precedenti lavori svolti, non era del tutto neutrale perché penalizzava le donne.. La proposta di legge arrivata sui tavoli del consiglio comunale, prevede l’obbligo di comunicare a un candidato come verrà trattata la sua candidatura, se da un computer o da un essere umano. Tutti gli strumenti informatici utilizzati nei processi di selezione dovranno inoltre essere sottoposti a verifica annuale per controllare eventuali discriminazioni.
Problema politico. Negli ultimi anni diverse amministrazioni pubbliche degli Stati Uniti hanno iniziato una pesante campagna contro l’uso indiscriminato della tecnologia da parte del Governo: diverse città hanno messo al bando i sistemi di riconoscimento facciale delle persone, anche per finalità anticrimine, e la stessa città di New York ha formalmente vietato l’utilizzo di questi sistemi all’interno delle scuole.
La preoccupazione contro l’impiego incontrollato dell’intelligenza artificiale si sta diffondendo anche tra membri del Congresso: lo scorso dicembre, una decina di Senatori ha chiesto una legislazione che regolamenti l’utilizzo dell’AI nella selezione del personale anche nelle aziende private. Il timore è che questi sistemi possano accentuare disparità ingiustificate basate su razza o etnia, in un momento delicato come la crisi economica scatenata dal Covid.. La proposta di legge sembra essere sostenuta trasversalmente da democratici e repubblicani e trova consenso anche da diversi addetti ai lavori, che non vedono l’ora di dimostrare la correttezza dei loro software in sede pubblica. Ma la domanda nasce spontanea: come fa un sistema di AI ad avere dei pregiudizi di genere o di razza quando decide di scartare un CV? Dipende tutto dalla bontà dei dati e dei processi che sono stati utilizzati per l’addestramento del sistema stesso.
dati falsati. Un sistema di intelligenza artificiale, prima di poter essere impiegato, deve infatti imparare cosa deve fare. Per insegnare a una macchina se deve scartare o no il profilo di un candidato si utilizzano i dati relativi a decine di migliaia di processi di selezione svolti in passato, all’interno dei quali il sistema identifica degli schemi, che poi tenderà a ripetere.
È chiaro che se i dati di partenza sono falsati da pregiudizi umani, per esempio da processi di selezione che in passato hanno penalizzato le donne o le minoranze, l’AI imparerà e si comporterà di conseguenza, proprio come un bambino che segue l’esempio degli amici sbagliati.
in Europa. E in Europa? Anche nel vecchio continente l’attenzione verso questa tematica è altissima: nel Libro Bianco sull’Intelligenza Artificiale della Commissione Europea si legge infatti che l’utilizzo dell’AI nei processi di selezione del personale è ad alto rischio, perchè andrebbe ad incidere sui diritti dei lavoratori.
Per questo, la Commissione raccomanda, nei processi di addestramento di questi sistemi, l’utilizzo di dati che tengano conto dei valori dell’Unione, in particolare quelli di parità e uguaglianza..
Meno donne. La preoccupazione dei leader newyorkesi non sembra del tutto infondata: già nel 2018 Reuters aveva scoperto che un sistema di AI adottato da Amazon per la prima scrematura delle candidature ricevute in base ai precedenti lavori svolti, non era del tutto neutrale perché penalizzava le donne.. La proposta di legge arrivata sui tavoli del consiglio comunale, prevede l’obbligo di comunicare a un candidato come verrà trattata la sua candidatura, se da un computer o da un essere umano. Tutti gli strumenti informatici utilizzati nei processi di selezione dovranno inoltre essere sottoposti a verifica annuale per controllare eventuali discriminazioni.
Problema politico. Negli ultimi anni diverse amministrazioni pubbliche degli Stati Uniti hanno iniziato una pesante campagna contro l’uso indiscriminato della tecnologia da parte del Governo: diverse città hanno messo al bando i sistemi di riconoscimento facciale delle persone, anche per finalità anticrimine, e la stessa città di New York ha formalmente vietato l’utilizzo di questi sistemi all’interno delle scuole.
La preoccupazione contro l’impiego incontrollato dell’intelligenza artificiale si sta diffondendo anche tra membri del Congresso: lo scorso dicembre, una decina di Senatori ha chiesto una legislazione che regolamenti l’utilizzo dell’AI nella selezione del personale anche nelle aziende private. Il timore è che questi sistemi possano accentuare disparità ingiustificate basate su razza o etnia, in un momento delicato come la crisi economica scatenata dal Covid.. La proposta di legge sembra essere sostenuta trasversalmente da democratici e repubblicani e trova consenso anche da diversi addetti ai lavori, che non vedono l’ora di dimostrare la correttezza dei loro software in sede pubblica. Ma la domanda nasce spontanea: come fa un sistema di AI ad avere dei pregiudizi di genere o di razza quando decide di scartare un CV? Dipende tutto dalla bontà dei dati e dei processi che sono stati utilizzati per l’addestramento del sistema stesso.
dati falsati. Un sistema di intelligenza artificiale, prima di poter essere impiegato, deve infatti imparare cosa deve fare. Per insegnare a una macchina se deve scartare o no il profilo di un candidato si utilizzano i dati relativi a decine di migliaia di processi di selezione svolti in passato, all’interno dei quali il sistema identifica degli schemi, che poi tenderà a ripetere.
È chiaro che se i dati di partenza sono falsati da pregiudizi umani, per esempio da processi di selezione che in passato hanno penalizzato le donne o le minoranze, l’AI imparerà e si comporterà di conseguenza, proprio come un bambino che segue l’esempio degli amici sbagliati.
in Europa. E in Europa? Anche nel vecchio continente l’attenzione verso questa tematica è altissima: nel Libro Bianco sull’Intelligenza Artificiale della Commissione Europea si legge infatti che l’utilizzo dell’AI nei processi di selezione del personale è ad alto rischio, perchè andrebbe ad incidere sui diritti dei lavoratori.
Per questo, la Commissione raccomanda, nei processi di addestramento di questi sistemi, l’utilizzo di dati che tengano conto dei valori dell’Unione, in particolare quelli di parità e uguaglianza..