Come in Minority Report, l’IA prevede i crimini
Ancora una volta, un best seller di fantascienza ha (quasi) anticipato il futuro: nel 1956, Minority Report di Philp K. Dick – diventato nel 2002 l’omonimo film di Spielberg con Tom Cruise – immaginava che, in una Washington del 2054, la “sezione Precrimine” potesse prevedere gli omicidi e arrestare i criminali prima che entrassero in azione.
IA al servizio della polizia. Adesso, nel 2022, un team dell’Università di Chicago ha creato un modello di intelligenza artificiale (IA) che riesce a predire il luogo del prossimo crimine – e non i criminali, come nel romanzo – , una settimana prima che accada, con una precisione del 90%: l’algoritmo, addestrato sulla base di dati riguardanti crimini violenti (come omicidi o aggressioni) e contro la proprietà (rapine di vario tipo) avvenuti tra il 2014 e il 2016 a Chicago, è stato per ora testato su otto città statunitensi. «Abbiamo creato una copia digitale di un ambiente urbano», spiega Ishanu Chattopadhyay, uno degli autori. «Se nutri l’IA con dati di ciò che è successo nel passato, ti dice cosa accadrà nel futuro». I risultati dello studio sono stati pubblicati su Nature Human Behaviour.. Razzista? In passato, i tentativi di utilizzare l’IA per prevedere dei crimini erano stati oggetto di numerose critiche, a causa del razzismo che ne emergeva: nel 2016, ad esempio, il dipartimento di polizia di Chicago testò un algoritmo che doveva individuare i soggetti più a rischio di essere coinvolti in una sparatoria, ma incappò in un pregiudizio di razza, poiché incluse il 56% degli abitanti neri della città. . Ricchi e poveri. Chattopadyhay ammette che anche il nuovo algoritmo potrebbe essere viziato da pregiudizi razzisti, ma che proprio per questo aiuterebbe a metterli in luce. Le previsioni dell’IA hanno infatti rilevato che, a Chicago, il numero di arresti differisce da un quartiere all’altro: nelle zone più ricche la polizia interviene molto di più, arrivando ad arrestare più spesso i colpevoli rispetto a quanto avviene nelle zone più povere. . Per essere il più possibile neutrale, il modello ha diviso la città in diverse aree grandi circa 300 m2, che non corrispondono ai veri quartieri: questo ha creato una nuova visione della città, «permettendo di porci nuove domande e valutare l’azione della polizia in nuovi modi», spiega James Evans, uno degli autori.. Meno violenza. L’idea non è creare uno strumento che scateni una caccia all’uomo, ma informare la polizia per prevenire i crimini: «Prevedere i crimini serve a far sì che non avvengano e che nessuno debba andare in carcere, aiutando l’intera comunità», specifica Chattopadhyay, che si augura che il modello creato dal suo team possa servire a ridurre la criminalità e a identificare le aree delle città dove i pregiudizi si riflettono sulle politiche e sulle azioni della polizia. .
IA al servizio della polizia. Adesso, nel 2022, un team dell’Università di Chicago ha creato un modello di intelligenza artificiale (IA) che riesce a predire il luogo del prossimo crimine – e non i criminali, come nel romanzo – , una settimana prima che accada, con una precisione del 90%: l’algoritmo, addestrato sulla base di dati riguardanti crimini violenti (come omicidi o aggressioni) e contro la proprietà (rapine di vario tipo) avvenuti tra il 2014 e il 2016 a Chicago, è stato per ora testato su otto città statunitensi. «Abbiamo creato una copia digitale di un ambiente urbano», spiega Ishanu Chattopadhyay, uno degli autori. «Se nutri l’IA con dati di ciò che è successo nel passato, ti dice cosa accadrà nel futuro». I risultati dello studio sono stati pubblicati su Nature Human Behaviour.. Razzista? In passato, i tentativi di utilizzare l’IA per prevedere dei crimini erano stati oggetto di numerose critiche, a causa del razzismo che ne emergeva: nel 2016, ad esempio, il dipartimento di polizia di Chicago testò un algoritmo che doveva individuare i soggetti più a rischio di essere coinvolti in una sparatoria, ma incappò in un pregiudizio di razza, poiché incluse il 56% degli abitanti neri della città. . Ricchi e poveri. Chattopadyhay ammette che anche il nuovo algoritmo potrebbe essere viziato da pregiudizi razzisti, ma che proprio per questo aiuterebbe a metterli in luce. Le previsioni dell’IA hanno infatti rilevato che, a Chicago, il numero di arresti differisce da un quartiere all’altro: nelle zone più ricche la polizia interviene molto di più, arrivando ad arrestare più spesso i colpevoli rispetto a quanto avviene nelle zone più povere. . Per essere il più possibile neutrale, il modello ha diviso la città in diverse aree grandi circa 300 m2, che non corrispondono ai veri quartieri: questo ha creato una nuova visione della città, «permettendo di porci nuove domande e valutare l’azione della polizia in nuovi modi», spiega James Evans, uno degli autori.. Meno violenza. L’idea non è creare uno strumento che scateni una caccia all’uomo, ma informare la polizia per prevenire i crimini: «Prevedere i crimini serve a far sì che non avvengano e che nessuno debba andare in carcere, aiutando l’intera comunità», specifica Chattopadhyay, che si augura che il modello creato dal suo team possa servire a ridurre la criminalità e a identificare le aree delle città dove i pregiudizi si riflettono sulle politiche e sulle azioni della polizia. .