Abstract
Un sistema di Intelligenza Artificiale utilizzato per il riconoscimento facciale, Clearview AI, ha ammesso di aver subito una violazione di dati personali che coinvolge tutti i suoi clienti. L’applicazione, che dichiara di aver come suo focus prioritario la sicurezza, viene utilizzata dalle maggiori Agenzie di polizia pubbliche e private degli Stati Uniti per identificare potenziali autori e vittime di reato.
Il caso
L’evento ha scosso il sistema giudiziario negli Stati Uniti e sollevato polemiche e questioni di sicurezza che sono state raccolte da esponenti del mondo politico.
L’app Clearview AI è uno strumento tecnico, utilizzato dalle maggiori agenzie del sistema giudiziario e non disponibile al pubblico, che permette di identificare una persona da una foto o un frame di un video di sorveglianza. Il sistema viene utilizzato per risalire all’identità di potenziali vittime o autori di crimini ed ha come unico scopo la prevenzione o la persecuzione di reati.
L’immagine caricata dall’utente viene confrontata con un database che contiene 3 miliardi di immagini, raccolte dall’open web e da siti come Facebook, YouTube, Venmo, Linkedin ecc. Nello svolgere i suoi servizi la società dichiara di utilizzare solo immagini disponibili al pubblico, come le foto profilo, e di non accedere a profili privati.
L’azienda era finita sotto i riflettori a seguito di un’inchiesta del New York Times da cui risultava che grazie alle tecnologie sviluppate da Clearview AI le forze dell’ordine erano spesso in grado di dare un nome a un volto sconosciuto ripreso da un obiettivo fotografico. A seguito delle polemiche che si erano scatenate molti social, come Facebook e Twitter, hanno diffidato Clearview AI dall’utilizzo delle immagini pubblicate dagli utenti sulle piattaforme, mentre alcuni stati hanno disposto che le forze dell’ordine non potessero utilizzare la piattaforma finché non si fosse stabilita la legittimità dello strumento.
Un simile apparato è senza dubbio di notevole aiuto all’autorità giudiziaria ma deve necessariamente garantire standard altissimi di sicurezza dato che i suoi utenti, come appartenenti al sistema di giustizia, sono soggetti potenzialmente a rischio di subire ritorsioni.
Eppure, a fine Febbraio la società ha dichiarato di aver registrato un accesso non autorizzato ai suoi server, durante il quale sono state (perlomeno) visionate da ignoti l’elenco di forze di polizia, forze dell’ordine e istituti di credito; le identità di tutti gli utenti con profili registrati, i dettagli dei profili e le ricerche effettuate, anche se su quest’ultimo punto le fonti si contraddicono.
Se la cronologia delle ricerche effettuate contenesse anche traccia delle identità a cui si è risaliti il bacino di interessati coinvolti nel data breach crescerebbe esponenzialmente.
La sicurezza è un vanto della start up che ha ideato il servizio, la quale dichiara che i sistemi non sono stati hackerati e la vulnerability è stata sanata…questa rassicurazione è però sufficiente
Conclusioni
Da una tecnologia costruita e tarata per essere al servizio dell’ordine pubblico e contenere informazioni di soggetti così “particolari” ci si aspetterebbe una sorta di invulnerabilità, mentre è il CEO stesso ad ammettere che “sfortunatamente, nel 21esimo secolo le violazioni dei dati fanno parte della vita.”
L’intelligenza artificiale ed il machine learning si stanno diffondendo sempre di più nel mondo economico-finanziario e produttivo, con un positivo aumento delle prestazioni/calo dei costi ma sono ancora poco conosciute per quanto riguarda impatto e comportamento nell’utilizzarle per elaborare informazioni personali. Molta è la fiducia nella loro utilità, altrettante sono le perplessità sul versante della sicurezza. Questo increscioso incidente dovrebbe portarci a riconsiderare come viene coinvolta la tecnologia nel trattamento dati e quali garanzie dovrebbero essere pretese a livello di sicurezza dal suo utilizzo. Posto che il rischio zero non esiste, è possibile esporre le informazioni che si custodiscono al minor rischio possibile…poiché se è vero che non si può essere invulnerabili, si può essere pronti.