FaceID di iPhoneX,la nuova frontiera di Apple sul riconoscimento facciale ha un risvolto inquietante
Nel frattempo a Stanford due ricercatori mettono nero su bianco uno studio sull'Intelligenza Artificiale applicata al... riconoscimento dell'orientamento sessuale
"Per sbloccarlo basta guardarlo..."
L'evento per il lancio dell'iPhone X non è iniziato in modo esattamente brillante con un Craig Federighi un po' innervosito che ha dovuto combattere più del previsto per sbloccare il nuovo melafonino attraverso il "Face ID", il software di Apple per il riconoscimento facciale, una delle caratteristiche chiave del nuovo iPhone equipaggiato con sensori a infrarossi e 3D nella sua fotocamera frontale:
'Feature' di punta, come del resto ha sottolineato lo stesso Tim Cook citando il fondatore Steve Jobs al termine della presentazione: "Questo è il futuro. E' in grado di riconoscere il volto anche se ci cresce la barba. Il rischio di essere ingannato è uno su un milione, perché la fotocamera é in grado di calcolare la profondità dei tratti del viso."
Grande innovazione dunque e grandi promesse per una fluidità e semplicità d'uso dello strumento di comunicazione più usato ai quattro angoli del globo. Sarà sufficiente, letteralmente, un batter d'occhio per accedere alla propria email, alle proprie applicazioni preferite per non parlare della possibilità di effettuare rapidamente una chiamata (sì gli smartphone continueranno a fare anche questo).
Non è una novità
Tuttavia non è l'inciampo durante la dimostrazione che ha suscitato le perplessità di Clare Garvie, avvocato specializzata in privacy, che sul Guardian ha già messo in fila tutta una serie di questioni che la nuova tecnologia apre. O meglio ha già aperto perché, come spesso accade con Apple, non è tanto l'innovazione tecnologica quanto la sua traduzione in un oggetto di uso di massa a fare notizia.
L'articolo cita per esempio Meduza - un aggregatore online di notizie sulla realtà russa con sede in Lettonia e diretto da Galina Timchenko rimossa qualche anno fa dalla direzione di Lenta.ru per essere rimpiazzata da un caporedattore più gradito al Cremlino - che nel luglio scorso ha rivelato l'esistenza di un gruppo anonimo che ha usato un software di riconoscimento facciale per svelare e denunciare i manifestanti che nel giugno avevano partecipato alle manifestazioni anticorruzione guidate dal leader dell'opposizione Navalny. In Cina un software simile viene usato dalla polizia per colpire e multare i pedoni distratti e le prospettive di affari per chi sviluppa questa tecnologia appaiono molto lucrative.
Nell'articolo, a partire proprio dall'uso di questa teconologia nell'ambito di casi di polizia e giudiziari dove l'approssimazione ha messo nei guai persone innocenti ed estranee, Garvie si interroga sulla reale efficacia della 'feature' rivoluzionaria presentata da Apple e sulle conseguenze per l'utente e la sua sicurezza di una eventuale fallacia del dispositivo da questo punto di vista, ma soprattutto mette in guardia dal fatto che, nell'abituarsi alla comodità di un rapido e accurato riconoscimento facciale occorre fare attenzione ai seri rischi per la privacy che questa nuova comodità porta con sè e anche alla varietà di applicazioni a cui questa nuova tecnologia può essere piegata.
Non si giudica un libro dalla copertina? Ormai forse sì...
Un esempio eclatante viene proprio in questi giorni da Stanford dove due ricercatori hanno pubblicato sul "Journal of Personality and Social Psychology" un articolo intitolato "Le reti neurali profonde sono più accurate degli umani nell'identificare l'orientamento sessuale dalle immagini facciali". Lo studio firmato da Michal Kosinski e Yilun Wang descrive un sistema di intelligenza artificiale capace di discernere, a partire dalle fotografie di volti contenuti in un database di immagini facciali (reperito da un sito di incontri che rende pubblici i suoi dati), se una persona è gay o eterosessuale con una percentuale di esattezza del 91% per gli uomini e dell'83% per le donne a fronte del 61% e del 54% realizzato da un campione di persone utilizzate come controprova.
Risultati sconcertanti che aprono interrogativi pesanti sugli obiettivi discriminatori per cui questa tecnologia può essere utilizzata. Una tecnologia appunto già esistente come i due ricercatori tengono a sottolineare nel "disclaimer" introduttivo alla ricerca: "Non abbiamo costruito uno strumento di invasione della privacy. Abbiamo studiato tecnologie esistenti, già ampiamente usate da aziende e governi, per vedere se esse rappresentano un rischio per la privacy di persone LGBT. E siamo rimasti atterriti nello scoprire che lo sono."