la lettera al congresso usa

Stop al riconoscimento facciale. Ibm contro l’uso dell’Ai per la profilazione razziale

Il gigante di Armonk scrive al Congresso Usa, esce dal “business” del riconoscimento facciale e chiede di aprire un tavolo

di L.Tre,

default onloading pic
(REUTERS)

Il gigante di Armonk scrive al Congresso Usa, esce dal “business” del riconoscimento facciale e chiede di aprire un tavolo


2' di lettura

Una lettera del nuovo Ceo di Ibm Arvin Krishna diretta al Congresso Usa chiarisce che l'intelligenza artificiale di Big Blue nono sarà impiegata per il riconoscimento facciale applicato alla sorveglianza globale e alla profilazione razziale. Come si legge sulla rivista Usa online The Verge, Ibm scrive: «Riteniamo che sia giunto il momento di avviare un dialogo nazionale su come e se la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell'ordine nazionali».

«Ibm si oppone fermamente e non perdonerà l'uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali», ha scritto Krishna, aggiungendo che «la tecnologia può aumentare la trasparenza e aiutare la polizia proteggere le comunità ma non deve promuovere discriminazioni o ingiustizie razziali».

Sembra di capire che non ci saranno aggiornamenti per le soluzioni sviluppate, ma verrà comunque fornito supporto a coloro che le stanno già utilizzando. Ma il messaggio è chiaro ed è quello di aprire un tavolo per capire l'impatto di questa tecnologia.

L’annuncio pubblico del gigante di ‎Armonk è arrivato in un momento particolare. Gli Stati Uniti sono in preda a violentissime proteste a livello nazionale per la morte di George Floyd. I Big della Silicon Valley stanno prendendo posizione sull’uso di questa tecnologia e sul suo impiego in ottica di sorveglianza globale.

La posizione dei Big della Silicon Valley.

All'inizio di quest'anno il caso di Clearview AI. La società utilizzava oltre tre miliardi di immagini catturate dei social media per vendere servizi di riconoscimento facciale alle forze di polizia di tutto il mondo. Sull'attività di Clearview sono stati avviate indagini ed è al centro di numerose cause per violazione della privacy. A gennaio a Facebook è stato anche ordinato di pagare 550 milioni di dollari per risolvere una causa di azione collettiva per l'uso illegale della tecnologia di riconoscimento facciale.
In Europa. E l’anno scorso nel mirino c’era Rekognition, il software di riconoscimento facciale sviluppato da Amazon Aws. Quanto a Google fino dal 2018 ha indicato una serie di principi da adottare nella fase di creazione e di fornitura di servizi, tecnologie e piattaforme legate

all'intelligenza artificiale.

L’Europa e l’Ai

All’inzio dell’anno scorso l'Europa ha pubblicato un codice etico sull'intelligenza artificiale (Ai). Il documento contiene le linee guida per illustrare soluzioni tecniche e non tecniche su come fornire trasparenza e responsabilità intorno all'Ai, e incoraggiare le aziende e i ricercatori a sviluppare protezioni della privacy, non discriminazione e supervisione umana nei loro progetti in una fase iniziale. Il documento è aperto a suggerimenti in attesa della versione definitiva che arriverà a marzo dell'anno prossimo.

Per approfondire

L'Europa pubblica un codice etico sull'intelligenza artificiale. Ecco cosa dice

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti