Tecnologia

Tutta la verità su Norman, l’intelligenza artificiale psicopatica

  • Abbonati
  • Accedi
Machine learning

Tutta la verità su Norman, l’intelligenza artificiale psicopatica

In rete è già stata ribattezzata come l'intelligenza artificiale psicopatica. In realtà dietro a Norman, l'AIiche vede morte ovunque sviluppata al Media Lab del Mit, c'è la volontà di far conoscere anche al grande pubblico uno dei cardini del machine learning: «i dati che vengono forniti all'algoritmo possono influenzarne il comportamento in maniera significativa».
A parlare sono il professor Iyad Rahwan e i due ricercatori che con lui hanno lavorato al progetto, Pinar Yanardag e Manuel Cebrian. L'algoritmo, che deve il suo nome al Norman Bates di Psycho, è stato “nutrito” con immagini tratte da un canale Reddit chiamato /watchpeopledie. «È uno spazio che documenta la realtà inquietante della morte», prosegue il team, «i post pubblicati qui devono contenere un video che mostri il decesso di una persona. Ed avere un titolo che descriva accuratamente il contenuto. Ad esempio, giovane uomo accoltellato a morte».

All'algoritmo sono state fornite solo delle immagini tratte dai video. Una scelta dettata «da ragioni etiche ma anche tecniche, oltre che dal contenuto di questi filmati». Il punto è che «dal momento che Norman ha osservato solamente immagini di questo tipo, vede la morte in ogni immagine che gli venga sottoposta».
A sostengo di questa affermazione, il tema ha realizzato un esperimento facendo ricorso al test di Rorschach. Ovvero quel test, ideato dall'omonimo psicologo svizzero negli anni 20 del secolo scorso, che prevede di sottoporre dieci immagini contenenti delle macchie di inchiostro simmetriche al soggetto esaminato. Al quale si chiede di indicare a cosa somigli ciò che vede. Nel caso specifico, il test ha visto coinvolte due intelligenze artificiali: oltre a Norman, anche un algoritmo addestrato con immagini che nulla hanno a che vedere con la morte.

Il risultato è che dove quest'ultima ha visto un vaso di fiori, l'Ai “psicopatica” ha individuato un uomo ucciso a colpi di pistola. Dove la prima ha indicato il ritratto in bianco e nero di un uccellino, la seconda ha visto una persona trascinata all'interno di un'impastatrice. Uno scenario certamente inquietante, anche se qui l'obiettivo non era quello di spaventare l'umanità rispetto alla possibile nascita di macchine malvagie. Norman non è Terminator, in altre parole.

«Quando diciamo che un algoritmo ha dei bias, il colpevole spesso non è l'algoritmo stesso, ma i dati con cui è stato alimentato». Un'idea «riconosciuta e condivisa all'interno della comunità scientifica, meno tra il grande pubblico». E lo scopo del progetto del Mit Media Lab era appunto quello di «evidenziare il ruolo dei dati nei bias che affliggono un algoritmo in un modo che tutti potessero capire». Gli stessi algoritmi possono vedere cose diverse nella medesima immagine: tutto dipende da come sono stati addestrati. «Il nostro obiettivo era quello di rendere l'opinione pubblica consapevole di questa problematica. E di stimolare il dibattito su questo tema».

© Riproduzione riservata