come possiamo difenderci dagli attacchi

Ecco cosa fare quando un contenuto misogino diventa virale

Dopo una prima fase più complessa, le piattaforme social hanno alzato muri importanti contro la diffusioni di certi contenuti, impiegando team ad hoc e implementando algoritmi basati sull'intelligenza artificiale che puntano a bloccarne la diffusione sul nascere

di Biagio Simonetta


default onloading pic

4' di lettura

Quando un contenuto digitale non sponsorizzato raggiunge migliaia di persone, in ambito social si è davanti a un ottimo esperimento di viral marketing. Ed è un processo complesso, sul quale ogni giorno, in rete, orde di social media manager si danno battaglia. Spesso, però, Internet ha mostrato il lato oscuro di questo mondo, trasformando il virale in una spirale diabolica. I contenuti a sfondo misogino ne sono un grande esempio. Revenge porn, stalking digitale o più banalmente odio, hanno colpito moltissime vittime. E le conseguenze sono spesso nefaste, come ci ricorda il caso di Tiziana Cantone, morta suicida nel 2016 a causa di un video hard diventato virale sul web e pubblicato senza il suo consenso da persone ancora impunite.

Ma come diventa virale un contenuto del genere? Probabilmente non esiste una spiegazione tecnica. I contenuti violenti, verso i quali la battaglia delle stesse piattaforme social sta diventando serrata ,non seguono le regole del marketing, ma le oltrepassano. E si aggrappano, pesantemente, a uno dei requisiti fondamentali del fenomeno virale: lo stupore. Un contenuto violento, per quanto negativo, crea stupore. E innesca un meccanismo perverso di condivisione che rende lo stesso contenuto celebre in pochi minuti. Le foto intime della giornalista sportiva Diletta Leotta, finite in rete nel 2016 dopo l'hackeraggio del suo smartphone, furono condivise via chat da migliaia di persone. Più recentemente, un video hard che vedeva il calciatore Cyril Thereau nei panni di regista, ha spopolato su WhatsApp. Un paio d'anni fa, un video girato a una festa aziendale di Tencent (colosso cinese), nel quale le donne si inginocchiavano davanti agli uomini e stappavano con la bocca le bottiglie che questi tenevano strette fra le gambe, fece milioni di visualizzazioni in poche ore. A far da traino, in tutti questi casi presi ad esempio, è stato lo stupore.

Come difendersi.

Ma è possibile difendersi dalla violenza digitale? La risposta è sicuramente sì. Dopo una prima fase più complessa, le piattaforme social hanno alzato muri importanti contro la diffusioni di certi contenuti, impiegando team ad hoc e implementando algoritmi basati sull'intelligenza artificiale che puntano a bloccarne la diffusione sul nascere. A confermarcelo è un portavoce di Facebook, che ci ha spiegato l'evoluzione tecnologica: «Per proteggere le vittime, - ha detto al Sole24Ore - per lungo tempo la nostra politica è stata quella di rimuovere le immagini intime non consensuali quando ci vengono segnalate e negli ultimi anni abbiamo usato la tecnologia del photo-matching per evitare che vengano condivise nuovamente. Grazie all'apprendimento automatico e all'intelligenza artificiale, ora siamo in grado di rilevare in modo proattivo immagini o video che vengono condivisi senza autorizzazione su Facebook e Instagram». Ovviamente, dopo la l'allarme lanciato dai sistemi intelligenti, il contenuto viene passato al vaglio da un apposito team, e «se un'immagine o un video viola i nostri Standard della Comunità, lo rimuoviamo e nella maggior parte dei casi disabilitiamo anche gli account che condividono contenuti intimi senza autorizzazione».

Facebook e Instagram hanno anche istituito un programma pilota gestito in collaborazione con le organizzazioni a sostegno delle vittime. Questo programma offre alle persone un'opzione di emergenza per inviare proattivamente e in modo sicuro a Facebook una foto che temono possa essere diffusa: «per impedire che la foto venga condivisa sulla nostra piattaforma, creiamo un'impronta digitale di quell'immagine». Allo stesso tempo, è nata l’area “Non senza il mio consenso”, un centro di supporto alle vittime inglobato nel Safety Center del social network. Qui le vittime troveranno organizzazioni e risorse che possono offrire loro sostegno, compresi gli strumenti da utilizzare per rimuovere il contenuto dalla piattaforma e impedirne l'ulteriore condivisione. «Nei prossimi mesi – fanno sapere da Facebook - svilupperemo un kit di strumenti di supporto alle vittime per fornire maggiori informazioni con un sostegno locale. Creeremo questo kit in collaborazione con la Revenge Porn Helpline (Regno Unito), la Cyber Civil Rights Initiative (USA), la Digital Rights Foundation (Pakistan), la SaferNet (Brasile) e il professor Lee Ji-yeon (Corea del Sud)». Di fianco a queste opzioni, rimane assolutamente prioritaria – per le vittime – la denuncia presso la Polizia Postale.

Incognita WhatsApp.

In tutto questo scenario, rimane un'incognita ancora enorme: WhatsApp. La piattaforma di messaggistica istantanea più importante al mondo funziona con tecnologia end to end. Un metodo molto performante, in fatto di sicurezza delle chat, poiché rende pressoché impossibile entrare in una conversazione fra due utenti. E non è un caso che le forze di polizia di mezzo mondo e alcuni governi siano molto critici nei confronti dell'applicazione. La diffusione di contenuti misogini su WhatsApp è più semplice che altrove. E per porvi rimedio, Facebook (che di WhatsApp è proprietaria), ha studiato alcuni cambiamenti, come il limite ai messaggi inoltrati (solo 5 inoltri per volta). Inoltre sta lavorando, anche in questo caso, ad algoritmi intelligenti che possano bloccare l'invio di alcuni contenuti sul nascere. Ma la strada sembra ancora lunga. Per le vittime, in questo caso, la prima arma di difesa è una denuncia immediata alla Polizia Postale.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti
Loading...