odio in rete

Perché dovremmo contare fino a 3 prima di commentare online

YouTube attiva un avviso agli utenti che stanno per pubblicare commenti offensivi, invitandoli a ripensarci. Rallentare il meccanismo dell’hate speech potrebbe contribuire a ridurre il fenomeno

di Arianna Visconti *

3' di lettura

YouTube mostrerà un avviso agli utenti che stanno per pubblicare commenti potenzialmente offensivi, invitandoli a ripensarci. Non si tratterà di un avviso vincolante, ma solo di un consiglio: l’utente potrà comunque procedere e pubblicare il proprio commento senza modificarlo. La novità, comunicata nei giorni scorsi, fa parte delle misure messe in campo dalla società per ripulire la piattaforma «dal linguaggio d’odio e favorire l’inclusività», come si legge in un comunicato.

Un alert che “raffredda” gli animi

Si tratta di una notizia positiva, in particolare per quel che riguarda l’introduzione di meccanismi di “rallentamento” e “raffreddamento” degli scambi di commenti online. Va detto che, preso da solo, l’uso di filtri automatici desterebbe qualche perplessità, vista la frequente documentata incapacità di questi meccanismi di cogliere contenuti illeciti manifestati in modi meno grossolani e, per altro verso, di discriminare rispetto espressioni satiriche, parodistiche, artistiche perfettamente lecite, come pure il rischio che essi incorporino acriticamente pregiudizi sociali che li portino a “censurare” la voce di gruppi o individui socialmente svantaggiati. Una preoccupazione non a caso presa in considerazione anche dalla Commissione europea nella recentissima proposta di un Digital Services Act, un intervento di coordinamento e uniformazione normativa sopranazionale auspicabile e da molto tempo auspicato, vista la natura “senza confini” dell’ambiente digitale.

Loading...

I fattori che trasformano un utente in un “leone da tastiera”

Ma l’aspetto interessante dell’iniziativa di YouTube risiede proprio nella combinazione con un meccanismo di automoderazione, che sollecita l’utente stesso a considerare l’appropriatezza del proprio commento. L’ecosistema digitale presenta infatti tutta una serie di fattori strutturali che potremmo definire “anomici”, se non addirittura “criminogeni”: anonimato degli utenti (vista l’assoluta prevalenza dell’uso di nickname), mancanza di interazione faccia a faccia (e quindi di percezione della dannosità dei propri comportamenti, con compromissione dell’immedesimazione empatica nel destinatario degli stessi), istantaneità (con conseguente erosione degli spazi di pensiero critico e orientato alle conseguenze), rafforzamento o creazione non solo di bolle cognitive (le cosiddette echo chambers), ma anche di estemporanee “lynching mobs”, imperniate su meccanismi di conformità da molto tempo noti agli psicologi sociali, e così via.

Una soluzione anche per le fake news?

Per questo, interventi che vogliano seriamente prevenire condotte dannose sui social e le altre piattaforme online dovrebbero a loro volta andare ad agire su questi fattori strutturali. Meccanismi automatici di rallentamento dei flussi comunicativi rientrano appieno in questa strategia, perché agiscono ripristinando indispensabili spazi per una considerazione critica delle potenziali conseguenze (umane, prima ancora che, talora, legali) delle proprie azioni online. Tanto è vero che, personalmente, avevo proposto l’adozione di meccanismi di questo tipo (non necessariamente legati a parole-chiave, ma anche a un mero dato temporale, parametrato alla lunghezza del testo/video, anche in sede di primo caricamento, volto a sospendere la pubblicazione per il tempo necessario all’utente per rileggere/rivedere il contenuto e decidere consapevolmente di confermarlo) non solo per la prevenzione di fenomeni di hate speech o comunque “aggressione” verbale online, ma anche nel contrasto alla diffusione delle fake news.

Responsabilizzare è meglio che sanzionare

Sollecitare l’utente stesso, responsabilizzandolo, a considerare, in generale, se il contenuto che sta postando o rilanciando sia fondato/attendibile/appropriato, o se non sia invece inattendibile, potenzialmente offensivo, o addirittura illegale, è certamente una strategia più efficace sia della (assai remota) minaccia di sanzioni per comportamenti che si configurino come illeciti, sia della “censura” e rimozione a posteriori (più invasiva, e comunque sempre per definizione tardiva) di contenuti segnalati come illeciti o offensivi al gestore. È per altro auspicabile che misure di questo tipo, fin qui sostanzialmente affidate all’autoregolamentazione e a singole iniziative dei gestori di social e piattaforme online, siano oggetto di una riflessione sistematica da parte del legislatore (meglio se europeo), in vista dell’introduzione di standard minimi comuni di diligenza per tutti gli operatori del settore.

* Docente di Law and the Arts, Università Cattolica del Sacro Cuore

Riproduzione riservata ©

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti