L’odio ad personam e le molestie online: il quadro informatico-giuridico attuale
Il problema sociale, giuridico, politico e tecnologico dell’odio online inteso in senso “dinamico” e diretto ad personam è, oggi, molto sentito in tutti gli ambiti della società moderna e, per così dire, “digitale”[1].
Si pensi, a puro titolo d’esempio, ai sempre più frequenti episodi che prendono di mira un soggetto (spesso vulnerabile) non solamente al fine di offenderlo ma, addirittura, per condizionare, attraverso un uso distorto delle nuove tecnologie, la sua vita quotidiana e per colpire il suo benessere fisico e psichico.
E ciò diventa sempre più semplice grazie alla possibilità di profilare, in rete, soggetti con patologie o debolezze caratteriali o fisiche ( ci si riferisce, ad esempio, alla raccolta dei dati di utenti che frequentano gruppi di discussione online correlati a una particolare malattia).
I casi più comuni oggi concernono i cosiddetti atti di cyberbullismo[2] (soprattutto tra minori d’età), di cyberstalking,[3] di grooming online (adescamento di bambini a fini sessuali), di estorsione su basi sessuali e d’istigazione al suicidio via web prendendo di mira i soggetti più deboli grazie all’esposizione, spesso volontaria, dei lati della loro personalità più intimi e sensibili.
In questo frangente, le parole d’odio e le azioni conseguenti non mirano (soltanto) a discriminare una minoranza, a offendere pubblicamente un soggetto o a cercare di incitare (e sollevare) violenza nei confronti di terzi, ma sono dirette verso una persona, spesso sconosciuta e non presente fisicamente, per alterarne con coazione il comportamento e l’equilibrio mentale e fisico. Con attività che già sono state definite, da diversi studiosi, quale vero e proprio “terrorismo interpersonale”[4].
Riflettendo su alcune considerazioni riportate in un recente report di UNESCO[5], sarebbero fondamentalmente quattro le differenze che connotano l’online speech, l’istigazione all’odio online, rispetto all’hate speech “tradizionale”.
La prima è la permanenza (o persistenza) dell’odio, ossia la possibilità dell’odio online di rimanere in linea per lunghi periodi di tempo e in diversi formati e di “spostarsi” attraverso varie piattaforme con la possibilità di essere ripetutamente collegato ad altri contenuti. L’architettura della piattaforma influenza direttamente, quindi, il tempo di vita delle discussioni. In ambienti simili a quello di Twitter, sono i trending topics (gli argomenti più discussi in quell’ambiente in un determinato lasso temporale, di solito 24 ore) a facilitare la disseminazione di messaggi d’odio o la loro più o meno ampia visibilità.
La seconda prende la forma di un ritorno imprevedibile dell’odio: anche se il contenuto offensivo è stato rimosso, può riapparire e “vivere” di nuovo in un altro luogo, in un altro tempo, o sulla stessa piattaforma con un altro nome o un’altra area del sistema.
La terza differenza è l’importanza che assume nel mondo online una percezione di anonimato, congiuntamente all’uso di pseudonimi e nomi falsi. Con la possibilità che la rete offre alle persone di (credere) di essere anonimi, in molti si sentono più a loro agio nell’esprimere odio: pensano di non essere scoperti, o di non subire conseguenze.
La quarta differenza è la transnazionalità: aumenta l’effetto dell’hate speech, e pone complicazioni circa l’individuazione dei meccanismi legali per combatterlo.
Per reagire a una situazione simile, che pone tali aspetti innovativi, sono suggerite almeno cinque strategie differenti.
Il primo punto su cui operare sarebbe quello dell’educazione e di un conseguente aumento di consapevolezza, e maggiore attenzione, nelle conversazioni online. Fondamentale sarebbe, poi, chiarire la precisa responsabilità degli opinion makers, dei politici e dei mass media professionali in questo ambito dato che, molto spesso, sono i primi, in determinati contesti, a veicolare espressioni d’odio a fini elettorali (per la raccolta di un facile consenso) e di audience.
Opportuno sarebbe anche ripensare all’intervento della legge e della sanzione penale e di quelle misure giuridiche che si potrebbero coordinare al meglio con le azioni investigative, e valutare l’opportunità di formalizzare il fatto che l’hate speech si debba considerare un vero e proprio crimine in tutti gli Stati.
Utile sarebbe, poi, aprire una discussione pubblica sul punto delle responsabilità per i contenuti odiosi e della necessità di una maggiore trasparenza nella gestione delle informazioni da parte delle community online più frequentate e delle piattaforme di social media. In molti dibattiti si sostiene, infatti, che i provider non starebbero affrontando con sufficiente serietà la questione.
Un aspetto interessante potrebbe essere, infine, quello di stimolare lo sviluppo di misure tecniche utili anche per controllare alcuni aspetti della messa in circolazione dell’odio in rete: si pensi a sistemi di filtraggio dei contenuti individuati come estremi (con tutti i pericoli conseguenti di “soffocare” forme di parlato legittime) o, addirittura, alla possibilità di influenzare i discorsi in rete, e la loro visibilità o meno, tramite algoritmi.
Con riferimento agli strumenti di reazione, infine, il rapporto ne elabora cinque.
Il primo consiste in un processo di monitoring e di analisi dell’odio da parte della società civile, e l’idea è quella di disegnare una mappa e di tenere sotto controllo gli episodi d’odio con riferimento a una determinata zona territoriale o a parti della società.
Il secondo punto prevede un’attività di promozione, presso i singoli individui, di contro-parlato (o contro-narrazione che dir si voglia) che vada a individuare gli specifici episodi e le precise espressioni, e cerchi di mitigarli.
Una terza azione efficace potrebbe essere quella di coordinare, all’interno delle organizzazioni non governative, il processo di denuncia alle autorità dei casi più violenti di odio online.
La quarta reazione utile sarebbe certamente una campagna di sensibilizzazione, congiuntamente a una strategia di intervento, di tutte quelle società informatiche che ospitano, o fanno transitare sulle loro piattaforme, determinati contenuti.
La quinta risposta potrebbe essere strutturale, ossia il dare potere agli utenti tramite un percorso educativo e di training conoscitivo, affinché sviluppino un’etica, un “galateo” e capacità necessarie per gestire la corretta, libera espressione su Internet. Il termine in lingua inglese per questa azione, molto suggestivo, è Media and Information Literacy.
Unire tutte le precedenti azioni di risposta e di reazione all’odio online, anche in maniera creativa, può produrre risultati concreti, contribuendo a far rimanere Internet un luogo potenzialmente positivo e aiutando a costruire e mantenere la società della conoscenza sulla base della pace, dei diritti umani e di uno sviluppo sostenibile.
Un ulteriore fattore importante di differenza tra odio online e odio offline è che, nonostante la maggior parte delle espressioni d’odio siano, anche in rete, portate nei confronti di etnia e nazionalità (con una crescita sensibile di offese su religione e classe sociale), l’odio online si distingue per tre fattori molto importanti: il mondo online rende inefficaci o inappropriate alcune misure pensate per gestire l’odio sui media tradizionali; si registra una sensibile differenza tra un messaggio online che desta nessuna o poca attenzione e uno che, invece, diventa virale, per cui i messaggi possono essere diversi tra loro anche in un’ottica di “impatto sociale”; vi è un problema di applicazione della legge su piattaforme che hanno sedi in diversi Paesi del mondo.
Quindi, se l’hate speech online, per quanto riguarda i “temi”, non è intrinsecamente diverso da simili espressioni trovate offline, ci sono sfide uniche che sono portate dal contenuto online e dalla sua regolamentazione.
A nostro avviso, i due aspetti più problematici che lo studio UNESCO individua, e che sono caratteristici dell’odio online, sono la permanence e la itinerancy.
L’idea di permanence l’abbiamo già esposta poco sopra: più il contenuto rimane online, più il danno potenziale da infliggere alla vittima aumenta, e più questa caratteristica dà un senso di potere a chi porta avanti le espressioni d’odio.
Al contempo, se si riesce a rimuovere il contenuto in una fase avanzata, si può in qualche modo limitare l’esposizione al danno.
L’architettura che caratterizza le differenti piattaforme può, poi, permettere all’argomento dell’espressione d’odio di rimanere vivo per periodi più lunghi o più brevi. Le conversazioni su Twitter organizzate attorno ai trending topics, ad esempio, possono facilitare l’ampia e veloce diffusione di messaggi di odio, ma permettere anche a tali messaggi di essere più evidenti e, quindi, contrastabili o eliminabili. Facebook, al contrario, permette delle conversazioni multiple e in parallelo, con catene di commenti, che possono non essere notati (a meno che non siano segnalati), creando in questo caso degli spazi che permettono agli aggressori di offendere, dileggiare o discriminare i soggetti che hanno preso di mira.
Il secondo aspetto fa notare invece come l’hate speech online possa essere itinerante.
Il significato è semplice da comprendere: anche quando il contenuto è stato rimosso, può trovare espressione altrove, anche sulla stessa piattaforma con un nome differente o in diversi spazi online. Se un sito web è oscurato, può essere riaperto presso un servizio di web hosting che abbia politiche meno stringenti del precedente, o migrando in un Paese dove le leggi sull’hate speech siano meno rigorose. La durata dei materiali di hate speech online è unica, a causa dei bassi costi di produzione e di diffusione, e al potenziale costante che possano essere ripescati o fatti rivivere immediatamente, tanto che possono riapparire quando il discorso prende una determinata direzione.
Si è in presenza, in definitiva, di un fenomeno in evoluzione e che richiede sforzi collettivi. Il focalizzarsi solo sulle misure repressive può far perdere di vista la complessità di un fenomeno che è ancora poco compreso e che domanda interventi personalizzati e risposte coordinate da una serie di differenti attori nella società.
Interessante può essere l’idea di rendere social anche il processo di moderazione e di controllo all’interno delle grandi piattaforme, permettendo agli utenti di risolvere le controversie tra loro o di segnalare, anche insieme, certi comportamenti. Tale idea di social reporting può essere anche più ampia dei limiti restrittivi dell’odio online, ossia dare anche la possibilità a un utente di segnalare espressioni che comunque non violano la policy e i termini di servizio ma che sono offensivi.
[1] Le idee esposte in questo post sono approfondite nel libro di Giovanni Ziccardi, L’odio online, Raffaello Cortina, Milano, 2016.
[2] Sul punto, per approfondire, si veda Ian Rivers, Bullismo omofobico. Conoscerlo per combatterlo, Milano 2015. Si vedano, sullo stesso tema, Maurizio Bartolucci (a cura di), Bullismo e cyberbulling, Rimini 2015; Maria Luisa Genta, Antonella Brighi, Annalisa Guarini, Cyberbullismo. Ricerche e strategie di intervento, Milano 2013.
[3] Si vedano Francesco Bartolini, Lo stalking e gli atti persecutori nel diritto penale e civile, Piacenza 2013; Giulio Berri, Stalking e ipotesi di confine, Milano 2012; Francesca M. Zanasi, L’odioso reato di stalking, Milano 2012.
[4] Si vedano, inter alia, Brian H. Spitzberg, Gregory Hoobler, “Cyberstalking and the technologies of interpersonal terrorism”, in New Media & Society, 4, 1, 2002, pp. 71-92.
[5] Ci si riferisce allo studio di UNESCO denominato “Countering online hate speech”, del 2015, consultabile all’indirizzo https://unesdoc.unesco.org/ark:/48223/pf0000233231