Hate speech: perché i social proteggono gli odiatori da tastiera


Con l’emergere dei social network come principali spazi di espressione pubblica, il fenomeno dell’hate speech online ha assunto un rilievo giuridico e sociale crescente. Secondo la definizione della Commissione Europea, per discorso d’odio si intende qualsiasi comportamento comunicativo che inciti alla violenza, all’odio o alla discriminazione nei confronti di persone o gruppi sulla base di razza, religione, sesso, orientamento sessuale o altra condizione personale o sociale¹.


La natura transnazionale delle piattaforme digitali e la facilità di anonimato online ostacolano fortemente l’identificazione degli autori di tali contenuti. In Italia, le procure lamentano da anni l’inefficacia degli strumenti a disposizione per ottenere in tempi utili i dati identificativi da soggetti come Meta, X o TikTok². Allo stesso tempo, i limiti imposti dalla normativa sulla privacy e dalle stesse condizioni d’uso delle piattaforme ostacolano la trasparenza e la collaborazione con le autorità giudiziarie.


Esaminiamo il contesto normativo e tecnologico attuale, evidenziando come le resistenze delle piattaforme social all’identificazione degli utenti rappresentino uno dei principali ostacoli alla tutela giuridica contro l’hate speech online.


Il quadro normativo contro l’hate speech online


In Italia, la Costituzione tutela la libertà di manifestazione del pensiero (art. 21), ma tale diritto non è assoluto e incontra limiti nel rispetto della dignità umana e dell’ordine pubblico. La repressione dell’hate speech si basa su norme penali quali:


  • Art. 604-bis c.p., che punisce la propaganda e l’istigazione a delinquere per motivi di discriminazione razziale, etnica e religiosa;
  • Art. 595 c.p., che disciplina la diffamazione, anche tramite mezzi informatici;
  • Art. 612-bis c.p., che sanziona gli atti persecutori, compreso il cyberstalking.
  • A livello sovranazionale, l’articolo 19 del Patto internazionale sui diritti civili e politici tutela la libertà di espressione, ma ne prevede anche restrizioni necessarie “per il rispetto dei diritti o della reputazione altrui”³.


Le difficoltà nel quadro normativo italiano ed europeo


Il Digital Services Act (Reg. UE 2022/2065), entrato in vigore nel 2024, introduce obblighi generali di trasparenza e responsabilità per i fornitori di piattaforme, imponendo a quelli di dimensioni molto grandi (VLOPs) di gestire sistemi di segnalazione efficaci, pubblicare relazioni di trasparenza e cooperare con le autorità⁴. Tuttavia, l’identificazione diretta degli utenti resta possibile solo se la piattaforma decide di conservare e fornire i dati richiesti, cosa che avviene raramente.


Anonimato e privacy: gli ostacoli principali alla repressione dell’hate speech


Una delle principali cause dell’impunità degli autori di hate speech risiede nella possibilità di utilizzare pseudonimi, account fittizi o strumenti di anonimizzazione (VPN oltre confine, rete Tor, server proxy). Tali strumenti, pur legittimi, rendono difficile il tracciamento degli utenti.


La cooperazione delle piattaforme è disomogenea e spesso insufficiente. In molti casi, le autorità italiane non ricevono riscontro dalle sedi legali statunitensi o devono attendere mesi per ottenere dati parziali. Come sottolineato da un’inchiesta de Il Sole 24 Ore, “le big tech si trincerano dietro il rispetto della privacy, anche quando i giudici richiedono informazioni in chiari casi di incitamento all’odio”⁵.


La normativa sulla protezione dei dati personali (Regolamento UE 2016/679 – GDPR) prevede la possibilità di trattamento dei dati per adempiere a un obbligo legale o nell’ambito di un procedimento giudiziario. Tuttavia, molte piattaforme interpretano restrittivamente tali disposizioni, negando l’accesso ai dati se non in presenza di un ordine giudiziario specifico, costringendo le autorità a lunghe rogatorie internazionali⁶.


Difficoltà applicative: tra giurisprudenza e incertezze legislative


La giurisprudenza italiana ha dovuto spesso archiviare procedimenti penali per impossibilità di identificare gli autori di contenuti d’odio. In un noto caso del 2022, il Tribunale di Milano ha disposto l’archiviazione per una serie di commenti razzisti pubblicati su un profilo Facebook intestato a nome falso, nonostante l’apertura di un fascicolo per istigazione all’odio razziale ex art. 604-bis c.p.


Anche a livello europeo, la Corte EDU ha riconosciuto il principio secondo cui l’anonimato online può essere limitato per motivi di sicurezza pubblica o per la tutela dei diritti di terzi⁷. Tuttavia, tale principio resta spesso inattuato, soprattutto in assenza di meccanismi efficaci di cooperazione transfrontaliera.


Il caso della giornalista ambientale italiana minacciata su X e Telegram nel 2023 – documentato dall’International Press Institute – mostra come, nonostante le segnalazioni e le denunce, l’azione giudiziaria sia rimasta bloccata per mancanza di informazioni utili a risalire agli autori⁸.


L’intelligenza artificiale come soluzione per il rilevamento dell’hate speech


Le piattaforme stanno progressivamente adottando strumenti di intelligenza artificiale (IA) per rilevare contenuti illeciti, inclusi i discorsi d’odio. Tuttavia, la precisione dei modelli di IA è variabile e dipende dal contesto linguistico e culturale. Secondo uno studio del 2025 condotto da Oyelami e Tosin, i modelli multilingua come XLM-R ottengono buoni risultati in contesti ad alta risorsa linguistica, ma faticano nei linguaggi minori o nei contenuti ambigui⁹.


Inoltre, l’hate speech è spesso implicito, ironico o contestuale, il che rende difficile l’automazione del riconoscimento. L’algoritmo di TikTok, ad esempio, è stato accusato di amplificare contenuti divisivi in base a metriche di engagement, anche quando questi sfociano nell’estremismo o nella disinformazione¹⁰.


Alcune start-up come Pindrop propongono strumenti per tracciare la voce degli utenti e identificare modelli di disinformazione, ma queste tecnologie restano marginali e sollevano anche rilevanti criticità in termini di sorveglianza e privacy¹¹.


Proposte normative e soluzioni per migliorare la lotta contro l’hate speech


Per superare l’impasse tra privacy e repressione dell’odio online, sono emerse alcune proposte legislative:


  • Registro unico dell’identità digitale per i social media, vincolato a un documento reale (con evidenti criticità costituzionali);
  • Obblighi di data retention estesi alle piattaforme, da armonizzare a livello europeo per evitare forum shopping;
  • Accordi bilaterali tra Stati e big tech, sul modello di CLOUD Act tra USA e UE;
  • Strutture nazionali per la gestione delle richieste di dati, come previsto dal Digital Services Act.


Un’altra opzione è quella di favorire l’autoregolamentazione assistita, attraverso codici di condotta e meccanismi di auditing algoritmico con partecipazione delle autorità e della società civile. L’art. 35 del DSA prevede infatti la possibilità per le autorità nazionali di nominare organismi indipendenti di controllo sulle piattaforme¹².


In Italia, alcuni parlamentari hanno proposto modifiche alla legge sulla diffamazione e alla disciplina sulla responsabilità dei provider (art. 17 del D.lgs. 70/2003), al fine di rendere obbligatoria la collaborazione per contenuti penalmente rilevanti, ma i progetti restano ancora in discussione.


Prospettive future nella lotta all’hate speech online


Il fenomeno dell’hate speech online impone una ridefinizione degli strumenti di tutela giuridica, tenendo conto della natura fluida, globale e algoritmica della comunicazione digitale. La mancata identificazione degli autori non è soltanto un problema investigativo, ma anche una questione di tutela dei diritti fondamentali, poiché mina la fiducia nelle istituzioni e nella possibilità di ottenere giustizia.


Le piattaforme social devono cessare di essere arbitri invisibili del dibattito pubblico e assumere responsabilità proporzionate al loro potere. Senza meccanismi efficaci di tracciamento, collaborazione e trasparenza, la lotta al discorso d’odio resta inefficace e, spesso, solo simbolica.


Il bilanciamento tra anonimato e accountability, privacy e sicurezza, espressione e responsabilità sarà il tema chiave del diritto digitale del prossimo decennio. E solo un approccio giuridico-tecnico integrato, fondato su interoperabilità, verifica e cooperazione, potrà renderlo concretamente gestibile.




Note


[1] Art. 35 Regolamento UE 2022/2065.


[2] Commissione Europea, Code of conduct on countering illegal hate speech online, 2022.


[3] Il Sole 24 Ore, Hate speech sul web, identificazioni ostacolate dalle piattaforme, 2024.


[4] ONU, Patto internazionale sui diritti civili e politici, 1966.


[5] Regolamento (UE) 2022/2065, Digital Services Act.


[6] Il Sole 24 Ore, cit.


[7] Garante Privacy, Linee guida sul trattamento dei dati nei procedimenti giudiziari, 2023.


[8] CEDU, sent. 10 marzo 2020, Magyar Helsinki Bizottság c. Ungheria.


[9] International Press Institute, A Bad Climate: threats to journalists in Italy, 2024.


[10] Oyelami D., Tosin O., Cross-Lingual Transfer Learning for Hate Speech Detection, 2025.


[11] Ahmed M., Disinformation and Algorithmic Radicalization in Bangladesh, Preprints.org, 2025.


[12] Pindrop, AI in the Role of Combating Misinformation, 2024.



Articolo originariamente pubblicato su AgendaDigitale e scritto insieme all'avvocato Niccolò Lasorsa Borgomaneri, studio legale Marsaglia.


Condividi