La libertà di manifestare il proprio pensiero, anche politico, sui social network non è illimitata. Quando l’espressione si trasforma in incitamento all’odio o alla discriminazione, le piattaforme come Facebook non solo possono, ma devono intervenire. Un’importante sentenza del Tribunale di Roma ha chiarito che il rispetto della dignità umana prevale, imponendo la chiusura delle pagine che violano questi principi fondamentali.
Libertà di espressione e i suoi limiti invalicabili
Il diritto di esprimere le proprie opinioni è un pilastro della nostra democrazia, ma non può essere usato come scudo per giustificare messaggi d’odio. La legge stabilisce confini precisi: la critica, anche aspra, è legittima, mentre la discriminazione e l’incitamento alla violenza non lo sono. Questo principio si applica con particolare rigore agli spazi digitali, dove la diffusione virale dei contenuti può amplificare enormemente i danni.
La decisione del tribunale ha ribadito che nessuna associazione, nemmeno se legata a un partito politico, può utilizzare i social media per veicolare messaggi che ledono i diritti fondamentali delle persone. Il dibattito politico deve svolgersi nel rispetto della dignità altrui, senza degenerare in attacchi basati su razza, genere, orientamento sessuale, religione o altre condizioni personali.
La responsabilità dei social network
Le piattaforme come Facebook non sono semplici bacheche passive, ma soggetti con precise responsabilità. In base alle normative nazionali ed europee, e agli stessi termini di servizio che gli utenti accettano, i gestori dei social network hanno l’obbligo giuridico di rimuovere i contenuti illegali. Questo dovere non è una facoltà, ma un’imposizione che, se disattesa, può comportare sanzioni e responsabilità legali.
Questo obbligo include:
- Controllo dei contenuti: Le piattaforme devono dotarsi di sistemi per identificare e valutare le segnalazioni relative a discorsi d’odio.
- Rimozione tempestiva: Una volta accertata la violazione, i contenuti devono essere rimossi rapidamente per limitarne la diffusione.
- Chiusura dei profili: Nei casi più gravi o reiterati, le piattaforme sono tenute a chiudere le pagine e i profili degli amministratori responsabili della diffusione di messaggi d’odio.
Cosa possono fare gli utenti per difendersi
I consumatori e gli utenti hanno un ruolo attivo nel contrastare la diffusione dell’odio online. È fondamentale conoscere gli strumenti a propria disposizione e usarli correttamente per contribuire a un ambiente digitale più sicuro e rispettoso.
Come segnalare una pagina o un contenuto su Facebook
Se incontri un post, un commento o una pagina che ritieni inciti all’odio, la prima azione da compiere è la segnalazione diretta alla piattaforma. La procedura è semplice:
- Clicca sui tre puntini (…) accanto al post o sulla pagina che vuoi segnalare.
- Seleziona l’opzione “Trova assistenza o segnala”.
- Scegli la motivazione più pertinente, come “Incitamento all’odio” (Hate Speech).
- Segui le istruzioni a schermo per specificare il tipo di odio (ad esempio, basato su razza, religione, orientamento sessuale).
È importante non limitarsi a bloccare l’utente, ma completare la segnalazione, poiché solo così la piattaforma può avviare una verifica e prendere provvedimenti. Inoltre, è consigliabile non interagire con il contenuto offensivo, evitando commenti o condivisioni che ne aumenterebbero la visibilità.
Per assistenza o per segnalare il tuo caso, contatta Sportello Consumatori.