immagine realizzata con IA Midjourney

REPORT 2024

Informazione, un cambio di paradigma? L’impatto del Digital Services Act sul mondo dell’informazione

Ginevra Cerrina Feroni
Vicepresidente autorità Garante dei dati personali

  1. Il Regolamento UE “Digital Services Act” nel quadro giuridico europeo

Una componente significativa dell’economia europea e della vita quotidiana dei suoi cittadini è rappresentata dai servizi della società dell’informazione e, in particolare, dai servizi intermediari. È noto, tuttavia, come l’inarrestabile trasformazione digitale e il maggiore utilizzo di tali servizi da parte dei cittadini abbiano dato origine a nuovi rischi e sfide per i singoli destinatari dei vari servizi, per le imprese e per la società nel suo complesso.

Per superare l’inadeguatezza della Direttiva sul commercio elettronico 2000/31/CE [1] ad affrontare tali sfide (in particolare in punto di regime di responsabilità e di armonizzazione sul territorio dell’Unione europea) la strategia europea del Digital Single Market intende perseguire due obiettivi fondamentali di politica legislativa: da un lato, tutelare i diritti e le libertà fondamentali delle persone fisiche attraverso la rimozione dei contenuti illeciti diffusi al pubblico; dall’altro responsabilizzare i fornitori dei servizi. Nell’ambito di tale strategia, il Regolamento (UE) 2022/2065 (anche noto come “Digital Services Act” o “DSA”) si prefigge così di rimuovere gli ostacoli alla crescita del mercato digitale europeo, incentivando l’offerta di contenuti e servizi digitali [2]. In particolare il suo obiettivo principale è quello di rimodulare il regime di responsabilità previsto dalla previgente Direttiva sul commercio elettronico 2000/31/CE, a seconda della tipologia e delle dimensioni degli intermediari.

Analogamente a quanto previsto da tale ultima Direttiva, il Regolamento disciplina gli obblighi degli intermediari a seconda che forniscano servizi di semplice trasporto (cd. mere conduit)[3], memorizzazione temporanea (cd. caching)[4] e memorizzazione di informazione (cd. hosting)[5]. Tra gli intermediari dei servizi di hosting sono a loro volta ricomprese le “piattaforme online”, definite quali fornitori di servizi di memorizzazione e di diffusione di informazioni al pubblico, su richiesta di un destinatario del servizio[6]. I motori di ricerca sono qualificati come quei fornitori di servizi intermediari che consentono agli utenti di effettuare ricerche sui siti web, a partire da un’interrogazione sotto forma di input di diverso tipo[7]. A norma dell’art. 33 del Regolamento, le piattaforme e i motori di ricerca online con un numero medio mensile di utenti nell’Unione europea pari o superiore a 45 milioni sono designati come piattaforme o motori di ricerca “di dimensioni molto grandi”. Si tratta dei fornitori di servizi digitali designati dalla Commissione europea con atto formale del 25 aprile 2023, con cui sono stati individuate 17 grandi piattaforme online e 2 motori di ricerca online di grandi dimensioni[8].

A differenza del regime di responsabilità previsto dalla vecchia Direttiva, la quale si limitava a regolare il settore dell’e-Commerce e a garantire, pur con alcune deroghe, la libera circolazione dei servizi della società dell’informazione, il Regolamento tenta di assicurare un maggior controllo democratico sugli intermediari di grandi dimensioni. A questi ultimi sono applicabili degli oneri supplementari rispetto agli altri intermediari, al fine di attenuare i rischi sistemici dei loro servizi online sui diritti e sulle libertà fondamentali[9]. Tra questi, vi sono anche quelli diretti a incidere sulla libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media, sanciti dall’art. 11 della Carta dei diritti fondamentali dell’Unione europea[10].

 

  1. La tutela della libertà di informazione e del pluralismo dei media all’interno del Digital Services Act

Diverse sono le disposizioni del Regolamento che possono incidere sul business model e sulle prassi delle grandi piattaforme online nel proteggere la libertà giornalistica e il pluralismo dei media[11].    
L’art. 14 del Regolamento introduce l’obbligo di predisporre condizioni generali che descrivano anche «le politiche, le procedure, le misure e gli strumenti utilizzati ai fini della moderazione dei contenuti, compresi il processo decisionale algoritmico e la verifica umana», al fine di rendere maggiormente trasparente il processo decisionale delle grandi piattaforme. Tali condizioni generali dovranno però essere redatte in un linguaggio chiaro e pubblicate in un formato facilmente accessibile agli utenti online, tenendo in debita considerazione la libertà di espressione e il pluralismo mediatico e, dunque, la posizione privilegiata detenuta dai professionisti dell’informazione.

Ai sensi dell’art. 15 del Regolamento le piattaforme online di grandi dimensioni sono soggette all’obbligo di pubblicazione annuale di un report analitico che descriva analiticamente le attività di moderazione e di limitazione degli account e degli altri servizi, non solo derivanti da segnalazioni di altri utenti, ma anche da decisioni assunte in via automatica dalle piattaforme. In sostanza la disposizione ha lo scopo di gettare luce sull’attività di moderazione spesso criticata dagli esperti e dalle comunità di utenti come eccessivamente opaca e arbitraria. Una volta rese pubbliche queste informazioni, potrebbe essere possibile esercitare un controllo maggiormente democratico su come le piattaforme regolano la libertà di espressione.

Similmente a quanto già previsto dalla previgente Direttiva sul commercio elettronico, il Regolamento individua come rimedio principale per la diffusione di contenuti illeciti le cd. procedure di notice-and-take-down, ulteriormente riformate e valorizzate, nella corrente accezione di moderazione dei contenuti. In base all’art. 16 del Regolamento, le grandi piattaforme online dovranno definire meccanismi di segnalazione e rimozione dei contenuti illegali che dovranno essere facilmente accessibili e fruibili dagli utenti tramite adeguate interfacce, pulsanti o webform elettronici. Questa disposizione, a taglio marcatamente operativo, deve essere letta in collegamento con l’art. 14 su richiamato, relativo all’obbligo di predisporre termini contrattuali idonei. Così facendo le grandi piattaforme online saranno tenute a dare esecuzione a tali condizioni contrattuali, con i propri processi di moderazione, senza tuttavia violare o comprimere indebitamente i diritti e gli interessi di tutte le parti coinvolte nella content moderation, agendo in modo diligente, obiettivo e proporzionato, alla luce dei diritti fondamentali sanciti dalla Carta di Nizza dell’UE e della Carta europea dei diritti dell’uomo[12].   
Rispetto alla Direttiva sul commercio elettronico, il Regolamento offre dei rimedi procedurali concreti agli utenti, i quali potranno opporsi alle decisioni di rimozione delle grandi piattaforme online ritenute infondate o sproporzionate. L’art. 20 del Regolamento obbliga infatti le piattaforme di grandi dimensioni a riscontrare tempestivamente i reclami degli utenti e a instaurare sistemi efficaci di gestione degli stessi, da cui discende un obbligo di mettere a disposizione degli utenti un sistema di presa in carico dei reclami accessibile e di facile uso. Con la medesima ratio, l’art. 17 del Regolamento impone alle piattaforme online di motivare in modo chiaro e specifico perché determinati contenuti siano stati rimossi, disabilitati, oscurati o retrocessi, o perché gli account siano chiusi o sospesi. Questa garanzia può essere essenziale, ad esempio, per un giornalista il cui account sia stato oggetto di una misura di blocco. Ancora, si pensi al caso ipotetico di un editore a cui sia stato rimosso un post contenente un articolo di cronaca. Queste garanzie procedurali sono volte a consentire agli utenti di comprendere sulla base di quali motivazioni i propri contenuti siano stati censurati, o gli account bloccati. L’art. 17, paragrafo 3 del Regolamento precisa poi il contenuto minimo che devono possedere le motivazioni, ovvero l’oggetto, i fatti e le circostanze su cui si basano, le informazioni sulle logiche automatizzate eventualmente impiegate, l’illiceità del contenuto, la violazione dei termini e condizioni e le modalità per fare ricorso. In sostanza la piattaforma sarà tenuta a spiegare perché il contenuto contrasti con le clausole dei propri termini contrattuali, o sulla base di quale normativa sia ritenuto illecito. L’introduzione di questi opportuni obblighi rafforza il contraddittorio dell’utente con la piattaforma, introducendo una garanzia di tipo procedurale ma sostanziale se implementata efficacemente.

Il Regolamento sottopone le “grandi” piattaforme online, in quanto censori de facto del dibattito pubblico, ad obblighi ulteriori e in particolare prevede una certa supervisione del loro operato. L’art. 34 del Regolamento richiede infatti alle grandi piattaforme online di valutare se la progettazione e/o il funzionamento dei propri servizi comportino rischi per i diritti fondamentali degli utenti, ivi incluso il diritto all’accesso a un’informazione libera e plurale ([13]). Durante l’attività di risk assessment (la quale, comunque, necessita di essere debitamente documentata), devono essere individuati, analizzati e valutati, inter alia, i sistemi algoritmici e di moderazione dei contenuti, le condizioni generali applicabili alla rimozione dei contenuti e la loro applicazione, nonché la manipolazione intenzionale dei servizi prestati, tramite l’uso non autentico o automatizzato degli stessi ([14]). In sostanza, deve essere svolta una valutazione su come i servizi digitali possano incidere negativamente sulla libertà di espressione e sul pluralismo mediatico. Una volta analizzati i rischi, le grandi piattaforme sono tenute a mitigarli, adottando misure concrete e adattate agli specifici rischi sistemici, in conformità all’art. 35 del Regolamento. Tali misure ragionevoli, proporzionate e efficaci possono comprendere l’adeguamento della progettazione dei servizi e delle relative interfacce, la modifica dei termini contrattuali, la revisione dei processi di moderazione dei contenuti e l’adattamento dei sistemi algoritmici. In altre parole, le piattaforme online di grandi dimensioni hanno l’obbligo di condurre un assessment sugli effetti negativi che potrebbero ripercuotersi sulla libertà di espressione degli utenti e sul pluralismo dei media garantendo di prevenire e correggere possibili conseguenze pregiudizievoli derivanti dall’uso dei propri servizi.

 

  1. Il Regolamento applicato alla prassi giornalistica online

È innegabile che le grandi piattaforme online hanno assunto una posizione predominante nella governance della libera circolazione delle informazioni e, dunque, dell’espressione della libertà di pensiero. Nel panorama digitale l’operatività di diverse piattaforme, dotate di funzionalità di social networking (come ad esempio Facebook), di servizi di blogging e microblogging (come “X”), di condivisione di immagini e video anche live streaming (si pensi a Instagram, YouTube e TikTok), ha radicalmente mutato il modo con cui si può fare informazione e cambiato le professionalità coinvolte nel settore giornalistico. Le grandi piattaforme online hanno assunto infatti il ruolo cruciale di intermediare gli scambi di informazioni tra editori e giornalisti da un lato, e utenti destinatari delle notizie dall’altro, esercitando funzioni pubblicistiche che risultano incompatibili con i parametri costituzionali contemporanei[15]. Pertanto con il Regolamento sui servizi digitali il legislatore europeo è opportunamente intervenuto, con l’obiettivo di responsabilizzare le grandi piattaforme online ricorrendo a strumenti giuridici di hard law e abbandonando la via della soft-law[16].

Pur rappresentando un apprezzabile passo avanti nella regolazione della circolazione delle informazioni all’interno dell’Unione europea, il Regolamento sui servizi digitali presenta tuttavia non poche criticità, con implicazioni significative per la libertà di espressione e il pluralismo mediatico.

Nonostante i dichiarati obiettivi di tutela della libertà di stampa e di pensiero, il Regolamento ricorre a concetti normativi vaghi e di difficile applicazione concreta in sede di enforcement. Primo tra tutti la definizione di “contenuto illegale” viene demandata al diritto dell’Unione europea o domestico degli Stati membri, contrariamente agli intenti di armonizzazione della disciplina a livello europeo. Come è stato osservato criticamente[17], non circoscrivere la nozione di “contenuto illegale”, rinviando a normative nazionali, potrebbe condurre a orientamenti diversificati all’interno dell’Unione europea, con il rischio di conferire in prospettiva alle grandi piattaforme online margini di discrezionalità e di potere incontrollati e incontrollabili nella definizione dei propri termini contrattuali, nonché nella successiva fase di moderazione dei contenuti.

È ormai pacifico che i termini e condizioni generali delle grandi piattaforme online, pur inquadrandosi formalmente come contratti, intesi a disciplinare la fornitura dei servizi tra gli intermediari e gli utenti, destinatari di tali servizi, assurgono a vere e proprie norme[18], dichiaratamente poste a tutela dei diritti e delle libertà fondamentali coinvolti nella circolazione dei contenuti online. Tuttavia il contenuto di tali condizioni contrattuali risulta spesso vago e ambiguo, nonché scarsamente in linea con la tradizione giuridica europea in materia di tutela del libero pensiero, quale delineata dalla giurisprudenza consistente della Corte europea dei diritti dell’uomo e della Corte di Giustizia dell’Unione europea. È assodato infatti che gli standard interni di moderazione dei contenuti, volti a precisare i parametri di moderazione sulla base dei terms of service delle piattaforme online, sono elaborate da una ristretta comunità di giuristi statunitensi, con tutto il proprio bagaglio culturale e giuridico[19].

Rispetto alla cd. content moderation emerge uno dei principali risvolti paradossali del nuovo quadro giuridico delineato dal Regolamento, ossia l’assenza di separazione di poteri tra chi decide quali contenuti online debbano essere ritenuti illegali o leciti e chi li modera. Nella prassi gli utenti destinatari dei servizi dell’informazione segnalano un contenuto perché ritenuto, a loro avviso, contrario ai termini contrattuali della piattaforma (ad es. l’articolo di cronaca in violazione dei termini posti a tutela dei diritti di copyright). Una volta ricevuta la segnalazione, i moderatori umani e le logiche algoritmiche della piattaforma verificano se il contenuto sia o meno illegale e ne dispongono eventualmente la cancellazione. In altre parole viene demandato ai moderatori, o a un processo decisionale automatico, il bilanciamento dei diritti sottesi alla richiesta di rimozione dei contenuti (come la tutela della riservatezza o dell’immagine), con la libertà di espressione e il diritto di cronaca. Le grandi piattaforme online, che oggi consentono la più grande diffusione delle informazioni sono così, al contempo, i soggetti chiamati a controllarle e censurarle, spesso agendo con opacità. Peraltro non è dato sapere come i moderatori siano istruiti e formati dalle società titolari delle grandi piattaforme, o quali policy interne vigano all’interno delle strutture societarie, a orientamento delle proprie delicate valutazioni, spesso con conseguenze fatali per la libertà di espressione[20]. Purtroppo non sono infrequenti le ipotesi in cui le piattaforme online di grandi dimensioni hanno interferito in modo arbitrario, eccessivo e sproporzionato nell’esercizio del diritto di cronaca e della manifestazione del liberto pensiero.

Un esempio notevole in tal senso è il caso che a giugno 2019 ha riguardato l’account Instagram del programma satirico giovanile della radio svedese “Think Tank” (Tankesmedjan), rimosso senza preavviso. Al team che gestiva l’account social era stata inviata una generica comunicazione secondo la quale il post avrebbe violato le regole della piattaforma senza alcuna ulteriore spiegazione. L’emittente radiofonica che ospitava il programma Swedish Radio aveva contattato la sede svedese della piattaforma, la quale comunicava la criticità al team di moderazione internazionale. Soltanto dopo due settimane l’account in questione veniva ripristinato. L’episodio evidenzia la scarsa trasparenza organizzativa interna del social network che, tuttavia, può avere conseguenze significative per un editore.

Un altro caso emblematico ha riguardato il social network Facebook il quale nel 2020 rimosse tutti gli articoli pubblicati del Guardian e diffusi nuovamente dagli utenti riguardanti un reportage sugli aborigeni australiani perché apparivano immagini di nudità[21]. Qualche anno prima, la medesima piattaforma aveva censurato l’iconica “Napalm Girl”[22] perché ritenuta un contenuto pedopornografico dai propri algoritmi. In effetti, in entrambi i casi le fotografie rappresentavano una nudità in violazione dei termini della piattaforma. Eppure è indubbio che quelle immagini storiche rivestissero un valore giornalistico inestimabile che deve essere tenuto in considerazione.

Come si evince dagli esempi descritti, le logiche algoritmiche sottese ai processi di moderazione dei contenuti delle piattaforme online di grandi dimensioni amplificano ed esasperano le criticità sottese alla governance privatistica delle informazioni. In passato, si riteneva che gli algoritmi potessero offrire maggiori garanzie in termini di accuratezza e di bias rispetto ai moderatori umani. In realtà, diversi studi confermano che i sistemi di moderazione algoritmici e basati sull’intelligenza artificiale operano in modalità opache e parziali, con conseguenze spesso discriminatorie per gli utenti[23]. Dunque le grandi piattaforme online divenendo sempre più proattive nella moderazione hanno assunto un ruolo di veri e propri arbitri della libertà di espressione, selezionando in via preventiva i contenuti leciti o, comunque, considerabili eticamente accettabili. Si potrebbe argomentare che il Regolamento tenta di offrire ai giornalisti e agli editori dei rimedi procedurali, con ricadute sostanziali in termini di protezione dei contenuti giornalistici, come l’obbligo di motivazione e la possibilità di contestare le decisioni di rimozione. Tuttavia la gestione di un reclamo di una piattaforma, per quanto effettuata anche con logiche in parte automatizzate, richiede comunque tempo. Eppure è noto che nel mondo dell’informazione il fattore temporale è essenziale in quanto una notizia che ha valore oggi potrebbe non averne più alcuno l’indomani. Nelle parole della Corte EDU nel caso “Observer & Guardian c. The United Kingdom”: «le notizie sono un bene deperibile e ritardarne la pubblicazione, anche per un breve periodo, può privarle di tutto il loro valore e interesse» [24]. Quindi vi è in gioco l’attualità dell’informazione che potrebbe soccombere nell’attesa che la grande piattaforma online gestisca il reclamo presentato dal giornalista o dall’editore[25]. Peraltro anche la reputazione di una testata giornalistica costituisce un interesse meritevole di tutela o, quantomeno, un elemento che la grande piattaforma online dovrebbe tenere in considerazione nella fase di moderazione e di decisione del reclamo.

Pur essendo apprezzabile, da un lato, lo sforzo del legislatore europeo di responsabilizzare le grandi piattaforme online, secondo un approccio risk-based non si può escludere che gli obblighi di valutazione e di attenuazione dei rischi sistemici previsti dagli artt. 34 e 35 del Regolamento possano avere un impatto non necessario e sproporzionato sulla libertà di espressione dei professionisti dell’informazione e degli utenti. Difatti, il Regolamento conferisce a questi soggetti, di natura privatistica, il bilanciamento dei diritti e libertà fondamentali delle persone fisiche, nella continua valutazione e ridefinizione delle proprie procedure interne, delle interfacce tecnologiche implementate, e dei processi algoritmici, tuttavia senza circoscrivere in modo chiaro e specifico i margini di intervento per conformarsi agli obblighi imposti. Sul punto la definizione di tali aspetti operativi viene lasciata agli orientamenti sull’applicazione del Regolamento, emanati dalla Commissione europea. A titolo esemplificativo non sono specificati la metodologia di conteggio degli utenti attivi di una piattaforma per determinarne la grandezza, i processi di revisione e di audit delle grandi piattaforme online e gli standard di valutazione delle piattaforme di grandi dimensioni da parte delle Autorità di controllo designate a livello domestico. Pertanto l’effetto paradossale delle norme del Regolamento potrebbe essere quello di accrescere i margini di discrezionalità di tali soggetti privati, definiti non impropriamente “Stati dai confini immateriali” per la natura pubblicistica delle funzioni svolte[26].

 

  1. Conclusioni: il DSA tra aspirazioni democratiche e poteri incontrollati e incontrollabili dei big player tecnologici

Il Regolamento sui servizi digitali non è un plesso normativo centrato sulla libertà di stampa e sul pluralismo mediatico a differenza di altre normative di livello europeo. Tuttavia è indubbio che le sue disposizioni avranno un impatto decisivo sul giornalismo contemporaneo e, in prospettiva, sulla qualità del dibattito pubblico[27].

A tal proposito, come si è visto, accanto a importanti innovazioni il Regolamento presenta alcuni limiti. Le previsioni del Regolamento avrebbero dovuto circoscrivere la nozione di contenuto “illegale”, armonizzandola a livello europeo, onde evitare possibili contrasti nell’attività di enforcement da Stato membro a Stato membro e ingenerare incertezze applicative del diritto, che andranno a impattare sull’operatività delle piccole e medie imprese, lasciando essenzialmente impregiudicate le prerogative dei grandi player. Non risulta peraltro chiarito, all’interno del Regolamento, come le differenti Autorità di controllo coinvolte dovranno coordinarsi nel caso di giurisdizione congiunta.

Inoltre nonostante il Regolamento tenti dichiaratamente di assicurare un controllo democratico sulla diffusione dell’informazione da parte di quei soggetti diventati veri e propri “arbitri” della circolazione delle idee, esso lascia a futuri atti di esecuzione della Commissione europea la definizione di numerosi aspetti essenziali, limitandosi a prevedere un generico dovere di responsabilizzazione delle grandi piattaforme online rispetto alla mitigazione dei “rischi sistemici”. Resta tutta da vedere l’implementazione concreta degli obblighi previsti dal Regolamento, soprattutto con riferimento all’attività di risk assessment e di mitigation delle grandi piattaforme online. Ad esempio, come si valuterà in concreto se il social network di grandi dimensioni ha tenuto debitamente conto del pluralismo mediatico nella rimozione dei post? Come si potrà garantire la modifica, da parte dei social media, dei sistemi algoritmici che hanno rimosso in modo arbitraria degli articoli di giornale, se gli algoritmi sono protetti come trade secret? E come saranno effettuati gli audit su tali algoritmi, sulla base di quali criteri?

Pur prefiggendosi l’obiettivo di ridisegnare un miglior bilanciamento tra diritti e interessi contrapposti, il Regolamento sui servizi digitali, così come formulato, nella sua vaghezza, pare non affrontare compiutamente le future sfide che deriveranno dalla ormai onnipresente e pervasiva governance privata della Rete.

NOTE

[1] Direttiva 2000/31/CE del Parlamento Europeo e del Consiglio dell’8 giugno 2000 relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno («Direttiva sul commercio elettronico».

[2] Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (Regolamento sui servizi digitali). Il Regolamento si applicherà a partire dal 17 febbraio 2024 ai servizi offerti agli utenti ubicati nel territorio dell’Unione europea (Art. 93).

[3] Servizio consistente nel trasmettere, su una rete di comunicazione, informazioni fornite da un destinatario del servizio o nel fornire un accesso a una rete di comunicazione.

[4] Servizio consistente nel trasmettere, su una rete di comunicazione, informazioni fornite da un destinatario del servizio stesso.

[5] Servizio della società dell’informazione consistente nella memorizzazione di informazioni fornite da un destinatario del servizio medesimo.

[6] Articolo 3, par. 1, let. i) del Regolamento DSA: “«piattaforma online»: un servizio di memorizzazione di informazioni che, su richiesta di un destinatario del servizio, memorizza e diffonde informazioni al pubblico, tranne qualora tale attività sia una funzione minore e puramente accessoria di un altro servizio o funzionalità minore del servizio principale e, per ragioni oggettive e tecniche, non possa essere utilizzata senza tale altro servizio e a condizione che l’integrazione di tale funzione o funzionalità nell’altro servizio non sia un mezzo per eludere l’applicabilità del presente regolamento”.

[7] Articolo 3, par. 1, let. i) del Regolamento DSA: “«motore di ricerca online»: un servizio intermediario che consente all”utente di formulare domande al fine di effettuare ricerche, in linea di principio, su tutti i siti web, o su tutti i siti web in una lingua particolare, sulla base di un’interrogazione su qualsiasi tema sotto forma di parola chiave, richiesta vocale, frase o di altro input, e che restituisce i risultati in qualsiasi formato in cui possono essere trovate le informazioni relative al contenuto richiesto”.

[8] Si veda il comunicato stampa della Commissione europea “Digital Services Act: Commission designates first set of Very Large Online Platforms and Search Engines” del 25 aprile 2023. La Commissione europea ha individuato 17 grandi piattaforme online (Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando), e 2 grandi motori di ricerca online (Google Search, Bing).

[9] Si veda il Considerando n. 137 del Regolamento.

[10] Si può ritenere che l’interpretazione dei diritti fondamentali a cui il Regolamento fa riferimento possa essere quella della vasta giurisprudenza della Corte europea dei diritti dell’uomo in materia, ai sensi dell’articolo 10 della Convenzione europea dei diritti dell’uomo. Si ricorda infatti che la Corte di Giustizia dell’Unione europea ha stabilito che all’articolo 11 della Carta dei diritti fondamentali dell’Unione europea deve essere attribuito “lo stesso significato e la stessa portata” dell’art. 10 della CEDU, anche come “interpretato dalla giurisprudenza della Corte europea dei diritti dell’uomo”. Cfr. Spiegazioni relative alla Carta dei diritti fondamentali, in GUUE, C-303 del 14 dicembre 2007, p. 14 ss.

[11] Si veda il Considerando n. 153 del Regolamento, a mente del quale: “Il presente regolamento rispetta i diritti fondamentali riconosciuti dalla Carta e i diritti fondamentali che fanno parte del diritto dell’Unione in quanto principi generali. Il presente regolamento dovrebbe di conseguenza essere interpretato e applicato conformemente a tali diritti fondamentali, tra cui la libertà di espressione e di informazione e la libertà dei media e il loro pluralismo. Nell’esercitare i poteri stabiliti nel presente regolamento, tutte le autorità pubbliche coinvolte dovrebbero pervenire, nelle situazioni di conflitto tra i pertinenti diritti fondamentali, a un giusto equilibrio tra i diritti in questione, conformemente al principio di proporzionalità”.

[12] Cfr. il Considerando 47 del Regolamento.

[13] Cfr. il Considerando 81 del Regolamento.

[14] Come noto, l’uso distorto dei servizi digitali può condurre a una diffusione incontrollata di disinformazione, spesso idoneo a incidere negativamente sui processi democratici e sulle operazioni elettorali. Al contempo, si consideri che il problema delle cd. “fake news” è stato spesso trattato in chiave strumentale alla repressione ideologica e alla restrizione del libero pensiero. Sia consentito il rimando all’approfondimento pubblicato su Agenda Digitale, Cosa fare contro la dittatura del pensiero dominante”, testo online: < https://www.agendadigitale.eu/cultura-digitale/fake-news-una-questione-di-democrazia-cosa-fare-contro-la-dittatura-del-pensiero-dominante/>.

[15] G. Bazzoni, La libertà di informazione e di espressione del pensiero nell’era della democrazia virtuale e dei global social media, Diritto di Internet, 2019, n. 4, pp. 635-643

[16] Tra le principali fonti di soft law intervenute in materia di regolazione dei contenuti online a livello europeo è opportuno ricordare, inter alia, European Commission, Code of Conduct on Countering Illegal Hate Speech Online, 2016, testo su https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en#theeucodeofconduct; European Commission, Code of Practice on Online Disinformation, testo su https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation; European Commission, Communication on Tackling Illegal Content Online, Towards an enhanced responsibility of online platforms, COM(2017) 555 final; European Commission, Recommendation of 1 March 2018 on measures to effectively tackle illegal content online (C(2018) 1177 final).

[17] T. Paige, The Digital Services Act: Does it respect the freedom of expression, and is it enforceable? eRepository, Seton Hall.

[18] J. P. Quintais, N. Appelman, R. Fahy, Ronan, Using Terms and Conditions to Apply Fundamental Rights to Content Moderation, in German Law Journal (Forthcoming), SSRN: <https://ssrn.com/abstract=4286147>.

[19] K. Klonick, The New Governors: The People, Rules, and Processes Governing Online Speech, in Harvard Law Review, 2018, vol. 131, pp. 1598-1670.

[20] Ormai c’è evidenza di diversi casi in cui le piattaforme hanno interferito, in via sproporzionata, con la libertà mediatica e il diritto di cronaca giornalistica. Per una testimonianza sulle decisioni arbitrarie delle piattaforme a livello europeo, si veda l’articolo pubblicato dal European Broadcasting Union, testo online: < https://www.ebu.ch/news/2023/01/is-big-tech-tampering-with-media-content>. Per ulteriori approfondimenti dottrinali, si faccia riferimento a S. Bassan, Algorithmic personalization features and democratic values: what regulation initiatives are missing, disponibile all’URL <https://ssrn.com/abstract=4714135>; F. Abbondante, Il ruolo dei social network nella lotta all’hate speech: un’analisi comparata fra l’esperienza statunitense e quella europea, in Informatica e diritto, vol. 26, n. 1-2, pp. 41-68; G. Bazzoni, La libertà di informazione e di espressione del pensiero nell’era della democrazia virtuale e dei global social media, Diritto di Internet, 2019, n. 4, pp. 635-643; G.L. Conti, Manifestazione del pensiero attraverso la rete e trasformazione della libertà di espressione: c’è ancora da ballare per strada?, Rivista AIC, 2018, n. 4, pp. 200-225; G. De Gregorio, Democratising Online Content Moderation: A Constitutional Framework, Computer Law and Security Review, 2019, pp. 1-28.

[21] Per un approfondimento giornalistico sulla rimozione delle foto in questione si veda: < https://www.theguardian.com/technology/2020/jun/15/facebook-blocks-bans-users-sharing-guardian-article-showing-aboriginal-men-in-chains>.

[22] A titolo esemplificativo si veda: < https://www.bbc.com/news/technology-37318031>.

[23] Per un approfondimento sul tema, si faccia riferimento a: M. Broussard, Artificial (Un)Intelligence: How Computers Misunderstand the World, MIT Press, 2018; C. D’Ignazio, L.F. Klein, Data feminism, The MIT Press, 2020; A. Marwick, Gender, sexuality, and social media, The Social Media Handbook, 2014; A. Massanari, #Gamergate and The Fappening: How Reddit’s algorithm, governance, and culture support toxic technocultures. New Media & Society, vol. 19, n. 3, pp. 329–346, 2015; L. Nakamura, Gender and Race Online. In M. Graham & W. H. Dutton (Eds.), Society and the Internet, Oxford University Press, pp. 81–96, 2014; D.K. Rosner, Critical Fabulations: Reworking the Methods and Margins of Design, The MIT Press, 2018; S.U. Noble, Algorithms of Oppression: How Search Engines Reinforce Racism, NYU Press, 2018; O.L. Haimson, A.L. Hoffmann, Constructing and Enforcing ‘Authentic’ Identity Online: Facebook, Real Names, and Non-normative Identities, vol. 21, n.6, 2016.

[24] Corte europea dei diritti dell’uomo, The Observer and Guardian c. Regno Unito, 51/1990/242/313, 24 ottobre 1991, par. 60.

[25] Un altro esempio significativo ha riguardato l’emittente belga francofona RTBF che nel marzo 2021 ha pubblicato su Facebook un video di attualità, che testimoniava possibili abusi commessi dalle forze dell’ordine. Facebook ha rimosso il video, per poi ripubblicarlo solo in seguito ai reclami promossi dall’emittente.

[26] G.L. Conti, Manifestazione di pensiero attraverso la rete e trasformazione della libertà di espressione: c’è ancora da ballare per strada?, in Rivista AIC, n. 4, 2018, 200-225.

[27] Sull’utilità della Rete come strumento incentivante la democrazia, v. Corte europea dei diritti dell’uomo, Delfi AS v. Estonia [GC], par. 133; Times Newspapers Ltd v. the United Kingdom (no. 1 and no. 2), par. 27.

GINEVRA CERRINA FERONI

Professore Ordinario di Diritto Costituzionale Italiano e Comparato nel Dipartimento di Scienze Giuridiche dell’Università di Firenze. Avvocato iscritto all’Albo speciale dei Professori universitari, componente del Direttivo scientifico di numerose Riviste di area giuspubblicistica comparata, è membro del Direttivo dell’Associazione Italiana di Diritto Pubblico Comparato e ne è stata Vice Presidente per due mandati. Ha ricoperto incarichi direttivi nell’Associazione Italiana dei Costituzionalisti.
È stata nominata nell’agosto 2019 dal Ministro dell’Ambiente membro della Commissione tecnica nazionale di verifica dell’impatto ambientale VIA-VAS ed ha fatto parte della Commissione degli esperti nominata dal Governo nel giugno 2013 per la riforma della Costituzione. Ha coordinato unità di ricerca nell’ambito di progetti europei Horizon 2020 e di interesse nazionale PRIN.
A luglio 2020 è stata eletta dalla Camera dei Deputati membro del Collegio dell’Autorità Garante per la protezione dei dati personali dove riveste il ruolo di Vice Presidente. Dal 19 giugno 2023 è componente presso la Presidenza del Consiglio dei ministri, della Cabina di regia per la determinazione dei livelli essenziali delle prestazioni (LEP) concernenti i diritti civili e sociali.
È stata editorialista delle testate Il Dubbio, Il Giornale e il Corriere fiorentino. Ha collaborato al Corriere della Sera e al Il Messaggero.

i report dell'Osservatorio sono realizzati con il patrocinio di:

in collaborazione con:

I contenuti di questo documento vengono distribuiti con licenza Creative Commons By

  • Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato
  • Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere per qualsiasi fine, anche commerciale.

Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza

STAMPA QUESTA PAGINA