Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni Accetto

Giornalismo e intelligenza artificiale: aspetti giuridici e normativi - La Disinformazione - Ordine Dei GiornalistiOrdine Dei Giornalisti

Ordine dei Giornalisti - Consiglio Nazionale

Giornalismo e intelligenza artificiale: aspetti giuridici e normativi – La Disinformazione

15/04/2024

immagine realizzata con IA Midjourney

REPORT 2024

Giornalismo e intelligenza artificiale: aspetti giuridici e normativi

Deborah Bianchi
Avvocato in diritto dell’internet

Data l’ampiezza della trattazione, il testo è stato suddiviso in capitoli collegati ai pulsanti qui sotto.

LA DISINFORMAZIONE

Disinformazione e plagio delle content-farms
I modelli di intelligenza artificiale generativa come chat GPT applicati all’infosfera non solo scuotono dalle fondamenta il sistema del giornalismo basato in gran parte sulla pubblicità e sugli abbonamenti dei “lettori” ma contribuiscono altresì al fenomeno della disinformazione, altro danno sistemico del mondo dell’informazione digitale.

NewsGuard[1] ha identificato 777 siti di notizie inaffidabili generate da GenAI. Dietro a nomi che potrebbero essere quelli di regolari testate – come iBusiness Day, Ireland Top News e Daily Time Update – operano instancabili i chatbot dei GenAI che, senza nessuna supervisione umana, hanno costruito “sul nulla” interi siti web di “notizie”. Gli articoli riportano affermazioni false o eventi datati riproposti come se fossero appena accaduti. A questi contenuti vengono abbinati dalla pubblicità programmatica gli spot anche di grandi marchi, ignari di sostentare questi siti spazzatura. Voci create da operatori artificiali narrano falsi scoop accompagnando le immagini aggregate in un video storytelling pubblicato su Tik Tok. Una volta il malcapitato è stato pure Obama accusato di essere coinvolto nella morte del suo ex cuoco dalla moglie di quest’ultimo. Zelanti content-farms a lavoro per riscrivere pedissequamente migliaia di articoli di giornali famosi eludendo l’attribuzione all’editore e all’autore. Tra i giornali vittime di tali plagi anche The New York Times.

Al fine di esemplificare quanto esposto risulta necessario fare di nuovo riferimento alla causa NYTimes/OpenAI. Questo caso, peraltro tutt’ora in corso e dunque privo di una sentenza, risulta comunque di straordinario interesse giuridico per la ricchezza delle questioni affrontate e dei documenti allegati.

Sia consentito dunque attingere ad alcuni di questi preziosi documenti per fornire un esempio concreto di questi plagi.

Nella Citazione NYTimes/OpenAI a pagina 34[2], a prova della subita violazione copyright, il Times ricorda la risposta di Chat GPT al seguente prompt di un anonimo: “What did Pete Wells think of Guy Fieri’s restaurant?” Ebbene il chatbot intelligente fornisce su questo locale lo stesso parere (sic!) che il critico gastronomico Pete Wells aveva scritto nel 2012 su un articolo del Times, articolo che è stato descritto come un fenomeno virale. In sostanza Chat GPT riproduce senza autorizzazione una recensione sottoposta al copyright del NYTimes. Chat GPT, a sua volta, può darsi che abbia pescato tale contenuto da uno dei falsi siti di informazioni scoperti da NewsGuard.

 

Figura 1 – Citazione NYTimes/OpenAI, pagina 34

 

Disinformazione e allucinazioni di GenAI
Il modello GenAI dovrebbe avvisare l’utente che durante l’uso potrebbe imbattersi nelle cosiddette “allucinazioni” ovvero output costituiti da contenuti apparentemente logici e veri che però eseguendo una verifica concreta si rivelano non corrispondenti a verità. Tali situazioni non sono frutto di un’attività volitiva ma effetti del modo di ragionare automatico-inferenziale del sistema “intelligente”. L’ulteriore criticità deriva dal fatto che l’utente umano trova molto difficile distinguere queste allucinazioni dai risultati veri. Da qui deriva la disinformazione. Il sistema AI potrebbe chiedere all’utente o ai terzi venuti a conoscenza dell’errore di segnalarlo affinchè il chatbot possa correggersi.

Al fine di esemplificare quanto esposto sia consentito attingere alla causa NYTimes/OpenAI per fornire un esempio di allucinazione atto a produrre disinformazione.

Ecco un caso reale esposto a pagina 54 della citazione NYTimes/OpenAI[3]:

Allucinazioni erroneamente attribuite al Times.

  1. In risposta a una richiesta di scrivere un saggio informativo sui principali giornali che riportavano che il succo d’arancia è collegato al linfoma non Hodgkin, un modello GPT ha completamente inventato che Il New York Times ha pubblicato un articolo il 10 gennaio 2020, intitolato “Studio trova un possibile collegamento tra il succo d’arancia e il linfoma non Hodgkin”. Il Times non ha mai pubblicato un articolo del genere

Figura 2 – Allucinazioni erroneamente attribuite al Times.

 

GenAI e Disinformazione. I Deepfakes. La disciplina statunitense
Il caso della diffusione sui social dei porn deepfakes della cantante Taylor Swift ha riportato prepotentemente all’attenzione pubblica la questione. I deepfakes sono immagini, video, testi, elaborati da GenAI a partire dalle informazioni su una determinata persona o su un determinato fatto. Il deepfake appartiene al mondo della disinformazione creata dai modelli intelligenti. Si può far dire a Biden che verrà ripristinato l’obbligo del servizio di leva a seguito del conflitto in Ucraina riducendone sensibilmente la popolarità; si possono diffondere le immagini sessualmente esplicite non consensuali di una famosa cantante; si può simulare l’arrivo di un tornado scatenando il panico tra la gente e così via.

La criticità maggiore dei deepfakes deriva dall’impossibilità di fermarli prima della pubblicazione. Dunque qualsiasi provvedimento di rimozione non è in grado di difendere la vittima.

Il caso di Taylor Swift ha costretto il legislatore statunitense a presentare il 30 gennaio 2024 la proposta di legge “Defiance Act” (Disrupt Explicit Forged Images and Non-Consensual Edits) il cui iter è ancora in corso.

L’obiettivo è quello di fornire alle vittime il diritto di richiedere il risarcimento danni a coloro che producono, che possiedono con l’intento di propagarle e che diffondono tali generazioni. Fino ad ora in America solo alcuni Stati hanno leggi contro la pornografia non consensuale ma non esiste una normativa specifica per contrastare i porn deepfakes.

In realtà, come già sopra evidenziato, una tutela effettiva si avrebbe riuscendo ad impedire che i GenAI possano generare simili contenuti. Questa impresa non è impossibile perché si possono applicare al modello dei guardrails ancora prima che esca sul mercato. L’ingegnere Shane Jones[4] del team di Microsoft Copilot Designer, strumento con cui sono stati generati i porn deepfakes, ha riferito di avere avvertito la Big Tech della falla nel sistema di DALL-E3 (modello GenAI alla base di Copilot Designer) molto tempo prima del caso Swift ma non ha trovato ascolto. Così il 6 marzo 2024 Jones ha inoltrato una denuncia alla Federal Trade Commission affinchè provveda a tutelare i consumatori.

La denuncia di Jones rivela una parte di quel back-end dei modelli GenAI che nessuno riferisce. Prima di immettere sul mercato questi modelli, le imprese fanno eseguire studi, fanno esperimenti, fanno test. Pertanto le Big Tech avendo la consapevolezza dei rischi del prodotto dovrebbero quanto meno notificarla al mondo dei potenziali consumatori con delle Informative specifiche e nei casi più gravi rinviare il lancio commerciale o ritirare il prodotto.

A differenza di quanto avviene negli Stati Uniti, il legislatore cinese, non molto propenso alla deregulation, ormai già da tempo (25 novembre 2022) ha emanato una legge ad hoc sui deepfakes che stabilisce un controllo preventivo: prima e non dopo che il modello esca sul mercato.

GenAI e Disinformazione. I Deepfakes. La disciplina cinese
La legge cinese, varata il 25 novembre 2022, prende il nome di “Regolamenti sulla gestione dei servizi di informazione Internet di sintesi profonda[5] e comprende qualsiasi contenuto deepfake. La vocazione primatista del Dragone anche sui legal frameworks questa volta trova soddisfazione perché precede sia la normativa europea (che poi avrebbe approvato l’AI Act il 13.03.24) sia quella statunitense non ancora dotata di una legge di questo tipo (proposta di legge del Defiance Act presentata il 30.01.24 ancora in corso).

La Cina sceglie la via della trasparenza totale imposta sia alle imprese fornitrici dei modelli sia agli utenti. Questi ultimi non possono fruire del modello coperti dall’anonimato perché i gestori hanno l’obbligo di identificarli con documenti di identità validi.

L’Articolo 9 introduce nel mondo deep sintesi l’obbligo della verifica real-name:

I fornitori autenticano le informazioni di identità reale per gli utenti del servizio sulla base di numeri di cellulare, numeri di carta d’identità, servizi pubblici di autenticazione dell’identità della rete nazionale, ecc., e non forniscono servizi di rilascio di informazioni agli utenti che non hanno autenticato informazioni di identità reale”.

I fornitori dei modelli sono obbligati a fare da sceriffi della rete perché devono continuamente monitorare, valutare e riaccomodare. Del resto, questa legge del novembre 2022 era stata preceduta da un parere del 15 settembre 2021 emesso dalla Cyberspace Administration of China, massima autorità cinese di Internet governance, in cui si annunciava alle Big Tech che la loro responsabilità per i contenuti in rete sarebbe stata intensificata. Nel parere “Opinioni sull’ulteriore intensificazione della responsabilità delle piattaforme del sito web per i contenuti informativi[6] si legge che l’Ufficio statale per le informazioni su Internet incarica le piattaforme di prevenire la creazione e la diffusione di informazioni “illegali” e “negative”. È così è stato ordinato per legge un anno dopo.[7]

I gestori delle piattaforme di vendita e di distribuzione delle app sono obbligati ex art.13 a controllare costantemente i prodotti esposti al pubblico e a eliminare dagli scaffali le app di sintesi profonda che risultano non sicure o nocive. Anche in questa ipotesi, i gestori devono avvertire, sospendere il servizio o rimuovere in modo tempestivo.

Il legislatore cinese impone ai gestori di controllare la qualità dei dataset utilizzati dal modello (art.14) e di adottare misure correttive sulla formazione e sulla sicurezza di queste basi di informazioni incluso il rispetto della privacy. Ad esempio, se il fornitore offre la funzione di modifica delle informazioni biometriche come il viso e la voce, all’utente deve essere richiesto di informare l’individuo in fase di modifica in conformità con la legge e di ottenere il proprio consenso separato.

L’art.16 prevede l’obbligo di etichettatura con misure tecniche che aggiungono marchi/etichette identificativi le cui informazioni vengono memorizzate su apposito registro conservato dal fornitore del modello deep sintesi. In rinforzo, l’art.18 sancisce il divieto assoluto di utilizzare mezzi tecnici per cancellare, manomettere o nascondere questi marchi sintetici.

Inoltre i fornitori sono obbligati di troncare subito la trasmissione di contenuti non etichettati e disattivare i collegamenti a chiavi di ricerca fonti di misinformazione o disinformazione.

Riguardo ai risultati attesi dall’obbligo di etichettatura si sono espressi in senso dubitativo Emmie Hine e Luciano Floridi[8]. A livello tecnico – sostengono i due autori – “questo è impegnativo perché, una volta creato un contenuto, può essere disaccoppiato dal servizio su cui viene creato e diffuso indipendentemente da esso. I video possono essere caricati di nuovo, l’audio ri-registrato, le immagini schermate, rimuovendole dal controllo dell’inviatore. E, come dice l’adagio, Internet è per sempre: una volta che alcune informazioni si sono diffuse su Internet, è estremamente difficile cancellarle completamente”.

GenAI e Disinformazione. AI Act: marcatura ed etichette contro la disinformazione
L’AI Act troverà un’applicazione scaglionata nel tempo. Per i modelli GenAI già esistenti (es. Chat GPT) l’applicazione sarà a partire da due anni mentre invece per i GenAI ancora non immessi sul mercato sarà a partire da 1 anno.  Pertanto, ad oggi aprile 2024 l’AI Act non è applicabile a Chat GPT ma lo sarà solo a partire dal 13 marzo 2026. Posto invece per un momento che Chat GPT possa essere sottoposta a questa disciplina, proviamo a immaginare i cambiamenti cui sarebbe costretta.

Uno degli obiettivi primari dell’AI Act è il contrasto all’effetto “black box” dei modelli di intelligenza artificiale generativa. Dunque il principio della trasparenza e quello della spiegabilità avrebbero obbligato Chat GPT a fornire informazioni sulle proprie caratteristiche, capacità, limiti nonché sui possibili effetti pregiudizievoli in termini di disinformazione riscontrabili durante l’utilizzo del servizio (si veda AI Act, Considerando n.71 e 72).

Inoltre Chat GPT sarebbe stata obbligata a “etichettare” i contenuti del proprio archivio (set di dati) e poi a “marcare” gli outputs evidenziandone così la natura artificiale.

L’etichettatura consente di conservare una buona qualità del set delle informazioni archiviate a garanzia di outputs corretti e non tossici. In questo senso, l’art. 50 dell’AI Act[9] impone ai fornitori di sistemi intelligenti che generano contenuti audio, immagine, video o testuali sintetici, di “marcare” gli outputs in modo da avvisare gli utenti che si tratta di contenuti generati o manipolati artificialmente. Parimenti, per i sistemi AI che generano o manipolano immagini, audio, video per creare “deep fake”, viene imposto ai fornitori di rendere nota la natura artificiale di tali contenuti.

L’AI Act come del resto il GDPR si fonda sul concetto di responsabilità come accountability e quindi tutti i soggetti che in qualche modo operano nella filiera di valore del sistema intelligente devono preoccuparsi di adottare le misure adeguate richieste secondo lo stato dell’arte del momento. Una eccezione viene stabilita per i “sistemi di IA che svolgono una funzione di assistenza per l’editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica” (art.50, par.2 AI Act). Questo significa che l’art. 50 dell’AI Act non si applica nelle redazioni che utilizzano sistemi intelligenti unicamente di ausilio, non creativi e che non vengono direttamente a contatto con il pubblico. Altra eccezione si verifica quando un modello GenAI con outputs creativi solo di testo (non immagini, audio e video) viene offerto al pubblico sotto “revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto” (art. 50, par.4, AI Act).

Separate le eccezioni sopra ricordate, l’editore che decide di abbonarsi a un servizio di modello GenAI distribuito in cloud deve – prima dell’acquisto – verificare se il fornitore applica le misure dell’art. 50 AI Act. Pertanto il sistema deve avvisare preventivamente l’utente che sta per interagire con una macchina; il sistema deve generare outputs riportanti un simbolo informativo che – se cliccato – rende conoscibili i dataset utilizzati e lo stato di provenienza. Questo vale a maggior ragione se si tratta di modello GenAI capace di generare deepfake (un caso classico: deepfake di persone pubbliche vere come i candidati alle elezioni).

Nel caso dei deepfake l’Unione Europea prevede un’eccezione non ammessa dalla Cina ovvero il caso di outputs generati con finalità di satira: “manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l’esposizione o il godimento dell’opera” (art. 50, par.4, AI Act).

La Cina ha già elaborato molti standards in materia mentre l’UE sta iniziando adesso. L’organo preposto a elaborare questi standards è l’Ufficio Europeo per l’AI (art.50, par.7, AI Act) istituito il 21 febbraio 2024 che avrà un ruolo cruciale di promozione e coordinamento della governance sull’AI e sui GenAI in tutta Europa. Non si limiterà a elaborare gli standard di etichettatura e di sicurezza ma costituirà anche le linee guida etiche. Incoraggerà e agevolerà l’elaborazione di codici di buone pratiche settoriali.

GenAI e Disinformazione. Una tutela transitoria nel Digital Services Act.
Il Digital Service Act (DSA)[10] già in applicazione per tutti dal 17 febbraio 2024 può costituire uno strumento di tutela nel periodo transitorio fino a quando l’AI Act non verrà applicato. Si tratta di un’opportunità di difesa possibile solo ove il modello GenAI sia stato integrato in una piattaforma o in un motore di ricerca di dimensioni molto grandi (soggetti di riferimento del DSA). Tali intermediari online sono obbligati a valutare i potenziali rischi sistemici derivanti dalla progettazione, dal funzionamento e dall’utilizzo dei rispettivi servizi, comprese le modalità con cui la progettazione dei sistemi algoritmici impiegati nel servizio possono contribuire a tali rischi, nonché i rischi sistemici derivanti da potenziali usi impropri. Tali prestatori sono altresì tenuti ad adottare misure di attenuazione adeguate nel rispetto dei diritti fondamentali. Pertanto i modelli GenAI ivi incorporati si trovano soggetti al quadro di gestione dei rischi del DSA.

In particolare, questo Regolamento considera la disinformazione un rischio sistemico.

Si può individuare questa “criticità potenzialmente disinformativa” quando il contenuto si pone in contrasto con il Codice di Condotta UE sulla Disinformazione. Quest’ultimo in base all’art. 45 del DSA (interpretati secondo il Considerando 106) appartiene alle soft law che concretizzano il Regolamento sui Servizi Digitali. Nell’ambito della disinformazione questo Codice dà corpo agli obblighi cui devono sottoporsi le piattaforme una volta individuati i rischi sistemici ex art. 34 DSA[11] .

L’Osservatorio[12] sul Digital Services Act considera il Codice sulla Disinformazione uno strumento chiave per l’attuazione del DSA e infatti evidenzia che questa “soft Law” si dimostra ancora più cogente dell’”hard Law” in cui è allocata (art. 45 DSA) perché crea obblighi sempre più precisi e prescrittivi che, nei fatti, sono assai più stringenti dei generali artt. 34 e 35 DSA. Infatti la mancata adesione o il rilevamento della non conformità al Codice di condotta getta un’ombra di possibile illegalità sulla piattaforma[13] .

Allo stato attuale, il Codice UE sulla Disinformazione unito all’azione dei Segnalatori Attendibili costituisce una via pratica di tutela. Ai sensi dell’art. 22 DSA il Segnalatore Attendibile è un soggetto riconosciuto dal Coordinatore dei Servizi Digitali (AGCOM nel nostro Paese) che gode di un canale diretto con le varie piattaforme, appositamente previsto dal legislatore affinchè alle segnalazioni ivi inoltrate “venga data priorità e siano trattate e decise senza indebito ritardo”.

Un caso pratico di applicazione dell’AI Act. Chat GPT presenta policies vicine all’AI Act
Open AI sta avviando delle procedure di gestione del “rischio-disinformazione”. A tal proposito si cita il documento “Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk[14] del gennaio 2023 dedicato alla previsione degli abusi dei modelli GenAI nelle campagne di disinformazione e alla ricerca di rimedi per la riduzione dei rischi. Si ricordano altresì le Linee Guida sulle Elezioni 2024[15]. In tal senso Open AI dichiara di avere implementato in DALL·E guardrail per rifiutare le richieste di generazione di immagini di persone reali, compresi i candidati. Inoltre grazie ai nuovi modelli GPT gli utenti possono segnalare potenziali violazioni.

A proposito di “etichette” la fondazione di Sam Altman ha implementato in DALL E le “credenziali digitali” della Coalition for Content Provenance and Authenticity (C2PA, https://c2pa.org ) per offrire agli utenti uno stato di provenienza dell’immagine certificato e cristallizzato con crittografia. In particolare coltiva l’abbinamento tra trasparenza e affidabilità degli output grazie alla tracciabilità rivelatrice dell’autore, del sito di provenienza e degli strumenti di realizzazione del contenuto.

Sebbene Open AI non sia ancora sottoponibile all’AI Act, di fatto si sta muovendo in sintonia con il nostro Regolamento quando si impegna per la trasparenza sui contenuti generati dai modelli intelligenti.

Si veda di seguito lo sviluppo grafico delle componenti delle “credenziali digitali” elaborate dalla Coalition for Content Provenance and Authenticity (C2PA, https://c2pa.org )

DEBORAH BIANCHI

L’Avv. Deborah Bianchi è specializzato in diritto dell’Internet dal 2006. Opera da 15 anni in consulenza e tutela: diritto all’oblio, web reputation e brand reputation, cyberbullismo, cyberstalking, diffamazione on line. Svolge incarichi di DPO e di consulenza e adeguamento al GDPR 2016/679. Scrive per le riviste giuridiche de Il Sole 24 Ore, Giuffrè, Giappichelli. E’ autore dei libri: Internet e il danno alla persona-Giappichelli;Danno e Internet. Persona, Impresa, Pubblica Amministrazione-Il Sole 24 Ore;Difendersi da Internet-Il Sole 24 Ore;Sinistri Internet. Responsabilità e risarcimento-Giuffrè. E’ formatore in corsi e convegni

NOTE A LA DISINFORMAZIONE

[1]Centro di monitoraggio sull’IA: i 777 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA”, NewsGuard, A cura di McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese ed altri | Ultimo aggiornamento: 25 marzo 2024

2]Unauthorized Public Display of Times Works in GPT Product Outputs” – NYT OpenAI lawsuit, 3), n.106, p.34

106. Below, ChatGPT purports to quote former Times restaurant critic Pete Wells’s 2012 review of Guy Fieri’s American Kitchen & Bar, an article that has been described as a viral sensation (29)” 29 For original article, see Pete Wells, As Not Seen on TV, N.Y. TIMES (Nov. 13, 2012)

[3]Hallucinations Falsely Attributed to The Times” – NYT OpenAI lawsuit, E), n.140, p.54 

140. In response to a prompt requesting an informative essay about major newspapers’ reporting that orange juice is linked to non-Hodgkin’s lymphoma, a GPT model completely fabricated that “The New York Times published an article on January 10, 2020, titled ‘Study Finds Possible Link between Orange Juice and Non-Hodgkin’s Lymphoma.'” The Times never published such an article”

[4]Microsoft and the Taylor Swift genAI deepfake problem” – By Preston Gralla, Contributing Editor, Computerworld | FEB 14, 2024

[5] Cina. Legge sul deepfake: “Regolamenti sulla gestione dei servizi di informazione Internet di sintesi profonda“, 25.11.2022

[6]Opinions on Further Intensifying Website Platforms’ Entity Responsibility for Information Contentby Cyberspace Administration of China, 15 settembre 2021

[7] Cina. Legge sul deepfake: “Regolamenti sulla gestione dei servizi di informazione Internet di sintesi profonda“, 25.11.2022

Articolo 10:

“I fornitori rafforzano la gestione del contenuto di sintesi profonda e rivedono i dati di input e i risultati di sintesi degli utenti dei servizi di sintesi profonda con mezzi tecnici o manuali.

I fornitori di servizi di sintesi profonda dovrebbero stabilire e migliorare la libreria di funzionalità per identificare le informazioni illegali e cattive, migliorare gli standard di archiviazione, le regole e le procedure e registrare e conservare i registri di rete pertinenti.

Se il fornitore di servizi di sintesi profonda trova informazioni illegali e cattive, adotta misure di smaltimento in conformità con la legge, tiene i registri pertinenti e riferisce al dipartimento di informazioni di rete e ai dipartimenti competenti pertinenti in modo tempestivo; avverte, limita le funzioni, la sospensione dei servizi, la chiusura dei conti e altre misure di smaltimento nei confronti degli utenti

[8]New deepfake regulations in China are a tool for social stability, but at what cost?” – Emmie Hine & Luciano Floridi , Nature Machine Intelligence, 20 luglio 2022

[9] Art. 50 AI Act. Obblighi di trasparenza per i fornitori e gli utenti di determinati sistemi di IA.

[10] Regolamento UE 2022/2065 sui servizi digitali o Digital Services Act

[11] Art. 34 DSA: La valutazione del rischio […] deve comprendere i seguenti rischi sistemici:

  1. b) eventuali effetti negativi, attuali o prevedibili, per l’esercizio dei diritti fondamentali, in particolare i diritti fondamentali alla dignità umana sancito nell’articolo 1 della Carta, al rispetto della vita privata e familiare sancito nell’articolo 7 della Carta, alla tutela dei dati personali sancito nell’articolo 8 della Carta, alla libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media, sanciti nell’articolo 11 della Carta, e alla non discriminazione sancito nell’articolo 21 della Carta, al rispetto dei diritti del minore sancito nell’articolo 24 della Carta, così come all’elevata tutela dei consumatori, sancito nell’articolo 38 della Carta;”

[12]Twitter’s retreat from the Code of Practice on Disinformation raises a crucial question: are DSA codes of conduct really voluntary?” June 12, 2023

In particolare, <<il rifiuto di un VLOP o VLOSE senza spiegazioni adeguate […] dell’invito della Commissione a partecipare a un codice potrebbe essere preso in considerazione nel determinare se si è verificata una violazione del DSA>> (Considerando 104) […] Al contrario, la partecipazione e il rispetto dei codici pertinenti sono suggeriti come un modo appropriato per i VLOP/VLOSE di adempiere ai loro obblighi di mitigazione del rischio ai sensi dell’articolo 35, paragrafo 1, lettera h), e di correggere eventuali violazioni del DSA ai sensi dell’articolo 75, paragrafo 3. Pertanto, i VLOP/VLOSE devono affrontare forti incentivi a rispettare i codici per ridurre al minimo i rischi di responsabilità e, se si rifiutano di partecipare in risposta a un “invito” della Commissione, rischiano procedimenti di infrazione e multe” .

[13] Cit. “Twitter’s retreat from the Code of Practice on Disinformation raises a crucial question: are DSA codes of conduct really voluntary?” June 12, 2023

[14] Open AI – “Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk” – January 11, 2023

[15] Open AI – Linee Guida Elezioni 2024 – January 15, 2024

i report dell'Osservatorio sono realizzati con il patrocinio di:

in collaborazione con:

I contenuti di questo documento vengono distribuiti con licenza Creative Commons By

  • Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato
  • Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere per qualsiasi fine, anche commerciale.

Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza

URL pagina: https://www.odg.it/giornalismo-e-intelligenza-artificiale-aspetti-giuridici-e-normativi-la-disinformazione/55536