Giornalismo e intelligenza artificiale: aspetti giuridici e normativi
Deborah Bianchi
Avvocato in diritto dell’internet
Data l’ampiezza della trattazione, il testo è stato suddiviso in capitoli collegati ai pulsanti qui sotto
SOMMARIO DEL CAPITOLO
Introduzione
L’Intelligenza Artificiale (AI) e l’Intelligenza Artificiale Generativa (GenAI) hanno costituito uno dei temi prioritari nell’ordine del giorno del World Economic Forum[1] accanto alla guerra in Ucraina e al clima. Il tema è davvero epocale: dall’avvento dei modelli GenAI parte una nuova era tecnologica. Nessuna delle potenze mondiali vuole restare indietro nella corsa al primato economico e politico-giuridico e cerca di imporre il proprio legal framework, nonostante la consapevolezza dell’esigenza di un “patto digitale globale” su AI e GenAI. In questo nuovo scenario deve imparare a ricollocarsi anche il giornalismo. Reduce dall’adattamento alla dimensione digitale, deve ora rimboccarsi le maniche per confrontarsi con la nuova dimensione “digitale generativa, multimodale e sintetica”.
Questo confronto implica un’ulteriore trasformazione del lavoro del giornalista che dev’essere ancora di più un’attività fortemente inclusiva. Laddove i GenAI disintermediano e isolano l’utente, il giornalista riannoda tutti i collegamenti della catena di valore dell’AI e così facendo permette al lettore di accedere all’informazione autentica, stimolandone il senso critico. Il giornalista deve inoculare nell’informazione restituita dagli outputs dei GenAI il germe dell’inclusività coinvolgendo tutti gli stakeholders dell’argomento trattato innescandovi il dibattito pubblico.
Il giornalista non può più affrontare da solo la notizia. Il suo lavoro adesso non è più dare l’informazione. Il suo lavoro adesso è quello di dare vita all’informazione in sistemi di intelligenza collettiva. Pertanto, l’era dei modelli generativi, lungi dal decretare la morte del giornalismo, potrebbero segnarne una nuova primavera in cui la stampa si riappropria della sua dignità di servizio pubblico liberando la notizia dalla privatizzazione delle “scatole chiuse”.
Un breve sguardo comparativo.
Stati Uniti, Europa, Cina affrontano in modo differente l’impatto delle varie forme di Intelligenza Artificiale (AI): un approccio di deregulation negli USA, uno di regolamentazione in UE, uno dirigistico in Cina. Ciascun sistema presenta pregi e difetti. In particolare, gli esperti del settore tecnologico hanno espresso perplessità per i sistemi a forte vocazione regolamentale perché l’eccessiva regolamentazione potrebbe imporre oneri burocratici e costi aggiuntivi tali da frenare la ricerca e lo sviluppo, causando la fuga dei talenti e degli investimenti.
All’esito di uno sguardo comparativo dei tre differenti sistemi giuridici si giunge a cogliere tuttavia un tratto in comune: la maturata consapevolezza della necessità di costruire una disciplina uniforme a livello globale per i modelli intelligenti.
Questa consapevolezza trova espressione nella prima risoluzione ONU sull’intelligenza artificiale intitolata “Cogliere le opportunità di sistemi AI sicuri, protetti e affidabili per lo sviluppo sostenibile” approvata il 21 marzo 2024. Risoluzione promossa dagli Stati Uniti, è stata approvata da tutti gli Stati dell’ONU, compresi Cina e Russia. Questa risoluzione è concentrata sull’obiettivo di mantenere un equilibrio tra sviluppo dell’innovazione e tutela dei diritti umani a livello globale:
“intendiamo che essa integri le future iniziative delle Nazioni Unite, compresi i negoziati verso un patto digitale globale sull’intelligenza artificiale”[2].
Bene il “patto digitale globale” sull’intelligenza artificiale, peccato che poi nei fatti ciascuna potenza vorrebbe imporre il proprio patto globale: negli USA il presidente Biden ha presentato l’Executive Order mwntre l’UE sta candidando l’AI Act a legal framework di elezione a livello mondiale e la Cina si duole della politica economica americana fortemente discriminatoria verso i propri prodotti intelligenti (es. chip, auto elettriche intelligenti) e traccia le Linee Rosse[3] dell’AI che nessuna potenza mai dovrebbe oltrepassare. Intanto “la corsa agli armamenti” delle imprese Big Tech prosegue imperterrita verso il primato nella tecnologia e nel profitto senza fare discriminazione sui mercati da penetrare. Tant’è che Tim Cook di Apple – incurante dei rapporti economici molto tesi tra Stati Uniti e Cina nonché della politica occidentale di de-risking verso il mercato cinese[4] – è approdato alla corte del dragone al “China Development Forum” in Pechino, 24-25 marzo 2024. Così ha fatto anche una nutrita delegazione di imprenditori tedeschi.
In Italia, dopo l’approvazione dell’AI Act (13.03.24), il Governo ha iniziato a elaborare un disegno di legge complementare al Regolamento euro unitario sulle materie da questo escluse ovvero su difesa, sicurezza e golden power (la facoltà del governo di intervenire su fusioni e acquisizioni che riguardino il bene pubblico nazionale). Inoltre, si sta lavorando sulla definizione di principi etici vincolanti e sull’individuazione di un’Autorità nazionale sull’AI. Di grande interesse anche pratico il Rapporto della Commissione IA e Informazione presieduta dal Prof. Padre Benanti consegnato alla Presidenza del Consiglio in data 11 marzo 2024.
La DISINTERMEDIAZIONE
La disintermediazione viene trattata grazie all’analisi dell’atto di citazione The New York Times contro OpenAI (NYTimes/OpenAI) e dei relativi allegati. Nonostante la mancanza di una decisione giudiziale, le ragioni giuridiche e i materiali forniti dal The NYTimes sono di primissimo interesse per cogliere concretamente le ricadute dei modelli GenAI sui contenuti realizzati dai giornali e dai giornalisti soprattutto riguardo al devastante effetto della disintermediazione. I modelli GenAI diretti a coltivare la loro versione verticale divorano i contenuti editoriali senza restituirne i dovuti credits negli outputs generati. In questo modo tutto l’ecosistema informativo costruito intorno al giornale trova la fine avendo sempre meno pubblico a cui offrire notizie, servizi e raccomandazioni con gli annessi circuiti pubblicitari. Soluzioni? Attualmente troviamo schierati due fronti: da una parte i gruppi editoriali allineati alla posizione autonomista del The NYTimes e dall’altra i gruppi editoriali che cercano l’accordo. Difficile dire quale sia la soluzione che si dimostrerà migliore. Si può unicamente notare che per tenere testa ai modelli GenAI verticali occorrono realtà imprenditoriali molto solide ed in grado di costruire autonomamente modelli GenAI personalizzati da spalmare in versione orizzontale a potenziamento della propria struttura e della propria presenza sul mercato. Gli editori importanti – ma non così forti – non hanno alternative salvo quella di “abbracciare le fauci” del competitor sperando in accordi accettabili.
L’effetto peggiore della disintermediazione si registra quando i modelli GenAI si radicano – senza filtri umani – nell’industria delle notizie e soffocano la libertà di stampa rendendola dipendente dalle Big Tech, dalle loro infrastrutture di dati e dai loro modelli di apprendimento automatico. Esperti del settore propongono di contrastare un simile epilogo grazie allo studio del linguaggio di questi “pappagalli stocastici” perché nell’era GenAI “press freedom means controlling the language of AI”[5]
La DISINFORMAZIONE
La disinformazione alimentata dagli errori, dai pregiudizi, dalle allucinazioni, dai deepfakes e dalle base-dati scadenti dei modelli GenAI si dimostra alacre fucina di una seconda verità grimildica pronta a tutto pur di confermare se stessa; perfino a inventare. Dunque si passa dal campo della disinformazione a quello della misinformazione che, sebbene non malevola, costituisce comunque un pericolo. Pensiamo al caso dell’avvocato newyorkese[6] ammonito dal giudice perché ha fondato le sue tesi su precedenti giurisprudenziali forniti da un modello GenAI che si sono poi rivelati assolutamente inventati. Per questa via si giunge alla manipolazione dell’opinione pubblica che ripete gli outputs generati dai GenAI credendo di riferire la verità: si è visto on line Biden proclamare di nuovo il servizio di leva militare a causa della guerra in Ucraina. Si scopre – solo dopo – di essere stati vittima di un deepfake o contenuto sintetico.
Soluzioni? Giocare di anticipo: prima che possa nascere l’ equivoco. L’AI Act dispone che il modello GenAI deve avvisare preventivamente l’utente che sta per interagire con una macchina; il sistema deve generare outputs riportanti un simbolo informativo che – se cliccato – rende conoscibili i dataset utilizzati e lo stato di provenienza. Questo vale a maggior ragione se si tratta di modello GenAI capace di generare deepfake (un caso classico: deepfake di persone pubbliche vere come i candidati alle elezioni). Inoltre l’art. 50 dell’AI Act[7] impone ai fornitori di sistemi intelligenti che generano contenuti audio, immagine, video o testuali sintetici, di “marcare” gli outputs in modo da avvisare gli utenti che si tratta di contenuti generati o manipolati artificialmente. Parimenti, per i sistemi AI che generano o manipolano immagini, audio, video per creare “deep fake”, viene imposto ai fornitori di rendere nota la natura artificiale di tali contenuti. Sulla stessa linea eurounitaria si attesta anche la Cina ma con obblighi di trasparenza ancora più ferrei atti a trasformare i providers in veri e propri “sceriffi della rete”.
Mentre il Paese del Dragone sta già applicando queste disposizioni dal 2022, l’Europa attende ancora l’applicazione dell’AI Act. Quali soluzioni contro la disinformazione in questo periodo transitorio?
La soluzione si chiama Digital Services Act ma è applicabile solo ove il modello GenAI sia stato integrato in una piattaforma o in un motore di ricerca di dimensioni molto grandi.
Copyright e diritti di autore
Copyright e diritti di autore sono un ambito fortemente colpito dall’impatto dei GenAI sul mondo del giornalismo. La violazione dei diritti di autore in ambito di giornalismo e intelligenza artificiale si può inquadrare sotto due profili: il profilo degli outputs rivelatori di addestramento su contenuti riservati e il profilo dell’attribuzione dell’autorialità (alla macchina o all’uomo?). Sul tema della violazione dei diritti di autore dei contenuti di addestramento sta risultando di difficile prova la somiglianza tra l’output e i contenuti autoriali originari. Pertanto le ultime cause depositate da dei giornali americani puntano su un aspetto diverso dall’analogia tra output e contenuto originario. Ora si fonda la citazione sulla violazione dei DRM (Digital Right Management) apposti sul contenuto.
In Cina invece sono molto più tranchant e nella prima sentenza in materia è stato condannato il responsabile del sito web in cui era integrato un modello GenAI per fare disegni (caso “GenAI disegna Ultraman”).
In merito alla possibilità di riconoscere in capo a un modello GenAI la titolarità del diritto di autore, attualmente tutti i sistemi giuridici sono di avviso negativo. In particolare si riporta il caso di un signore che aveva tentato di iscrivere all’Ufficio Copyright statunitense un’immagine eseguita quasi interamente da un modello intelligente e che, incassato il rifiuto dell’ente, ha attivato la causa presso il Tribunale del Distretto di Columbia, 18.08.2023 che parimenti ha confermato il diniego dell’Ufficio Copyright sostenendo che l’”Autorialità umana” è il “requisito fondamentale del diritto d’autore“.
ETICA
L’etica risulta esigenza indispensabile, ancor più di prima. Il lavoro del giornalista dev’essere tutto rivolto all’inclusività al fine di contrastare l’azione dei GenAI che isolano e disconnettono il lettore con il mondo informativo. Inclusività frutto di ulteriori aggiornamenti professionali dedicati alla conoscenza dell’intelligenza generativa al fine di “rimodellare i modelli” grazie al supporto delle istituzioni e degli organismi sociali. Grazie alla “Valutazione di Impatto Etico” eseguita da UNESCO su Chat GPT si comprende a contrario quali caratteristiche dovrebbe avere un modello GenAI eticamente sostenibile.
Il modello GenAI con impatto etico sostenibile dovrebbe presentare i requisiti seguenti:
- consentire il controllo pubblico;
- fornire informazioni appropriate (accuratezza);
- capire come viene messa in atto ogni fase;
- informazioni sui fattori che influenzano una previsione o una decisione specifica;
- condivisione di codici o set di dati;
- spiegabilità ovvero rendere intelligibile e fornire informazioni sul risultato dei sistemi Al, favorendo la comprensibilità dell’input, dell’output e del funzionamento di ogni blocco di costruzione algoritmico e a come contribuisce al risultato dei sistemi.
DEBORAH BIANCHI
L’Avv. Deborah Bianchi è specializzato in diritto dell’Internet dal 2006. Opera da 15 anni in consulenza e tutela: diritto all’oblio, web reputation e brand reputation, cyberbullismo, cyberstalking, diffamazione on line. Svolge incarichi di DPO e di consulenza e adeguamento al GDPR 2016/679. Scrive per le riviste giuridiche de Il Sole 24 Ore, Giuffrè, Giappichelli. E’ autore dei libri: Internet e il danno alla persona-Giappichelli;Danno e Internet. Persona, Impresa, Pubblica Amministrazione-Il Sole 24 Ore;Difendersi da Internet-Il Sole 24 Ore;Sinistri Internet. Responsabilità e risarcimento-Giuffrè. E’ formatore in corsi e convegni
NOTE AL SOMMARIO
[1] World Economic Forum, in Davos-Klosters, Svizzera, 15–19 Gennaio 2024
[2] “General Assembly adopts landmark resolution on artificial intelligence”
Ms. Thomas-Greenfield noted that the resolution was designed to amplify the work already being done by the UN, including the International Telecommunication Union (ITU), the UN Educational, Scientific and Cultural Organization (UNESCO) and the Human Rights Council. “We intend for it to complement future UN initiatives, including negotiations toward a global digital compact and the work of the Secretary-General’s high-level advisory body on artificial intelligence”
Qui il testo della risoluzione
[3] “Scongiurare la guerra fredda nell’IA”, Interskills, Redazione, 20 marzo 2024
[4] “Altro che derisking. Alla Davos cinese le industrie Ue e Usa si gettano ai piedi di Xi” di Claudio Paudice, Huffington Post, 27 Marzo 2024
[5] “Press freedom means controlling the language of AI”, Mike Ananny e Jake Karr, “Knowing Machines”, Sept. 27, 2023
[6] “Ha usato ChatGpt per ricerche legali, avvocato in tribunale a NY”, Redazione ANSA, 29.05.23
[7] Art. 50 AI Act. Obblighi di trasparenza per i fornitori e gli utenti di determinati sistemi di IA.
Bibliografia delle citazioni in ordine di comparizione.
World Economic Forum, 15–19 Gennaio 2024, in Davos-Klosters, Svizzera,
ONU, 21 Marzo 2024, “General Assembly adopts landmark resolution on artificial intelligence”
Redazione, 20 Marzo 2024, “Scongiurare la guerra fredda nell’IA”, Interskills
Claudio Paudice, 27 Marzo 2024, “Altro che derisking. Alla Davos cinese le industrie Ue e Usa si gettano ai piedi di Xi”
/ Huffington Post
Mike Ananny e Jake Karr, Sept. 27, 2023, “Press freedom means controlling the language of AI”, Knowing Machines
Redazione, 29 Maggio 2023, “Ha usato ChatGpt per ricerche legali, avvocato in tribunale a NY”, ANSA
The White House, October 30, 2023, “Remarks by President Biden and Vice President Harris on the Administration’s Commitment to Advancing the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”
Bill Whyman, October 10, 2023, “AI Regulation is Coming- What is the Likely Outcome?”
Federal Trade Commission, April 25, 2023, “Joint Statement on Enforcement Against Unlawful Use of Automated Systems”
Joe Biden, October 30, 2023, “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”
Supreme Court of Wisconsin, 5 April – 13 July 2016, “State of Wisconsin v. Eric L. Loomis”, Case no. 2015AP157-CR
Federal Trade Commission, Staff in the Office of Technology, January 9, 2024, “AI Companies: Uphold Your Privacy and Confidentiality Commitments” Technology Blog
Simon Willison, December 14, 2023, “The AI trust crisis”
Federal Trade Commission, May 31, 2023, “FTC and DOJ (Department of Justice) Charge Amazon with Violating Children’s Privacy Law by Keeping Kids’ Alexa Voice Recordings Forever and Undermining Parents’ Deletion Requests”
Guido Scorza, 10 gennaio 2024, “L’Authority Usa striglia le fabbriche degli algoritmi”, AgendaDigitale
Federal trade Commission, January 25, 2024, “FTC Launches Inquiry into Generative AI Investments and Partnerships. Agency Issues 6(b) Orders to Alphabet, Inc., Amazon.com, Inc., Anthropic PBC, Microsoft Corp., and OpenAI, Inc.”
Equal Employment Opportunity Commission (EEOC), May 18, 2023, “EEOC Releases New Resource on Artificial Intelligence and Title VII”
Consumer and Worker Protection, July 5, 2023, “Automated Employment Decision Tools (AEDT)”
Ufficio dell’amministrazione cinese del cyberspazio, 15 Agosto 2023, “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa”
The Cyberspace Administration of China, August 27, 2021, “Regolamento sulla gestione delle raccomandazioni degli algoritmi per i servizi di informazione su Internet“
Pier Luigi Pisa, 13.03.2024, “Cosa fa (e cos’è) la Commissione italiana che studia l’impatto dell’IA sull’informazione”,
La Repubblica
ANDREW DECK, March 28, 2024, “The Washington Post’s first AI strategy editor talks LLMs in the newsroom”,
“Chat GPT Is Eating the World” pubblica una utile lista delle cause pendenti in USA azionanti il copyright contro l’uso in AI https://chatgptiseatingtheworld.com/ Ci trovi anche il fascicolo processuale della causa The NYTimes c. Microsoft-OpenAI (DOCKET) e sempre qui nei vari Exhibit si trova l’elenco dell’enorme quantità di articoli copiati.
Trib. New York, caso n. 1:23-cv-11195, depositato il 27.12.23, “New York Times Company contro Microsoft, OpenAI et al.”
Giovanni Ziccardi, 13 Gennaio 2024, “NY Times vs. Microsoft, OpenAI e ChatGPT: l’atto di accusa commentato riga per riga” su YouTube
Daniel Thomas and Madhumita Murgia in London, December 13, 2023, “Axel Springer strikes landmark deal with OpenAI over access to news titles”
Charlie, 15 Marzo 2024, “OpenAI cerca di tenersi buoni i giornali”, Il Post
Redazione, SØØn – Newsletter 11 del 15 Marzo 2024, “L’IA alla conquista dei giornali”
Redazione, SØØn – Newsletter 4 del 26 Gennaio 2024, “La vera minaccia dell’Intelligenza Artificiale – Parte 2”
/ Interskills
McKenzie Sadeghi, Lorenzo Arvanitis, Virginia Padovese, Giulia Pozzi, Sara Badilini, Chiara Vercellone, Madeline Roache, Macrina Wang, Jack Brewster, Natalie Huet, Sam Howard, Andie Slomka, Leonie Pfaller e Louise Vallee, ultimo aggiornamento: 25 marzo 2024, “Centro di monitoraggio sull’IA: i 777 siti inaffidabili di ‘notizie generate dall’intelligenza artificiale’ (in continua crescita) e le principali narrazioni false prodotte da strumenti basati sull’IA”,
NewsGuard
NYT OpenAI lawsuit, 3), n.106, p.34, “Unauthorized Public Display of Times Works in GPT Product Outputs”
NYT OpenAI lawsuit, E), n.140, p.54, “Hallucinations Falsely Attributed to The Times”
Preston Gralla, Contributing Editor, February 14, 2024, “Microsoft and the Taylor Swift genAI deepfake problem”
Computerworld
Profilo LinkedIn di Shane Jones, ultima consultazione 14 Aprile 2024
Cina. 25 Novembre 2022, Legge sul deepfake: “Regolamenti sulla gestione dei servizi di informazione Internet di sintesi profonda“
Cyberspace Administration of China, 15 Settembre 2021, “Opinions on Further Intensifying Website Platforms’ Entity Responsibility for Information Content”
Emmie Hine & Luciano Floridi, July 20, 2022, “New deepfake regulations in China are a tool for social stability, but at what cost?”, Nature Machine Intelligence
Regolamento UE 2022/2065 sui servizi digitali o Dogital Services Act
Carl Vander Maelen (Ghent University, Faculty of Law and Criminology) and Rachel Griffin (Sciences Po Law School), June 12, 2023, “Twitter’s retreat from the Code of Practice on Disinformation raises a crucial question: are DSA codes of conduct really voluntary
Open AI, January 11, 2023, “Forecasting potential misuses of language models for disinformation campaigns and how to reduce risk”
Open AI, January 15, 2024, “Linee Guida Elezioni 2024”
Wang Jun, Feng Liange, 26 Febbraio 2024, “AI disegna Ultraman: i tribunali cinesi hanno emesso la prima sentenza effettiva al mondo sulla violazione del copyright da parte di servizi di intelligenza artificiale generativa”
Causa Authors Guild, Case 1:23-cv-08292, depositata il 19.09.2023 presso il Distretto meridionale di New York
Causa Silverman/OpenAI Inc., District Court, N.D. California
Redazione, 29 Marzo 2024, “Crescono le cause contro OpenAI per la violazione del copyright”
Causa The Intercept Media inc./OpenAI, Case 1:24-cv-01515, 28.02.24,
Causa Raw Story Media inc. e Alternet Media inc./OpenAI, Case 1:24-cv-01514, 28.02.24
Luciano Floridi, Milano 2022, “Le sfide reali che l’IA solleva” in “Etica dell’Intelligenza artificiale. Sviluppi, opportunità, sfide“, Raffaello Cortina Editore, cap. X.
Enzo Manes, Gennaio 2024, “La convivenza da ricercare” in Riv. Trimestrale, Nuova Atlantide N.11 – IO con IA. Intelligenza Artificialeb
UNESCO, Novembre 2021, “Recommendation on the Ethics of Artificial Intelligence”
UNESCO, Giugno 2023, “Foundation Models such as ChatGPT through the prism of the UNESCO Recommendation on the Ethics of Artificial Intelligence”
Aimee Rinehart, October, 3, 2023, “Let’s collaborate to build a journalism-specific LLM”
UNESCO, 2024, “User empowerment through media and information literacy responses to the evolution of generative artificial intelligence (GAI)”
Carola Frediani, 28 Febbraio 2024 “In tempi di AI, ogni contenuto informativo è re”, Guerre di Rete – Newsletter
I contenuti di questo documento vengono distribuiti con licenza Creative Commons By
- Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato
- Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere per qualsiasi fine, anche commerciale.
Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza