Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni Accetto
Ordine dei Giornalisti - Consiglio Nazionale
15/04/2024
Giornalismo e intelligenza artificiale: aspetti giuridici e normativi
Deborah Bianchi
Avvocato in diritto dell’internet
Data l’ampiezza della trattazione, il testo è stato suddiviso in capitoli collegati ai pulsanti qui sotto.
Nell’ambito dei sistemi di intelligenza artificiale è necessario “fare squadra” per produrre, ottenere e/o conservare contenuti di qualità. La legittima obiezione che muoverete: “come si può fare squadra con Golia se siamo dei piccoli Davide?” Siamo d’accordo.
L’impresa è veramente ardua ma esistono alternative costruttive? Indubbiamente la collaborazione implica la ricerca di soluzioni di compromesso che però risulterebbero del tutto accettabili se alla stampa fosse riconosciuto il ruolo di “cane da guardia” del modello GenAI. Un “cane da guardia” non spaventato né entusiastico ma consapevole.
In tal senso condividiamo questo pensiero di Luciano Floridi[1]: “noi siamo e rimarremo, in qualsiasi prevedibile futuro, il problema, non la nostra tecnologia. Questo è il motivo per cui dovremmo accendere la luce nella stanza buia e guardare attentamente dove stiamo andando. Non ci sono mostri ma molti ostacoli da evitare, rimuovere o negoziare. Dovremmo preoccuparci della vera stupidità umana, non dell’Intelligenza Artificiale immaginaria, e concentrarci sulle sfide reali che l’IA solleva”.
La via dell’etica tracciata dall’UNESCO
L’UNESCO ha elaborato una Raccomandazione[2] per tracciare i principi etici da seguire nella governance dei modelli GenAI e dell’AI. Sulla base di questo documento è stata eseguita una valutazione di impatto etico di Chat GPT[3] anche grazie all’esperienza del Gruppo di esperti di alto livello sull’AI (HLEG) per esplorare ChatGPT in dialogo con le prospettive critiche emergenti sull’argomento. Al fine di esemplificare e di sintetizzare questa valutazione di impatto etico, la scrivente ha elaborato la tabella riportata di seguito.
UNESCO Recommendation on the Ethics of Artificial Intelligence Novembre 2021 Preparata da Ad Hoc Expert Group (AHEG) e adottata da UNESCO | Modello GenAI Presenta i requisiti richiesti dalla Racc. UNESCO? Giugno 2023 Le risposte a questa domanda si evincono dalla Valutazione di Impatto Etico eseguita da UNESCO su Chat GPT |
TRASPARENZA E SPIEGABILITÀ Paragrafo 39 | |
Una maggiore trasparenza contribuisce a società più pacifiche, giuste, democratiche e inclusive. Consente un controllo pubblico che può ridurre la corruzione e la discriminazione e può anche aiutare a rilevare e prevenire impatti negativi sui diritti umani. | NO Modelli come ChatGPT sono opachi sia in relazione al set di dati utilizzato per addestrarli (OpenAI ha rifiutato di rivelare quali dati sono stati utilizzati per addestrare GPT-4; Barr, 2023), sia in relazione al funzionamento del sistema stesso nel modo in cui ricava le sue risposte. |
La trasparenza mira a fornire informazioni appropriate ai rispettivi destinatari per consentire loro la comprensione e promuovere la fiducia. | NO Per impostazione predefinita, questi strumenti non sono in grado di verificare l’accuratezza delle informazioni fornite. Inoltre, quando vengono invitati a fornire riferimenti o citazioni, spesso creano risorse inventate per supportare i loro risultati. Il sistema cerca di creare un testo simile a quello umano che non si basa su fonti di conoscenza curate ma su un modello statistico che cerca di ottimizzare la previsione della parola successiva in una frase. Il suo modello può quindi raggiungere il suo obiettivo senza necessariamente essere veritiero, in atti spesso definiti “allucinazioni”. |
La trasparenza può consentire alle persone di capire come viene messa in atto ogni fase di un sistema Al. | NO Sulla base di quanto già sopra esposto. |
Può anche includere informazioni sui fattori che influenzano una previsione o una decisione specifica e se sono in atto o meno garanzie appropriate (come misure di sicurezza o di equità). | NO ChatGPT presenta i suoi risultati in modo persuasivo e autorevole e può quindi innescare esiti negativi generando informazioni fittizie (Hacker News, 2023; Qadir, 2022) e facilitando la creazione e la distribuzione di campagne di disinformazione, soprattutto se combinate con altre IA generative per creare deepfakes (Edwards, 2023). |
In caso di gravi minacce di effetti negativi sui diritti umani, la trasparenza può anche richiedere la condivisione di codici o set di dati | NO OpenAI ha rifiutato di rivelare quali dati sono stati utilizzati per addestrare GPT-4 (Barr, 2023). |
TRASPARENZA E SPIEGABILITÀ Paragrafo 40 | |
La spiegabilità si riferisce a rendere intelligibile e fornire informazioni sul risultato dei sistemi Al. La spiegabilità dei sistemi Al si riferisce anche alla comprensibilità dell’input, dell’output e del funzionamento di ogni blocco di costruzione algoritmico e a come contribuisce al risultato dei sistemi. | NO Come accennato in precedenza, è stato dimostrato che gli attuali LLM generano informazioni fittizie e riferimenti accademici inventati a sostegno delle loro affermazioni. Fornire trasparenza e spiegabilità potrebbe comportare, come minimo, la fornitura di un elenco di riferimenti reali per le affermazioni fattuali fatte in una risposta in modo che gli utenti possano capire da dove provengono le risposte che ricevono e avere più potere di giudicare il loro livello di verità, parzialità. e affidabilità – e, se del caso, anche dando credito ai creatori dei contenuti da cui lo strumento trae i suoi risultati. |
Pertanto, la spiegabilità è strettamente correlata alla trasparenza, poiché i risultati e i sottoprocessi che portano ai risultati dovrebbero mirare ad essere comprensibili e tracciabili, appropriati al contesto. | NO Sulla base di quanto già sopra esposto |
Tutti gli attori dovrebbero impegnarsi a garantire che gli algoritmi sviluppati siano spiegabili. | NO Sulla base di quanto già sopra esposto |
Nel caso di applicazioni Al che hanno un impatto sull’utente finale in modo non temporaneo, facilmente reversibile o altrimenti a basso rischio, si dovrebbe garantire che la spiegazione significativa sia fornita con ciascuna decisione che abbia portato all’azione intrapresa in modo che il risultato sia considerato trasparente. | NO Sulla base di quanto già sopra esposto |
Modello GenAI Cosa dovrebbe fare lo Stato secondo la Racc. UNESO? Le risposte a questa domanda si evincono dalla Valutazione di Impatto Etico eseguita da UNESCO su Chat GPT | |
COMUNICAZIONE E INFORMAZIONE Paragrafo 114 | |
Gli Stati membri dovrebbero investire e promuovere le competenze di alfabetizzazione digitale e mediatica e informativa per rafforzare il pensiero critico e le competenze necessarie per comprendere l’uso e le implicazioni dei sistemi Al, al fine di mitigare e contrastare la misinformazione, la disinformazione e l’incitamento all’odio. | |
Gli Stati membri dovrebbero investire e promuovere una migliore comprensione e valutazione degli effetti sia positivi che potenzialmente dannosi dei sistemi di raccomandazione. | |
CONCLUSIONI DELLA VALUTAZIONE DI IMPATTO ETICO ESEGUITA DA UNESCO SU Chat GPT “In queste sezioni abbiamo elencato alcune delle preoccupazioni relative ai modelli di IA di base attraverso la lente della Raccomandazione dell’UNESCO. Come dimostra questa analisi, strumenti come ChatGPT non sono attualmente progettati, sviluppati e distribuiti in modo conforme alla Raccomandazione”. |
Costruiamo un “GenAI Etico” per i giornalisti
La valutazione di impatto etico eseguita su Chat GPT da UNESCO giunge alla conclusione che questo modello e i suoi simili non sono conformi alla “Recommendation on the Ethics of Artificial Intelligence” e quindi non è un modello etico. Se i GenAI, così come descritti nella valutazione di impatto etico, non sono modelli etici occorrerà costruirne uno nuovo: un “GenAI Etico” per i giornalisti.
Gli studiosi già sopra ricordati Mike Ananny, professore associato specializzato in comunicazione e giornalismo alla University of Southern California Annenberg School e Jake Karr, vicedirettore della Technology Law and Policy Clinic presso la New York University, fondatori del progetto di ricerca “Knowing Machines”, non si limitano soltanto a parlare di GenAI ma invitano tutti i giornalisti a ricercare il modo per “rimodellare” i modelli intelligenti.
I giornalisti dovrebbero imparare a capire le politiche alla base dei dataset e dei modelli per rivelarne al mondo il funzionamento e gli eventuali errori, bias e allucinazioni perché nell’era GenAI “press freedom means controlling the language of AI”[4]. In sintonia con Ananny e Karr, la studiosa Aimee Rinehart[5]si spinge ancora oltre e propone di costruire un LLM specifico per il giornalismo. Propone tre ipotesi:
I contenuti freschi di una redazione potrebbero essere più preziosi di quanto si possa immaginare uniti ad un addestramento presidiato da correttivi introdotti dalla revisione umana. La Rinehart prospetta la costruzione di questo LLM per il giornalismo con l’obiettivo di conservare la libertà di stampa e quindi anche della democrazia: “Building a journalism-specific LLM is not the thing to compete on. Democracy is at stake, so is our industry. Let’s build LLMs together and take advantage of this technology before it takes full advantage of us, again”[6].
Giustamente la Rinehart sottolinea con forza che in questo momento bisognerebbe mettere da parte la competitività e impegnarsi uniti nella costruzione di questo nuovo “GenAI Etico” che, una volta realizzato, porrebbe le redazioni al riparo dalle sorprese dei “GenAI Commerciali”. Il mondo del giornalismo inoltre dispone di dataset di qualità, vantaggio da non sottovalutare. L’impresa non convince? Non è concretamente realizzabile? Bene, allora non resta che costringere i GenAI esistenti a rimodellarsi, denunciando costantemente gli outputs errati, allucinati, fuorvianti, non identificati né identificabili, privi di marcatura e/o di etichettatura, non accompagnati dalla revisione umana e così via.
Giornalisti, media sintetici e MIL[7]
Rimodellare i modelli o costringere i fornitori di GenAI a farlo richiede uno sforzo titanico che dobbiamo comunque affrontare perché non esiste alternativa. Autorevole fonte paragona il giornalismo su e con GenAI al giornalismo investigativo open source: “[il giornalismo investigativo open source] interrompe la tradizionale esclusività giornalistica, promuovendo un insieme di competenze e una metodologia che possono essere utilizzate dal grande pubblico”, scriveva nel 2022 il Nieman Reports, pubblicazione pluripremiata sugli standard del giornalismo. In questo contesto, come hanno scritto nel 2021 Nina Müller e Jenny Wiik, ricercatrici dell’Università di Göteborg, i giornalisti non sono più “gatekeepers” (custodi dell’informazione) ma “gate-openers” (coloro che abilitano e favoriscono l’accesso alle informazioni)”[8].
In effetti l’etica del giornalista che utilizza GenAI o che decodifica/depura gli outputs di GenAI è quella di un “gate-openers”. I “contenuti sintetici” prodotti da uno o più modelli intelligenti insieme (mix di testo+immagini+video) si presentano all’utente come verità assiomatiche, come fatti. Invece tutto è da verificare: a partire dai dati usati dal GenAI, passando dal controllo sull’addestramento fino alla valutazione di impatto sui diritti fondamentali.
Alle fonti primarie e secondarie della notizia, ora si aggiungono le fonti terziarie, inconoscibili, perché sintetizzate dal GenAI. Dove trovare le prove e i mezzi per identificarle? L’AI Act e le Misure su GenAI della Cina obbligano le piattaforme a avvertire gli utenti, ad apporre etichette di contenuto, filigrane o note di contesto ma il back-end di un contenuto sintetico è un’area opaca tutta da investigare. Investigare dal giornalista quando si tratta di notizie o di eventi (video) o di persone di rilievo pubblico (deepfake nelle campagne elettorali).
Sono outputs derivati da basi informative open source oppure sotto copyright? Saranno stati elaborati anche dati delicati come salute, razza, convinzioni religiose o politiche? Saranno stati elaborati dati di minori? Immagini di minori? Scoprire tutto questo ora è anche compito del giornalista che vuole riportare alla luce la verità ai propri lettori.
Sotto questo profilo, i criteri di questa investigazione potrebbero essere individuati negli strumenti della Media Intelligence Literacy (MIL). La MIL è un’area di alfabetizzazione composita che implica alfabetizzazione sui dati, alfabetizzazione sugli algoritmi e alfabetizzazione sui GenAI; è un “insieme di competenze che consente alle persone di valutare criticamente, comunicare e collaborare efficacemente con Al” (Hargittai et al 2020)[9].
Da questo punto di vista, il lavoro del giornalista è un’attività fortemente inclusiva. Laddove i GenAI disintermediano e isolano l’utente, il giornalista riannoda tutti i collegamenti della catena di valore dell’AI e così facendo permette al lettore di accedere all’informazione autentica, stimolandone il senso critico. Il giornalista deve inoculare nell’informazione restituita dagli outputs dei GenAI il germe dell’inclusività coinvolgendo tutti gli stakeholders dell’argomento trattato innescandovi il dibattito pubblico. Il giornalista non può più affrontare da solo la notizia. Il suo lavoro adesso non è più dare l’informazione. Il suo lavoro adesso è quello di dare vita all’informazione in sistemi di intelligenza collettiva.
Pertanto, l’era dei modelli GenAI, lungi dal decretare la morte del giornalismo, potrebbero segnarne una nuova primavera in cui la stampa si riappropria della sua dignità di servizio pubblico liberando la notizia dalla privatizzazione delle “scatole chiuse”. Addirittura, innescando dei tavoli di intelligenza collettiva, il giornalista potrebbe farsi portavoce dei cittadini affinchè questi vengano invitati a partecipare alla realizzazione della governance dei modelli GenAI e così fare unitamente alla stampa i “cani da guardia dei modelli GenAI” e quindi della democrazia: “senza un’appropriazione attiva da parte dei cittadini, questi scenari avranno un impatto limitato e non saranno sostenibili. A meno che i cittadini non siano consapevoli della loro esistenza e dei benefici previsti, non possono agire come cani da guardia dell’IA. I rappresentanti degli utenti, come quelli che si trovano negli attori della comunità MIL e nella società civile in generale, dovrebbero essere inclusi nei meccanismi di regolamentazione in corso considerati per i GenAI. Possono partecipare alle discussioni che si svolgono a livello locale, nazionale e globale sulla governance dell’IA e possono essere visti come risorse nell’implementazione, nella distribuzione e nel monitoraggio della governance dell’IA”[10]
—
[1] Luciano Floridi “Le sfide reali che l’IA solleva” in “Etica dell’Intelligenza artificiale. Sviluppi, opportunità, sfide“, Raffaello Cortina Editore, Milano 2022, cap. X. Ripreso anche da Enzo Manes “La convivenza da ricercare” in Riv. Trimestrale, Nuova Atlantide N.11 – Gennaio 2024, IO con IA. Intelligenza Artificialeb
[2] “Recommendation on the Ethics of Artificial Intelligence”, redatta da AHEG e adottata da UNESCO nel Novembre 2021
[3] “Foundation Models such as ChatGPT through the prism of the UNESCO Recommendation on the Ethics of Artificial Intelligence”, adottata da UNESCO nel Giugno 2023
[4] Cit. “Press freedom means controlling the language of AI”, Mike Ananny e Jake Karr, “Knowing Machines”, Sept. 27, 2023
[5] “Let’s collaborate to build a journalism-specific LLM”, Aimee Rinehart, 3 ottobre 2023
[6] Cit. “Let’s collaborate to build a journalism-specific LLM”.
[7] Media Intelligence Literacy (MIL)
[8] “In tempi di AI, ogni contenuto informativo è re”, di Carola Frediani, Guerre di Rete, 28 Febbraio 2024 https://www.guerredirete.it/in-tempo-di-ai-ogni-contenuto-informativo-e-re/
[9] “User empowerment through Media and Information Literacy responses to the evolution of Generative Artificial Intelligence (GAI)”, Frau-Meigs, Divina, UNESCO 2024, pag.5
[10] “User empowerment through Media and Information Literacy responses to the evolution of Generative Artificial Intelligence (GAI)”, Frau-Meigs, Divina, UNESCO 2024, pag.14
DEBORAH BIANCHI
L’Avv. Deborah Bianchi è specializzato in diritto dell’Internet dal 2006. Opera da 15 anni in consulenza e tutela: diritto all’oblio, web reputation e brand reputation, cyberbullismo, cyberstalking, diffamazione on line. Svolge incarichi di DPO e di consulenza e adeguamento al GDPR 2016/679. Scrive per le riviste giuridiche de Il Sole 24 Ore, Giuffrè, Giappichelli. E’ autore dei libri: Internet e il danno alla persona-Giappichelli;Danno e Internet. Persona, Impresa, Pubblica Amministrazione-Il Sole 24 Ore;Difendersi da Internet-Il Sole 24 Ore;Sinistri Internet. Responsabilità e risarcimento-Giuffrè. E’ formatore in corsi e convegni
I contenuti di questo documento vengono distribuiti con licenza Creative Commons By
Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza
URL pagina: https://www.odg.it/giornalismo-e-intelligenza-artificiale-aspetti-giuridici-e-normativi-etica-del-giornalismo-con-i-modelli-genai/55547
Copyright ©2024 Ordine Dei Giornalisti