immagine realizzata con IA Midjourney

REPORT 2024

Giornalismo e intelligenza artificiale: aspetti giuridici e normativi

Deborah Bianchi
Avvocato in diritto dell’internet

Data l’ampiezza della trattazione, il testo è stato suddiviso in capitoli collegati ai pulsanti qui sotto.

PANORAMA NORMATIVO INTERNAZIONALE E INTERNO

Disciplinare i modelli GenAI. Unione Europea: la regolamentazione dell’AI Act.
L’Unione Europea ha approvato l’AI Act il 13 marzo 2024. Si tratta di un Regolamento con l’ambizione di fungere da legal framework anche per gli Stati extraUE. In realtà il disegno eurounitario per l’intelligenza artificiale è costituito da più normative di cui le principali sono l’AI Act, l’AI Liability Directive (AILD) e la Product Liability Directive (PLD). La Direttiva AILD disciplina i casi di responsabilità civile in tema di intelligenza artificiale. La Direttiva PLD è dedicata alla responsabilità da “prodotto intelligente difettoso”. L’AI Act detta la governance per i modelli intelligenti.

Questo Regolamento affronta la questione dell’impatto di AI o di GenAI sui diritti fondamentali secondo livelli di rischio crescenti che implicano obblighi parimenti crescenti per tutti i soggetti della filiera relativa al modello intelligente: fornitore; produttore; rappresentante autorizzato; importatore; distributore; utente.

L’Intelligenza Artificiale innesca un rapporto dinamico e continuo tra innovazione e regolamentazione che si declina nella prevalenza dell’una o dell’altra componente a seconda della politica dei vari continenti.

La politica eurounitaria, focalizzata sulla centralità dell’uomo, risulta più tesa alla regolamentazione sebbene con il meccanismo della graduazione del rischio riesca anche ad implementare l’innovazione in modo inversamente proporzionale ai livelli di pericolosità. Così non si rinuncia al pieno sviluppo della tecnologia quando quest’ultima sia poco impattante sui diritti fondamentali. Parimenti si esclude a priori la tecnologia che importi un rischio inaccettabile. Nell’area intermedia tra il “massimo dell’innovazione-zero rischi” e il “massimo del rischio-zero innovazione” il grado di regolamentazione spazia dai meri obblighi di informazione, all’autoregolamentaziome dei codici di buona condotta, a protocolli sempre più stringenti di misure adeguate incluse le valutazioni di impatto.

Si tenta di trovare un bilanciamento tra innovazione e rischio relazionandoli in modo inversamente proporzionale. Si individuano così degli abbinamenti tra ciascuna categoria di rischio e i corrispondenti obblighi da adempiere.

Rischio inaccettabile-divieto assoluto di praticare l’attività.

Es. manipolazione, social scoring, riconoscimento emozioni, sistemi di categorizzazione biometrica.

Rischio alto-obblighi prima di immettersi sul mercato (adottare sistema di gestione del rischio e registrazione).

Innanzitutto occorre eseguire una valutazione di impatto sui diritti fondamentali (FRIA) per stabilire il grado di rischio. All’esito della FRIA si dovrà procedere a realizzare un sistema di gestione del rischio continuo (per tutto il ciclo di vita del modello) rispettoso dei requisiti di trasparenza algoritmica, tracciabilità, interoperabilità, cyber security, non discriminazione, sorveglianza umana (es. monitoraggio), registrazione e segnalazione degli incidenti.

Dovranno essere documentate le scelte tecniche ed etiche con i relativi passaggi logici sottese al sistema di gestione del rischio realizzato. Occorre altresì predisporre le istruzioni sul funzionamento e sulle finalità del modello che verranno fornite al distributore e/o agli utenti. Infine il modello dev’essere registrato nell’apposito data base pubblico dell’UE consultabile dagli utenti. Questa registrazione è obbligatoria anche per i modelli GenAI.

I modelli GenAI sono considerati ad Alto rischio in quanto tali. Dunque si dovranno rispettare tutti gli obblighi sopra esposti oltre ad altri aggiuntivi. Questi ultimi sono: l’obbligo di marcatura per avvisare che gli outputs sono prodotti artificiali; l’obbligo di etichettatura per rivelare la provenienza dell’output; l’obbligo di descrivere il set di dati usati per l’addestramento; l’obbligo di rispettare i diritti di autore e di copyright relativi al set di dati nonchè l’obbligo di rispettare la privacy.

L’AI Act stabilisce che per semplificare tutti questi adempimenti ogni Stato Membro si doti di proprie leggi e relativa documentazione per fornire degli esempi di sistemi di gestione del rischio conformi e quindi imitabili dalle imprese che vogliono costruire un modello intelligente.

Rischio limitato-obbligo di informativa.

Es. avvertire la persona che sta interagendo con un modello intelligente.

Rischio minimo-nessun obbligo, possono essere realizzati codici di condotta volontari.

L’applicazione dell’AI Act sarà graduale:

    • dopo 6 mesi diviene effettivo il divieto per i sistemi che implicano un rischio inaccettabile;
    • dopo 12 mesi diviene effettiva la disciplina sui modelli GenAI che ancora non sono sul mercato (per quelli invece già sul mercato l’applicazione slitta a 24 mesi);
    • dopo 36 mesi diviene effettivo per tutti i sistemi ad alto rischio che non sono modelli GenAI.

Gli Stati membri hanno 12 mesi per creare o individuare l’Autorità competente e 24 mesi per elaborare la regolamentazione locale.

 

Disciplinare i modelli GenAI. Stati Uniti: tra deregulation e raccomandazioni uniformanti.
La politica statunitense ha preferito la via della deregulation salvo per specifici settori permeati da AI e da GenAI presidiati dalle Autorità Indipendenti (es. Federal Trade Commission – FTC). Emerge dunque uno scenario frammentato, popolato da settori dove vale l’autoregolamentazione delle imprese Big Tech e da settori dominati dalla disciplina della singola Autorità. Su questo scenario è stata calata una rete di raccomandazioni a vocazione uniformante nell’ottobre 2023 grazie all’Executive Order emanato dal Presidente Biden.

La deregulation trova giustificazione nella tradizione giuridica americana e nel fatto concreto della concentrazione territoriale negli USA di molte delle principali imprese tecnologiche mondiali. La deregulation costituisce dunque il regime ideale per consentire alle Big Tech di impegnarsi liberamente nell’innovazione e nello sviluppo del settore. Tuttavia le raccomandazioni dell’Executive Order del Presidente Biden rivelano la consapevolezza della necessità di affrontare uniformemente un tema così impattante[1].

Il governo statunitense ha affidato e affida la gestione dei rischi AI e GenAI ai molti organismi di regolamentazione competenti nello specifico settore e in grado di governare la materia autonomamente grazie al loro stato di istituzioni indipendenti. Ad esempio, “la FTC ha autorità su pratiche “false e ingannevoli” come i deepfake dell’IA. La Commissione per le pari opportunità di lavoro sta affrontando i potenziali pregiudizi dei modelli di intelligenza artificiale nei processi di assunzione[2].

Queste modalità di gestione del rischio consentono tutele più veloci e più efficaci però implicano inevitabilmente una forte frammentarietà regolamentare che difficilmente potrà trovare un centro di armonizzazione riconducibile a un’unica legge statunitense sull’intelligenza artificiale. Così il sistema americano in molti casi resta esposto a lacune di carattere regolamentativo e di individuazione dell’Autorità competente a trattare quella determinata questione.

A livello formale le quattro Autorità – Federal Trade Commission (“FTC”), Consumer Financial Protection Bureau (“CFPB”), Department of Justice’s Civil Rights Division (“DOJCRD”), Equal Employment Opportunity Commission (“EEOC”) – hanno sottoscritto il 25 Aprile 2023 una dichiarazione – “Joint Statement on Enforcement Against Unlawful Use of Automated Systems[3]– in cui assumono l’impegno a far rispettare le leggi già esistenti all’interno delle rispettive competenze per proteggere da pregiudizi e altri danni dei sistemi automatizzati intelligenti. Tuttavia si tratta solo di una dichiarazione di intenti e non contiene nessuna nuova disposizione uniformante.

E’ vero che Biden ha emanato un Executive Order 30.10.2023 “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence[4]però sono più raccomandazioni che una vera e propria legge trasversale e unificante sul tema. Progetto irraggiungibile al momento anche a causa della profonda spaccatura nel Congresso.

Di seguito verrà sinteticamente dato conto dell’Executive Order di Biden e delle attività della Federal Trade Commission e della Commissione Pari Opportunità nell’Impiego in tema di modelli intelligenti distribuiti in cloud come “model-as-a-service”.

 

L’Executive Order di Biden sull’Intelligenza Artificiale
L’“Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” emanato da Biden il 30.10.23 è rivolto alle Agenzie Governative Federali e non ai singoli Stati. La preoccupazione prevalente dell’atto infatti è la sicurezza statunitense.

Nell’Ordine Esecutivo si raccomandano determinati tipi di condotte: di seguito si espongono le principali raccomandazioni in tema di sicurezza, privacy e non discriminazione, seguite da brevi cenni a consumatori, pazienti, studenti, lavoratori nonchè a innovazione e concorrenza.

Sicurezza

Si raccomanda alle maggiori “fabbriche di AI americane” di tenere il governo federale sempre aggiornato sull’addestramento dei modelli molto grandi e di riferire gli esiti dei test affinchè questi sistemi intelligenti vengano puntualmente controllati prima di essere immessi sul mercato. Il National Institute of Standards and Technology (NIST) provvederà a stabilire standards rigorosi per i test da eseguirsi prima di autorizzare la distribuzione dei modelli GenAI al pubblico.

Si stabilisce che le agenzie governative competenti per lo sviluppo delle scienze biologiche pongano come condizione per ricevere finanziamenti federali l’applicazione di rigorosi standards elaborati per lo screening della sintesi biologica al fine di evitare il proliferare di materiali biologici pericolosi.

Al Dipartimento del Commercio viene affidato il compito di elaborare linee guida e best practices per l’etichettatura dei contenuti generati dall’AI con l’obiettivo di proteggere gli americani dalla disinformazione.

Al fine di opporre maggiori difese contro gli attacchi informatici, si raccomanda di trovare e correggere le vulnerabilità dei sistemi secondo quanto disposto nell’AI Cyber Challenge per rendere i sistemi e le reti più sicure.

In termini di sicurezza degli Stati Uniti si raccomanda al Consiglio di Sicurezza e al Capo di Gabinetto della Casa Bianca di redigere un memorandum atto a ispirare iniziative volte a garantire l’uso sicuro, etico ed efficace dell’AI da parte dell’esercito e dei servizi segreti nelle loro missioni.

Privacy.

Il Presidente Biden invita il Congresso ad approvare una legge sulla privacy che si preoccupi di promuovere le tecniche tese a conservare la protezione dei dati sottoposti all’addestramento dei modelli intelligenti. Ad esempio gli strumenti crittografici. Invita altresì il Congresso a stilare delle linee guida per le Agenzie Federali affinchè possano svolgere i compiti assegnati sapendo valutare compiutamente la validità delle tecniche a tutela della privacy.

Non discriminazione.

Equità e diritti civili contro la discriminazione algoritmica possono essere promossi grazie al coordinamento tra il Dipartimento della Giustizia e gli Uffici federali per I Diritti Civili in attività dedite a ricercare e valutare le migliori pratiche per indagare e perseguire le violazioni dei diritti civili insite nei sistemi intelligenti.

Una particolare attenzione viene prestata al sistema di giustizia penale, teatro nel 2016 del caso Loomis[5].

Consumatori, pazienti e studenti

In tema di sanità, si raccomanda al Dipartimento della Salute e dei Servizi Umani l’attivazione di un programma di sicurezza e di valutazione delle segnalazioni su medicinali e/o pratiche sanitarie che utilizzano impropriamente l’AI al fine di apportare dei rimedi e dei correttivi. A livello scolastico si raccomanda di destinare delle risorse per sostenere gli educatori ad apprendere il funzionamento di strumenti intelligenti da impiegare ad esempio nel tutoraggio personalizzato in aula.

Lavoratori

Si raccomanda di controbilanciare le ricadute dell’AI sui lavoratori in termini di spostamenti e/o interruzioni del lavoro a causa dei sistemi intelligenti apprestando il sostegno federale.

Innovazione e Concorrenza

Si raccomanda in particolare di promuovere l’accesso all’assistenza tecnica e alle risorse per le piccole imprese affinchè possano commercializzare i sistemi intelligenti. Si richiede di attirare negli Stati Uniti immigrati specializzati in AI da tutto il mondo grazie all’introduzione di metodi di snellimento dei meccanismi di immigrazione: ad esempio semplificando i criteri per i visti e le revisioni.

 

La Federal Trade Commission (FTC) ordina l’eliminazione dei “model-as-a-service” lesivi
I “model-as-a-service” sono modelli GenAI che vengono venduti alle aziende come servizi in cloud. Ad esempio, una società tecnologica può addestrare un modello linguistico di grandi dimensioni (LLM) e venderne l’accesso alle aziende (negozi online, hotel, banche, ecc.) che lo applicano ai chatbot del servizio clienti.

Il rischio di questo tipo di modelli viene individuato nella possibilità di carpire abusivamente dati da parte della società fornitrice del sistema intelligente. Dati sprigionati dall’utilizzo del servizio “model-as-a-service” come informazioni relative alla gestione interna dell’azienda che fruisce del modello e come i dati personali e non degli interessati che si rivolgono al servizio clienti governato dal “model-as-a-service”.

Negli Stati Uniti – come abbiamo detto – non esiste un regolamento federale specifico sull’Intelligenza Artificiale e dunque la Federal Trade Commission cerca di contrastare le ricadute negative degli utilizzi impropri di questa tecnologia con le discipline esistenti ovvero la normativa antitrust e a tutela dei consumatori.

In un post apparso sul blog della FTC il 9 gennaio 2024[6], la Commissione si rivolge a tutte le aziende che costruiscono modelli GenAI distribuendoli sul mercato come servizi in cloud (model-as-a-service) e avverte che saranno colpite da ordini restrittivi e da sanzioni ove, all’insaputa delle aziende e/o degli interessati, acquisiscano i dati (aziendali e i dati personali e non dei clienti) sprigionati dall’utilizzo del modello intelligente e li annettano ai set di addestramento. Tuttavia la FTC ha già applicato ordini assai più gravi per le imprese ovvero decretare l’inutilizzabilità dei modelli che in qualche modo abbiano impropriamente utilizzato i dati delle aziende e/o i dati dei consumatori.

La FTC osserva che le aziende costruttrici di “model-as-a-service” hanno una continua fame di dati per sviluppare modelli nuovi o personalizzati per il cliente oppure per perfezionare quelli esistenti. Questa necessità di ingerire costantemente dati aggiuntivi può causare utilizzi impropri delle informazioni, tali da violare sia la privacy degli utenti[7] sia gli equilibri del mercato carpendo scorrettamente dati competitivamente significativi di un’azienda. Questo rischio – spiega la FTC- “è particolarmente saliente visto che i clienti possono rivelare informazioni sensibili o riservate quando utilizzano i modelli di un’azienda, […] C’è anche il rischio che una società model-as-a-service possa, attraverso le sue API, dedurre una serie di dati aziendali dalle imprese che utilizzano i suoi modelli, come le relative traiettorie di crescita[8]

Nelle sue precedenti azioni, la FTC ha richiesto alle aziende che ottengono illegalmente i dati dei consumatori di eliminare qualsiasi prodotto, inclusi modelli e algoritmi: si pensi all’Ordine impartito ad Amazon dalla FTC e dal Dipartimento di Giustizia di pagare 25 milioni di dollari e cancellare i dati dei bambini, i dati di geolocalizzazione e altre registrazioni vocali[9].

In merito alla “politica” molto tranchant della FTC, autorevole fonte osserva che “la conseguenza, […] non … solo di tipo sanzionatorio … potrebbe spingersi sino a un ordine di cancellazione di tutti i dati sin qui raccolti e, soprattutto, di inutilizzabilità assoluta dei modelli di intelligenza artificiale sviluppati grazie al trattamento eventualmente illecito di dati personali.

È una conseguenza astrattamente capace di riportare le lancette dell’orologio dell’industria mondiale dell’intelligenza artificiale, indietro di diversi anni, davanti alla quale il provvedimento di sospensione temporanea del trattamento dei dati personali a suo tempo impartito dal Garante italiano per la privacy, all’indirizzo di OpenAi, impallidisce”[10].

In questo senso si annoveri anche l’indagine avviata dalla FTC sugli investimenti e sulle partnership nell’intelligenza artificiale generativa nei confronti di Alphabet Inc., Amazon.com Inc., Anthropic PBC, Microsoft Corp. e OpenAI Inc.[11]. Gli ordini emessi sono stati inviati alle società coinvolte in tre investimenti multimiliardari separati: Microsoft e OpenAI, Amazon e Anthropic e Google e Anthropic. L’inchiesta della FTC aiuterà l’agenzia ad approfondire la comprensione degli investimenti e delle partnership formate tra gli sviluppatori di intelligenza artificiale generativa e i fornitori di servizi cloud.

In ultima analisi, nonostante il regime di deregulation statunitense, si evince chiaramente la necessità di guidare il fenomeno dei GenAI. Si tratta di una esigenza avvertita da tutti i sistemi ordinamentali nel mondo. Vedremo nel prosieguo le iniziative legislative della Cina che – sebbene ancora non abbia una legge trasversale e unificante in tutta la materia dell’AI come l’AI Act europeo – si è dotata di una legge specifica sui modelli GenAI.

 

La Commissione Pari Opportunità nell’Impiego (EEOC) e la discriminazione nei processi di assunzione
La Commissione Pari Opportunità nell’Impiego[12] ha affermato che continuerà ad applicare il Titolo VII della Legge sui Diritti Civili dedicata alla prevenzione della discriminazione nelle procedure di assunzione a prescindere che il rischio derivi da un uomo o da una macchina.

Nello stesso orientamento la Legge Locale 144 di New York City[13] impone l’esecuzione di audit sui pregiudizi nelle procedure di assunzione automatizzate.

 

Disciplinare i modelli GenAI. Cina: sistema dirigistico.
La politica cinese ha assunto un approccio dirigistico nell’ambito GenAI disciplinato da un unico atto normativo. Negli altri settori AI esistono leggi ad hoc. L’obiettivo principale della Cina è la conservazione del sistema sociale così come attualmente costituito. Tanto è vero che non vengono ammessi modelli intelligenti in grado di minacciare il socialismo.

La Cina conta diverse leggi ad hoc su determinati tipi di applicazione dell’IA ma non ha ancora una legge generale sebbene pareva che fosse orientata verso il modello dell’AI Act. Modello vagheggiato dal gigante orientale deciso a concentrare a livello di governo centrale il controllo sul prioritario settore GenAI, risistematizzando in un corpo unico la frammentarietà di singole leggi specifiche. Tuttavia, in materia di GenAI esiste una legge unica, uniforme, valida per tutti: le “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa” (Misure d’ora in poi) in vigore dal 15.08.23[14]

Questa legge rivela l’obiettivo di mantenere il controllo e la supervisione del settore ben stretto in mano al governo cinese (sistema dirigistico). Infatti l’art.4 dispone che i fornitori di GenAI costruiscano reti neurali che di base rispettino e aderiscano ai valori fondamentali del socialismo e non minaccino il sistema costituito. Ulteriore esempio di questa centralizzazione governativa viene fornito dall’art.17 in cui si stabilisce che i fornitori di modelli GenAI che impattano sull’opinione pubblica o che hanno capacità di mobilitazione sociale eseguono una valutazione di sicurezza che può anche condurre alla cancellazione degli algoritmi ove non siano in conformità con le normative nazionali e in particolare con il “Regolamento sulla gestione delle raccomandazioni degli algoritmi per i servizi di informazione su Internet[15].

Oltre al ferreo controllo sull’opinione pubblica, queste Misure rivelano anche un altro obiettivo primario ovvero la promozione dello sviluppo del settore.

Queste “Misure” infatti non prevedono i divieti dell’AI Act a tutela dei diritti fondamentali ma anzi pongono sullo stesso livello di priorità la sicurezza e lo sviluppo. Pertanto in nome dello sviluppo si può anche venire meno alla protezione dati. Ad esempio in Cina si può eseguire la profilazione dell’utente.

Inoltre, sempre per favorire lo sviluppo e l’innovazione, non sono previste sanzioni per le imprese inosservanti delle “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa” a differenza di quanto stabilito in UE con l’AI Act. Dunque all’impresa fortemente innovativa si perdona volentieri qualche mancanza. I fornitori di modelli GenAI, tuttavia, non sono completamente liberi di rincorrere le loro mire espansionistiche di sviluppo perché sono sottoposti alla sorveglianza e alle ispezioni delle Autorità competenti.

I fornitori di GenAI hanno l’obbligo di moderazione sui contenuti illegali declinato sia verso le generazioni del loro modello sia verso gli utenti che, usando il modello, producono contenuti illeciti. Le facoltà di moderazione possono consistere:

  • nell’avvertimento e limitazione;
  • nella sospensione o nell’imposizione di terminare la generazione e la trasmissione dei contenuti del produttore;
  • nell’eliminare i contenuti illegali;
  • nell’attivare la rettifica attraverso l’ottimizzazione del modello e la segnalazione del problema alle Autorità di regolamentazione.

I fornitori di GenAI, come avviene anche nell’AI Act, hanno l’obbligo di etichettatura. L’art. 8 stabilisce che essi

  • formulino regole di etichettatura chiare, specifiche e operative che siano conformi ai requisiti della legge cinese;
  • eseguano una valutazione della qualità dell’etichettatura dei dati e ne verifichino “a campione” l’accuratezza;
  • forniscano la formazione necessaria al personale addetto all’etichettatura, accrescano la loro consapevolezza del rispetto e dell’osservanza della legge e supervisionino e guidino il personale addetto affinché svolga il lavoro di etichettatura in modo standardizzato.

Questa legge cinese sui modelli GenAI impone ai fornitori di costruire reti neurali che di base rispettino e aderiscano ai valori fondamentali del socialismo; che siano impostate in senso antidiscriminatorio; che rispettino la proprietà intellettuale e i segreti aziendali; che siano in linea con il principio della concorrenza leale e non mirino a instaurare monopoli; che rispettino i diritti degli altri e non ne mettano in pericolo la salute fisica e mentale; né possano violare i diritti al ritratto, alla reputazione, all’onore, alla privacy e alle informazioni personali; che adottino misure atte a garantire la trasparenza e l’affidabilità dei contenuti generati (art.4 “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa”).

Se gli utenti riscontrano che i servizi di intelligenza artificiale generativa non rispettano le leggi compresa la presente e i regolamenti amministrativi hanno il diritto di presentare reclamo o denuncia alle autorità competenti (art.18 “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa”).

Esiste anche in questa disciplina cinese il diritto alla spiegabilità come nell’AI Act: l’art. 19 dispone infatti riguardo al set dei dati di formazione del modello che i fornitori ne spiegano la fonte, la portata, il tipo, le regole di etichettatura, il meccanismo dell’algoritmo, ecc….

Queste “Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa” fanno riferimento anche alle altre leggi cinesi del settore come la “Legge sulla sicurezza informatica della Repubblica popolare cinese”, la “Legge sulla sicurezza dei dati della Repubblica popolare cinese”, la “Legge sulla protezione delle informazioni personali della Repubblica popolare cinese”, il “Regolamento sulla gestione delle raccomandazioni degli algoritmi per i servizi di informazione su Internet”.

 

Disciplinare i modelli GenAI. Italia: una strategia tra AI Act e istanze professionali.
L’Italia al momento della stesura di questo contributo (8 aprile 2024) sta elaborando una legge complementare all’AI Act. Il Governo ha nominato due organismi: il Comitato di coordinamento per l’intelligenza artificiale del sottosegretario Alessio Butti e la Commissione IA per l’Informazione presieduta da Padre Paolo Benanti.

Il Comitato è a lavoro per realizzare la strategia italiana sull’AI e GenAI nei settori esclusi dall’AI Act come sicurezza e difesa nazionale nonchè nell’ambito produttivo legando mondo accademico e imprenditoriale.

In merito a quanto di più pertinente al presente contributo e alle istanze professionali sottese ai GenAI, qui preme parlare della Commissione IA e Informazione sotto la guida del sottosegretario all’Editoria Alberto Barachini. Quest’ultimo ha dichiarato che l’intento è quello di “studiare l’impatto dell’intelligenza artificiale nel settore dell’editoria e dell’informazione” e di “portare alla luce opportunità e rischi legati all’IA, delineando perimetri etici e possibili sinergie a tutela dell’occupazione e del diritto d’autore”[16].

Il rapporto della Commissione IA per l’Informazione in data 11 marzo 2024 è stato consegnato alla Presidenza del Consiglio dopo avere intrattenuto confronti con gli editori, con i giornalisti (Fieg, Fnsi, Ordine dei Giornalisti) e con le big tech (Meta Microsoft, Google).

Gli ambiti di impatto strategico individuati dalla Commissione sono in linea con quanto stabilito dall’AI Act:

  • tutela e valorizzazione del diritto d’autore;
  • obbligo di registro sui contenuti informativi protetti dal diritto d’autore;
  • trasparenza, riconoscibilità e tracciabilità dei contenuti prodotti dall’IA generativa tramite certificazione standardizzata;
  • difesa profili occupazionali e della professione giornalistica;
  • contrasto alla disinformazione;
  • vigilanza sulle dinamiche concorrenziali, con riferimento all’impatto sui ricavi pubblicitari;
  • individuazione di una governance sull’AI.

Verrà trattato anche nel prosieguo il problema delle ricadute potenzialmente pregiudizievoli dei GenAI nell’ambito del diritto di autore. Tuttavia risulta di grande utilità anche a livello pratico citare le ipotesi di soluzione della Commissione come per esempio la proposta di obbligare i GenAI a conservare un registro dei contenuti di in-put coperti dal diritto di autore e una finestra di consenso (opt-in con licenza) o rifiuto (opt-out) a fornire i contenuti editoriali per l’addestramento del GenAI.

il Regolamento [AIAct] introdurrà l’obbligo per gli sviluppatori di modelli di Al di grandi dimensioni di rendere disponibile una sintesi dei contenuti informativi coperti dal diritto d’autore utilizzati per addestrare i modelli.

È evidente l’interesse da tutelare: la facoltà degli editori di esercitare un controllo effettivo sui propri contenuti, garantendo i livelli occupazionali dei giornalisti, che tali contenuti producono, e potendo in effetti verificare se questi siano stati illecitamente impiegati.

Per questo, si ritiene assolutamente opportuna l’introduzione a livello nazionale, per via legislativa, dell’obbligo per gli sviluppatori e per i diversi soggetti della catena del valore di tenere un registro aggiornato recante i contenuti informativi coperti dal diritto d’autore utilizzati per l’input e dunque per il training dell’algoritmo.

Come anticipato, occorrerà tenere conto delle capacità tecnologiche esistenti e definire una finestra temporale sostenibile sulla grana dell’aggiornamento, anche in relazione alla presenza di nuovi accordi di licenza (opt-in, es: Springer) ovvero di richieste di esclusione di dati dal training (opt- out, es: Washington Post)”.

Alle misure appena esposte del registro per i contenuti coperti da diritti di autore e della finestra di opt-in/opt-out, la Comissiome affianca la misura dell’indicazione delle fonti dei contenuti di output mediante tecniche come la Retrieval-augmented generation (RAG).

Ai fini della tutela del lettore e del contrasto alla disinformazione si propongono misure di marcatura dei contenuti generati da AI e misure di tracciabilità dei contenuti prodotti da umani (es. Blockchain o firma digitale del giornalista).

In particolare si auspica la stesura di modelli di contratti di licenza fruibili dagli editori e dai giornalisti nei rapporti con i fornitori e distributori dei modelli GenAI nonchè codici di condotta ad hoc e formazione “certificata” per promuovere la maturazione di nuove competenze e figure professionali.

Si pensi alla figura professionale dell’AI Strategy Editor, ruolo ricoperto per la prima volta al The Washington Post dalla giornalista e analista Phoebe Connelly. Nell’intervista del 28.03.24 di Andrew Deck per Niemanlab, alla domanda sulle nuove mansioni che dovrà eseguire, Connelly risponde che il lavoro che andrà a svolgere ancora non esiste e che sarà una sfida tutti i giorni dover inventare delle prassi per coniugare piani editoriali e modelli GenAI:

Al Post, il lavoro di Connelly, prima di tutto, è quello di sperimentare. Supervisionerà lo sviluppo di strumenti e processi che portano l’IA generativa nella redazione, a tutti i livelli, pur mantenendo gli standard editoriali”[17]

NOTE AL PANORAMA NORMATIVO INTERNAZIONALE E INTERNO

[1] The White House (October 30, 2023), “Remarks by President Biden and Vice President Harris on the Administration’s Commitment to Advancing the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” – The White House

[2]AI Regulation is Coming- What is the Likely Outcome?” – Blog Post by Bill Whyman – Published October 10, 2023

[3]Joint Statement on Enforcement Against Unlawful Use of Automated Systems”, 25 Aprile 2023

[4] Biden “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” 30.10.2023

[5] Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016

[6]AI Companies: Uphold Your Privacy and Confidentiality Commitments” – Federal Trade Commission (FTC) by Staff in the Office of Technology, Thecnolgy Blog, January 9, 2024

[7] Ad esempio gli utenti temono che le aziende si comunichino reciprocamente i dati degli utenti, (si veda questo link)  oppure che li diffondano al pubblico (si veda questo link)

[8] Cit. “AI Companies: Uphold Your Privacy and Confidentiality Commitments”.

[9] FTC, Comunicato Stampa, “FTC and DOJ (Department of Justice ) Charge Amazon with Violating Children’s Privacy Law by Keeping Kids’ Alexa Voice Recordings Forever and Undermining Parents’ Deletion Requests”

[10] Guido Scorza, “L’Authority Usa striglia le fabbriche degli algoritmi” – AgendaDigitale, 10 gennaio 2024

[11] Federal trade Commission – “FTC Launches Inquiry into Generative AI Investments and Partnerships” – Agency Issues 6(b) Orders to Alphabet, Inc., Amazon.com, Inc., Anthropic PBC, Microsoft Corp., and OpenAI, Inc.; January 25, 2024

[12]EEOC Releases New Resource on Artificial Intelligence and Title VII

[13]Automated Employment Decision Tools (AEDT)

[14] Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa

[15]Regolamento sulla gestione delle raccomandazioni degli algoritmi per i servizi di informazione su Internet” 

[16]Cosa fa (e cos’è) la Commissione italiana che studia l’impatto dell’IA sull’informazione”, Pier Luigi Pisa, La Repubblica, 13.03.2024

[17]The Washington Post’s first AI strategy editor talks LLMs in the newsroom”,by  ANDREW DECK, March 28,2024

i report dell'Osservatorio sono realizzati con il patrocinio di:

in collaborazione con:

I contenuti di questo documento vengono distribuiti con licenza Creative Commons By

  • Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato
  • Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere per qualsiasi fine, anche commerciale.

Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza

STAMPA QUESTA PAGINA