Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni Accetto

Intelligenza artificiale nelle redazioni italiane - Ordine Dei GiornalistiOrdine Dei Giornalisti

Ordine dei Giornalisti - Consiglio Nazionale

Intelligenza artificiale nelle redazioni italiane

02/05/2024

immagine realizzata con IA Midjourney

REPORT 2024

Intelligenza artificiale nelle redazioni italiane

Andrea Iannuzzi
Giornalista, caporedattore La Repubblica

INTRODUZIONE

La relazione che segue si pone l’obiettivo di verificare l’impatto dell’intelligenza artificiale generativa nel giornalismo e nell’editoria in Italia, analizzandone la diffusione, l’efficacia, le prospettive e le criticità, attraverso casi di studio e interviste condotte all’interno delle principali testate italiane, sia quelle tradizionali che affiancano alle pubblicazioni digitali le edizioni cartacee (e le loro repliche digitali), sia quelle “all digital”.

Punti chiave

  • Se il 2022 è stato l’anno della scoperta, nel 2023 le piattaforme di intelligenza artificiale generativa – da ChatGPT (OpenAI) a Bard, poi evoluta in Gemini (Google), passando per Claude (Anthropic) – sono entrate nell’uso quotidiano degli utenti della rete, trovando applicazioni in diversi ambiti di ricerca e professionali e rendendo familiare l’approccio con i cosiddetti Large language models, che stanno alla base del loro funzionamento e della capacità di generare contenuti che imitano le capacità dell’intelletto umano.
  • Nelle redazioni e nelle aziende editoriali sono cominciati i primi esperimenti, volti soprattutto all’introduzione di strumenti in grado di sfruttare le potenzialità dell’IA per velocizzare e semplificare la produzione e la pubblicazione di contenuti: servizi di traduzione istantanea, di trascrizione da audio a testo, produzione di audioarticoli, newsletter automatizzate, abstract e sommari, titoli adatti alla Search Engine Optimization (SEO). L’approccio è prudente: dopo una prima fase di entusiasmo, sono emerse le problematiche connesse ai processi di verifica e validazione dei contenuti generati da intelligenza artificiale, la cui pubblicazione è ancora sporadica e comunque successiva al controllo “umano” da parte dei giornalisti.
  • In parallelo sono stati avviati percorsi di alfabetizzazione e formazione dei giornalisti sui temi legati all’IA, ai suoi sviluppi e alle sue applicazioni, anche per rispondere a una crescente domanda di conoscenza da parte della categoria. A livello di processi aziendali, è stata avviata in alcuni casi l’implementazione tecnologica per migliorare l’offerta e la fidelizzazione degli utenti (profilazione, personalizzazione, paywall dinamici).
  • Tra le criticità emerse, le preoccupazioni principali connesse alla diffusione e all’uso di strumenti di IA sono di due tipi: uno legato ai diritti d’autore e un altro alle eventuali ricadute occupazionali. Sul copyright, l’Italia è ancora alla finestra, in attesa che si definisca nel dettaglio il quadro normativo e giuridico che regola il rapporto tra editori e grandi piattaforme tecnologiche. Si guarda a ciò che accade nel resto del mondo, tra editori che siglano accordi per la creazione di prodotti assistiti dall’IA e l’utilizzo dei propri contenuti per istruire i chatbot; e altri che invece hanno deciso di avviare cause e procedimenti per violazione del diritto d’autore e concorrenza sleale. Un’ipotesi allo studio della commissione sull’Intelligenza artificiale istituita dal governo italiano è quella di procedere a una “marcatura” digitale dei contenuti originali per consentirne riconoscibilità e tracciabilità.
  • Quanto al rischio che il “lavoro” affidato alle macchine possa sostituirsi a quello umano e avere ricadute occupazionali, si tratta probabilmente dell’elemento che più sta frenando lo sviluppo e la diffusione dell’intelligenza artificiale nelle redazioni, non tanto per l’esplicita opposizione da parte dei giornalisti, ma perché le aziende temono l’apertura di fronti sindacali. Al proposito, merita di essere segnalato il fatto che almeno in un caso, nel piano depositato al Ministero per l’accesso agli ammortizzatori sociali e siglato da azienda e rappresentanze sindacali, è fatto divieto esplicito di introdurre tecnologie volte alla produzione di contenuti giornalistici con l’uso dell’intelligenza artificiale.
  • Guardando al futuro, il sentiment prevalente è di cauto ottimismo, con una particolare attenzione al ruolo che dovrà avere il giornalismo in un ecosistema mediatico sempre più contaminato da contenuti artificiali verosimili ma potenzialmente falsi (testi, audio e soprattutto video) e in un ambiente tecnologico nel quale i modelli di informazione basati su fonti generiche e facilmente riproducibili perderanno definitivamente valore e interesse. Entrambi gli scenari offrono al giornalismo la possibilità di tornare alle origini: l’intelligenza artificiale, supportando l’attività giornalistica nello svolgere funzioni ripetitive, potrà liberare tempo e risorse da dedicare al lavoro di verifica e alla produzione di contenuti originali, con una particolare cura delle fonti. Qualità, attendibilità e accuratezza potranno rappresentare la via d’uscita dalla crisi.

 

L’avvento dell’IA generativa. Lo scenario mondiale

Il 13 dicembre 2023 l’editore tedesco Axel Springer ha annunciato una partnership con OpenAI[1] – la società della galassia Microsoft leader nello sviluppo dell’Intelligenza Artificiale generativa – per la condivisione dei propri contenuti all’interno di Chat GPT. Con questo accordo, gli utenti di Chat GPT nel mondo potranno ricevere estratti e sommari di contenuti giornalistici prodotti dai brand di Axel Springer, fra i quali Bild, Die Welt, Politico, Business Insider. Inoltre, OpenAI potrà usare i database giornalistici dell’editore per addestrare i Large Language Models della propria intelligenza artificiale a produrre “risposte” sempre più accurate e attendibili.

Due settimane dopo, dall’altra parte dell’oceano, il New York Times ha avviato una causa legale contro OpenAI e Microsoft[2] per possibile violazione del diritto d’autore, in quanto l’addestramento dei cosiddetti “chatbot” sarebbe avvenuto utilizzando milioni di contenuti di proprietà del NYT senza autorizzazione. L’accusa è di aver creato non solo una situazione di potenziale violazione del copyright ma anche un possibile danno economico perché, realizzando contenuti che imitano quelli del New York Times anche nello stile, potrebbero esserci meno entrate da abbonamenti e pubblicità per l’editore statunitense”.

Questi due approcci opposti – presi a titolo di esempio, mentre altri editori in Europa e nel mondo stanno interloquendo con le grandi piattaforme tecnologiche – racchiudono la complessità della sfida che l’avvento dell’Intelligenza artificiale generativa rappresenta per il giornalismo e per l’editoria.

Come evidenziato durante i “Round Tables on AI and the Global News Industry” [3]condotti da Jessica Cecil per conto del Reuters Institute for the Study of Journalism, in un solo anno, il 2023, lo scenario è cambiato in maniera radicale seguendo una timeline in continua evoluzione: era il 30 novembre 2022 quando OpenAI lanciò Chat GPT, offrendo agli utenti della rete la possibilità di interrogare il proprio “chatbot” per ottenere in tempo reale risposte di senso compiuto estratte dagli archivi di Internet e rielaborate da una macchina imitando il linguaggio e il ragionamento umano. Alla prima versione gratuita e accessibile a tutti è seguita un’evoluzione “plus” a pagamento e poi la versione GPT4[4], più sofisticata della precedente. Nel frattempo si è mossa la concorrenza (Google ha lanciato “Bard”, poi trasformato in “Gemini”)[5], mentre le potenzialità dell’Intelligenza artificiale generativa hanno cominciato a mostrarsi anche per la creazione di immagini (Midjourney), audio (ElevenLabs), video (Sora, l’ultima creatura di OpenAI)[6]. E sono state implementate nei motori di ricerca (a cominciare da Bing, il motore di Microsoft), per restituire agli utenti risultati sempre più raffinati e completi.

Di pari passo con lo sviluppo tecnologico e l’applicazione in diversi campi del sapere (dalla scienza alla medicina, dalla scrittura di codici di programmazione alla disciplina forense) oltre che nel mondo delle news e dell’informazione, sono cresciute le preoccupazioni sul corretto utilizzo dell’intelligenza artificiale e la necessità di regolamentarne la crescita. Autorità garanti della privacy e del diritto d’autore nel mondo hanno sollevato dubbi e chiesto limitazioni. Prima di Axel Springer e del New York Times, altre grandi aziende editoriali si sono confrontate con i produttori di contenuti, seguendo percorsi differenti: mentre Getty ha deciso di portare in giudizio Stability AI[7] per aver usato immagini protette da copyright nell’addestramento della sua intelligenza artificiale, l’Associated Press ha siglato un accordo con OpenAI[8]. Anche in Europa sono stati portati avanti i primi protocolli d’intesa, in particolare dal francese Le Monde e dallo spagnolo Prisa Media[9].

Da ultimo, nel mese di marzo del 2024, va segnalata la multa di 250 milioni di euro  che l’autorità antitrust francese ha inflitto a Google[10] per aver utilizzato i contenuti degli editori d’Oltralpe per addestrare la propria intelligenza artificiale senza autorizzazione. Si tratta del primo intervento di un’authority in tal senso, reso possibile dal quadro normativo già in vigore in Francia e in via di definizione in altri Paesi europei, tra cui l’Italia, nel quale il ruolo di regolatore dei rapporti tra editori e aziende tecnologiche è stato affidato all’Agcom.

Anche la comunità hi-tech, nel corso del 2023,  si è espressa pubblicamente per manifestare i propri dubbi e la richiesta di rallentare (si ricorda la lettera dei mille esperti firmata in primis da Elon Musk)[11]. Editori e giornalisti hanno invece cominciato a interrogarsi sulle implicazioni etiche legate alla produzione e diffusione di contenuti non verificati e potenzialmente falsi: emblematica, a fotografare gli eventi in rapida evoluzione del 2023, rimane l’immagine di Papa Francesco con indosso un lungo piumino,[12] creata dall’Intelligenza artificiale ma del tutto verosimile.

Il tema dell’attendibilità dei contenuti è quello su cui si stanno concentrando le riflessioni degli ultimi mesi. Sono le stesse macchine ad aver adottato un approccio prudente. Alcune risposte vengono date in forma dubitativa, soprattutto quando si tratta di riconoscere delle immagini, con il consiglio di rivolgersi ad esperti per la conferma. Gemini invece ha deciso di non dare risposte sulle elezioni[13] per il timore di alimentare la disinformazione. E nella versione advanced, per tutelare la privacy dell’utente, consente di cancellare i singoli prompt.

Nel frattempo, nelle redazioni di tutto il mondo, sono cominciati gli esperimenti con gli strumenti di AI. “L’avvento di Chat GPT ha rappresentato un salto nell’evoluzione del rapporto tra informazione e tecnologia” dice Mattia Peretti, consulente AI dell’International Center for Journalism, dopo essere stato animatore e manager della Journalism AI initiative alla London School of Economics, sotto la guida del professor Charlie Beckett. “Alla curiosità iniziale si è aggiunto lo scetticismo: nelle redazioni oggi c’è la consapevolezza di non poter ignorare la rivoluzione ma anche prudenza nel processo di implementazione”.

Peretti cita l’esempio del Daily Maverick, una testata sudafricana che con l’intelligenza artificiale produce un notiziario con i riassunti di storie quotidiane,[14] realizzati con l’IA ma editati dai giornalisti. Ciò di cui si sente il bisogno, e la mancanza, è un metodo di lavoro “open source” nel quale editori e giornalisti possano condividere le conoscenze acquisite e trarne reciproco vantaggio. Un esempio di buone pratiche in tal senso arriva dalla Svezia, dove 13 aziende editoriali si sono riunite sotto l’egida dell’Utgivarna (l’associazione degli editori svedesi) per realizzare uno studio e una serie di workshop sul tema dell’AI transparency.[15]

 

I robot in redazione. Opportunità e rischi

Prima di procedere con l’analisi dei casi di studio, è utile fare un passo indietro per inquadrare un rapporto, quello tra il mondo dell’informazione e le tecnologie basate su algoritmi e processi automatici generalmente indicate con il nome di “intelligenza artificiale”, che è in atto da almeno un decennio. E che solleva non da oggi alcune problematiche legate all’etica, alla responsabilità, al pluralismo. Perché i robot, in redazione, sono arrivati ben prima di Chat GPT, per svolgere essenzialmente tre tipi di funzione, come sintetizzato nel report “AI Ethics and Policies: why European Journalism Needs more of both”,[16] realizzato da Emanuela Grigliè e Guido Romeo.

La prima funzione è quella di supporto alla fase iniziale del lavoro giornalistico, e cioè l’accesso alle fonti e la raccolta delle informazioni. Dal data journalism alla traduzione automatica, dagli strumenti di verifica dei contenuti e delle immagini ai software di analisi di testi complessi, le macchine svolgono da tempo un lavoro che aiuta i cronisti a trovare notizie, a visualizzarle attraverso grafici e mappe, a verificarle con processi di factchecking, ad aggiornare topic ricorrenti in tempo reale accedendo automaticamente a diverse fonti.

La seconda funzione svolta dalle macchine, quella che più si sta evolvendo, è quella di produzione dei contenuti informativi. Ben prima di ChatGPT, la scrittura automatica di testi ricavati da dati ricorrenti (bollettini di Borsa, eventi sportivi, meteo) è stata sperimentata con successo e utilizzata nella diffusione di contenuti ai propri lettori.

Infine, meccanismi di intelligenza artificiale sono alla base delle strategie di distribuzione dei contenuti e monetizzazione già messe in atto da molte aziende editoriali: la personalizzazione dei flussi, la moderazione dei commenti, i paywall dinamici e molti altri strumenti di fidelizzazione dell’utente aiutano a migliorare i “tassi di conversione”, a conquistare o trattenere gli abbonati, in generale a migliorare le performance.

Tutto questo, nel mondo dell’informazione digitale, è già realtà da tempo. E solleva questioni che – con l’affermarsi dell’Intelligenza artificiale generativa, diventeranno ancora più urgenti.

C’è il tema dell’affidabilità e trasparenza degli algoritmi e dell’assunzione di responsabilità di fronte ai contenuti prodotti con il supporto dell’AI: più lavoro si affida alle macchine, maggiore sarà il rischio di non conoscere i processi formativi e informativi che agiscono all’interno delle “black box” algoritmiche, e più importante diventerà la necessità di garantire ai lettori l’attendibilità dei contenuti prodotti, con un lavoro di verifica e autenticazione per il quale i giornalisti restano insostituibili.

C’è poi il problema delle cosiddette “echo chamber” e dell’eccesso di personalizzazione dei contenuti. Se l’intelligenza artificiale continuerà a essere addestrata e a modellarsi sulle esigenze dell’utente per offrirgli esattamente ciò di cui ha bisogno, c’è il rischio di alimentare la disinformazione e la trasformazione di contenuti parziali in verità oggettive. L’altra faccia della stessa medaglia è quella di un’informazione generalista massificata, nel momento in cui i sistemi di intelligenza artificiale attingeranno tutti alle stesse fonti, rielaborandole secondo schemi precostituiti.

Infine, come abbiamo già visto nell’introduzione, vanno approfondite le problematiche relative alla privacy (chi e come gestisce l’enorme flusso di dati che alimentano i modelli delle intelligenze artificiali) e quelle legate al copyright e ai diritti di utilizzo dei contenuti originali editoriali.

Un possibile scenario nel quale i cosiddetti “OTT” digitali diventano sempre più i guardiani delle porte di accesso all’informazione, potrebbe aggravare la crisi dell’editoria, portare a un ulteriore impoverimento del pluralismo dei media (la cosiddetta desertificazione, i cui effetti si vedono per esempio nel mercato dei media locali statunitensi)  e, in definitiva, a minare gli stessi principi democratici, come ci ricorda il claim del Washington Post: “Democracy dies in darkness”.

 

Cosa succede in Italia

In un’intervista rilasciata il 15 marzo 2024 a Pierluigi Pisa[17] per Italian Tech / La Repubblica, Padre Paolo Benanti – professore della Pontificia Università Gregoriana e presidente della commissione sull’Intelligenza Artificiale istituita dal governo italiano – ha messo in guardia dai rischi dell’uso non regolamentato dell’IA per il giornalismo e per il settore dell’editoria: “Il tema vero è che ci possono essere degli intermediari che possono fare delle piattaforme di pseudo-news. Queste persone sfruttano l’IA per catturare le notizie più interessanti con pochissimi euro al giorno, le fanno riscrivere alla macchina e le ripubblicano solo per guadagnare con la pubblicità, usando titoli clickbait. È questo che uccide il comparto industriale del giornalismo e a cascata soffoca i giornalisti che non sono più riconosciuti come professionisti”.

La commissione sta lavorando non solo all’analisi dei problemi ma anche alle possibili soluzioni. E ce n’è una che è già stata suggerita ed è allo studio per le sue future applicazioni: “Una marcatura temporale del testo scritto da un giornalista e pubblicato da un editore. Parliamo di un codice associato a un articolo, per esempio, che certifica l’integrità del testo originale. Se quel testo viene modificato, anche solo di una virgola, perde la marcatura iniziale. E anche se ne acquistasse una nuova, l’orario di pubblicazione contenuto nella marcatura ci dice che un testo è apparso online prima di un altro. La marcatura è come il dorsetto digitale di un giornale, qualcosa che tiene insieme il suo lavoro editoriale”.

Torna dunque il doppio tema che da oltre un anno sottintende alle riflessioni degli editori in tutto il mondo: la necessità di distinguere l’informazione verificata e attendibile preservandola dalle manipolazioni e dai tentativi di imitazione – esattamente come accade per i prodotti alimentari – e l’esigenza legale e commerciale di difendere il diritto d’autore delle produzioni originali, per la salvaguardia di un comparto industriale e delle professioni connesse.

Chi da tempo è impegnato nell’analisi e nello studio dell’impatto dell’intelligenza artificiale sul lavoro giornalistico in Italia è Alberto Puliafito, giornalista, ricercatore, formatore, reduce da un’esperienza come Google News Lab Teaching Fellow, oltre che fondatore e animatore di Slow News. “Nelle redazioni italiane con le quali ho collaborato per ora la parola d’ordine è prudenza – spiega Puliafito – ci sono sperimentazioni in corso ma la maggior parte non è dichiarata pubblicamente. In generale dalla mia esperienza posso dire che le realtà più piccole sono più avanti rispetto al mainstream”.

Alcuni editori si stanno ponendo il problema del copyright cercando di proteggere i propri contenuti attraverso la deindicizzazione: “L’uso dei file robots.txt si sta diffondendo – conferma Puliafito – ma si tratta di una barriera facilmente aggirabile dai motori di IA”.

L’altro tema è quello delle policy di trasparenza: “La regola generale che si sta diffondendo, – a partire dalla policy realizzata e adottata da Wired,[18] la prima testata ad averlo fatto, alla quale si è ispirata anche Slow News –  è che nulla dovrebbe uscire senza il controllo umano. E se un contenuto viene realizzato con il contributo dell’intelligenza artificiale, va dichiarato”.

Il tema dell’implementazione di strumenti di IA nel lavoro quotidiano – e quindi nei sistemi editoriali – è centrale anche per chi produce questo tipo di software. Sara Forni, giornalista, dal giugno scorso ricopre il ruolo di AI product manager all’interno di Atex, azienda leader nel settore dei sistemi editoriali, che in Italia fornisce gruppi come Gedi e Class. “Stiamo lavorando all’implementazione di strumenti di IA all’interno dei nostri sistemi[19] con l’obiettivo di facilitare il lavoro dei giornalisti e far guadagnare loro il tempo che si perde in operazioni ripetitive e senza valore aggiunto”. La maggior parte del dialogo per ora si svolge con i referenti tecnologici delle aziende editoriali, ma si sta studiando un metodo di lavoro con team misti che comprendono anche giornalisti, per inquadrare meglio le loro esigenze e condividere fin da subito i processi. “Il coinvolgimento delle redazioni è importante per superare lo scetticismo e il rischio che, in mancanza di informazioni chiare, ci possa essere un rigetto di queste tecnologie da parte dei giornalisti, che sono invece molto interessati alla formazione e chiedono di saperne di più”.

Uno degli sviluppi ai quali sta lavorando Atex è la creazione di un’interfaccia di facile utilizzo anche per chi non ha conoscenze approfondite dei meccanismi che sovrintendono ai prompt e alla creazione di contenuti con il supporto dell’IA, dai tag degli articoli ai titoli ottimizzati Seo, fino alla creazione di immagini stock. L’altra preoccupazione è quella di riuscire facilmente a identificare ciò che è prodotto con l’IA, attraverso l’apposizione di watermark che avvisino il lettore o di wireframe inseriti nella progettazione che permettano di identificarne la provenienza, secondo un sistema speculare rispetto a quello indicato da padre Benanti: se da un lato è necessario identificare e proteggere i contenuti originali, dall’altro è opportuno che anche quelli realizzati con l’IA siano etichettati come tali.

Di seguito, ecco alcune testimonianze e casi di studio di come le principali testate e aziende editoriali italiane stanno esplorando l’ingresso dell’Intelligenza artificiale generativa in redazione.

Casi di studio*

*(Il seguente sommario, a puro titolo esemplificativo,  è stato realizzato con il supporto di Chat GPT. Il prompt – l’interrogazione – al chatbot è stato impostato per riassumere in 200 caratteri i contenuti dei singoli paragrafi redatti dall’autore. Successivamente l’autore ha verificato l’attinenza della sintesi al contenuto originale. Si tratta di un esempio di quello che si può fare ricorrendo a strumenti di intelligenza artificiale che rendono sempre più simili i testi generati automaticamente a quelli prodotti da esseri umani, nella consapevolezza che siano necessarie policy di utilizzo e trasparenza per evitare ricadute sul lavoro giornalistico e sul rapporto di fiducia con i lettori)

  • Il Corriere della Sera, utilizza l’IA per fornire versioni audio degli articoli. Strumenti di assistenza al lavoro giornalistico vengono implementati, con attenzione alla formazione. Team misti favoriscono l’innovazione. Si pone grande attenzione all’autenticità dei contenuti generati dall’IA e al loro impatto sul lavoro giornalistico.
  • Gedi, editore di Repubblica, implementa l’IA in tre direzioni: sviluppo tecnologico, applicazioni pratiche e formazione dei giornalisti. Si focalizza sull’ottimizzazione del tempo e sull’importanza della condivisione delle conoscenze per il progresso.
  • Il Gruppo 24 Ore investe nell’IA per ottimizzare il lavoro giornalistico ed editoriale, focalizzandosi su informazioni di settore e verticale. Collaborazioni interne favoriscono l’innovazione e l’implementazione delle nuove tecnologie.
  • Al Fatto Quotidiano, l’IA è sperimentata da un team ristretto, guidato dal vicedirettore online Simone Ceriotti. Si testano chatbot per ottimizzare il lavoro di Seo e titolazione e per creare immagini, ma i contenuti sono sempre controllati dai giornalisti.
  • Il gruppo Class focalizza sull’implementazione dell’IA nei processi editoriali e la trasparenza, coinvolgendo team interdisciplinari e promuovendo la formazione dei giornalisti. Esplora nuove funzioni come la SEO, traduzione e parafrasi, mantenendo una prospettiva etica e consapevole.
  • Agnese Pini direttrice de La Nazione – Il Resto del Carlino – il Giorno (gruppo Monrif) conferma la discussione sull’integrazione dell’IA nei processi redazionali per ottimizzare compiti ripetitivi e dispendiosi, sottolineando l’importanza di una condivisione totale per un utilizzo etico e migliorativo della tecnologia.
  • Francesco Cancellato, direttore di Fanpage, esamina l’IA nel giornalismo, distinguendo tra utilizzo attuale e potenzialità future. Sottolinea la necessità di un giornalismo originale per rimanere rilevanti e critica il possibile impatto dell’IA sulla sostenibilità del business editoriale.
  • Marco Giovannelli, direttore di VareseNews, discute l’integrazione dell’IA nel giornalismo locale, enfatizzando la necessità di un approccio sperimentale e prudente, considerando sia le potenzialità che le criticità dell’IA.
  • A Open, l’IA è oggetto di studio come strumento per ottimizzare compiti come la trascrizione dei video o la pulizia degli audio. Si valuta un archivio di schede tematiche, ma per ora non si è proceduto con alcun tipo di pubblicazione. Viene enfatizzato il ruolo dei giornalisti nell’individuare fake news generate dall’IA.

 

Corriere della Sera – Rcs

Il Corriere della Sera ha già cominciato a sfruttare le potenzialità dell’intelligenza artificiale per arricchire la propria offerta di contenuti. Da qualche tempo, sul sito del Corriere, è possibile ascoltare in tempo reale la versione audio degli articoli riprodotti in maniera automatica. La voce neurale scelta è però unica, per tutti gli articoli: “Abbiamo deciso di non riprodurre i testi usando le voci dei diversi giornalisti – spiega Davide Casati, caporedattore responsabile del sito del Corriere e impegnato sulle diverse piattaforme digitali – anche per evitare potenziali rischi. L’approccio è molto prudente, stiamo cercando di osservare e capire, siamo consapevoli come tutti delle grandi potenzialità offerte dalle reti neurali e dai large language model, ma ci poniamo anche il tema di dover definire i limiti per l’utilizzo di queste tecnologie e vogliamo poter fare passi avanti quando ci sentiremo sicuri dell’affidabilità e della qualità di quanto si offre”.

Alcuni strumenti di assistenza al lavoro giornalistico vengono già utilizzati o sono in via di “messa a terra”, come per esempio la trascrizione di testi da audio, la sottotitolazione dei video, oppure il suggerimento di tag per classificare gli articoli a seconda degli argomenti trattati. Anche il tema della formazione dei giornalisti è all’ordine del giorno: “Abbiamo organizzato un incontro molto partecipato con la redazione a dicembre sul tema, a cui è seguita la richiesta di svolgere altre formazioni più specifiche e pratiche”.

Il metodo di lavoro, per tutto quello che ha a che fare con l’innovazione e lo sviluppo di nuovi progetti, è quello di creare team misti nei quali si possano confrontare competenze e background diversi, non necessariamente in posizioni apicali all’interno della struttura aziendale: dal dialogo tra redazione, struttura tecnica e di IT, marketing, nascono le idee da sviluppare e le procedure da seguire. “Non c’è un team specifico dedicato all’Intelligenza artificiale, ma l’avvento di ChatGpt ha cambiato lo scenario e quindi stiamo ripartendo anche nella fase di progettazione – spiega Casati – e la presenza di sensibilità diverse aiuta a essere bilanciati tra spinte eccessive in avanti che rischiano di mandarti fuori strada e tendenza a procedere con il freno a mano tirato”.

Un aspetto verso il quale c’è grande attenzione è quello dell’autenticità e attendibilità dei contenuti generati dall’IA. “Mi colpisce la disparità tra le potenzialità enormi di creare contenuti falsi ma verosimili e la mancanza – allo stato attuale – di sistemi di difesa efficaci. Siamo di fronte a qualcosa di molto potente in fase di generazione senza avere strumenti altrettanto efficaci in  fase di controllo. Affidarsi solo alla capacità professionale dei giornalisti per discriminare cosa è vero e cosa è falso potrebbe non bastare, soprattutto se si pensa che siamo solo all’inizio di quella che potrebbe trasformarsi in una valanga che partita dai testi si è poi allargata alle immagini e ora ai video. Per fortuna cominciano a essere disponibili tecnologie di monitoraggio anche in tempo reale: chi lavora con le piattaforme social ha già a disposizione i primi filtri per distinguere i contenuti fake, segno che il tema è sentito”.

Un altro aspetto su cui riflettere è l’impatto sul lavoro giornalistico. Secondo Casati, è necessario uscire dagli schemi tradizionali per comprendere appieno le possibilità, oltre ai rischi, che l’IA offre: “E’ sicuramente utile immaginare di avere un assistente nella fase di produzione dei contenuti che ci possa aiutare a liberare risorse. Ma credo sia importante anche avere un approccio creativo nel cercare di capire che cosa potremmo far fare a questo strumento. Dobbiamo ancora apprendere appieno le potenzialità di questa tecnologia, non la conosciamo a sufficienza per capire che cosa possiamo farci davvero. In alcune aree non credo sostituirà mai il lavoro giornalistico: in altre, potremmo scoprire di poterla usare per arricchire il nostro rapporto con i lettori, facendo cose completamente diverse da quelle che riusciamo a immaginare oggi. L’unico modo che abbiamo per non farci spaventare e travolgere dalla marea è iniziare a pensarla in maniera diversa e inesplorata”.

 

Repubblica – Gedi

A Repubblica e più in generale nel gruppo Gedi, editore anche della Stampa e del Secolo XIX, l’approccio all’intelligenza artificiale è stato impostato seguendo tre direttrici: lo sviluppo tecnologico, le applicazioni pratiche e la formazione dei giornalisti.

“Per prima cosa – spiega il direttore Maurizio Molinari – abbiamo avviato un laboratorio per studiare le possibilità offerte dall’Intelligenza artificiale insieme ad Accenture, nostro partner tecnologico. Questo lavoro porterà alle prime applicazioni pratiche, per esempio con le traduzioni automatiche dei testi dall’italiano all’inglese: molti degli approfondimenti di cui si occupa la redazione di Repubblica hanno respiro internazionale e possono quindi interessare un pubblico più vasto di quanto non consentano le limitazioni linguistiche”.

Anche il progetto per implementare gli audioarticoli è in fase avanzata. Infine, sottolinea Molinari, “daremo grande importanza alla formazione dei giornalisti per conoscere e saper utilizzare gli strumenti messi a disposizione dall’IA, nella consapevolezza che siamo di fronte a una rivoluzione in tutti gli ambiti del sapere e quindi anche nel giornalismo e nell’editoria”. Secondo Molinari, il primo effetto tangibile sarà “l’ottimizzazione del tempo. La possibilità di affidare alla macchina una serie di funzioni fino a oggi molto dispendiose in termini di tempo come ad esempio l’analisi di testi e documenti, o la ricerca d’archivio, libererà risorse consentendo ai giornalisti di utilizzare la quantità di tempo guadagnata per migliorare la qualità del lavoro e dei contenuti. D’altra parte l’IA è strutturata per esaltare il bene e il male che c’è in noi, perché conosciamo i rischi legati alla diffusione di contenuti fake e dovremo essere bravi a riconoscerli e neutralizzarli”.

Ma il tema fondamentale, secondo il direttore di Repubbica, è la necessità di condividere i saperi secondo una logica open source: “Soprattutto in questa prima fase di esplorazione e scoperta è importante che gli editori siano disposti a condividere le conoscenze e i risultati delle sperimentazioni, perché solo mettendoli a fattore comune ci potrà essere il progresso auspicato e la possibilità di sedersi al tavolo con i big player tecnologici in condizioni di parità”.

Tra le applicazioni di intelligenza artificiale già sperimentate con successo, Repubblica ha avviato un progetto per la generazione di testi automatizzati a partire dai dati dei risultati elettorali negli enti locali e nelle circoscrizioni.

 

Il Sole 24 Ore

Al gruppo 24 Ore, editore del Sole 24 Ore, RadioCor e Radio24, lo studio dell’introduzione dell’Intelligenza artificiale nel lavoro giornalistico ed editoriale è avviato. “L’azienda – spiega Daniele Bellasio, vicedirettore con delega al digitale – si è dotata di un innovation manager, una figura che si interfaccia con la redazione, con il responsabile nuovi formati, per lo sviluppo di prodotti editoriali innovativi e per implementare il lavoro giornalistico con le nuove tecnologie”. Il segmento di mercato al quale si rivolge il Sole, che privilegia l’informazione di settore e verticale rispetto a quella generalista, ha consentito di introdurre strumenti di ottimizzazione automatica del lavoro che, a partire da prodotti giornalistici realizzati dalla redazione e dai suoi collaboratori, sviluppano prodotti e servizi come podcast e video arricchiti anche dall’IA, in particolare per quanto riguarda l’informazione di servizio come le schede delle società quotate o prodotti “verticali” destinati anche a un’utenza business (dossier, newsletter personalizzate).

 “E’ importante precisare – sottolinea Bellasio – che queste informazioni prima di essere condivise sono sempre sottoposte ad accurate verifiche da parte dei giornalisti”. L’avvento dell’Intelligenza artificiale generativa ha poi consentito di avviare esperimenti, in particolare utilizzando Chat GPT, per l’ottimizzazione di titoli Seo, la creazione di abstract e sommari da contenuti giornalistici già esistenti, la trascrizione e la traduzione di testi.

 “Come tutti abbiamo avviato una fase sperimentale di confronto e approfondimento, che da un lato si interfaccia con i big player e dall’altro punta a sviluppare la tecnologia a disposizione attraverso partnership con realtà più piccole, già impegnate nel settore. Sono stati creati team per specifici progetti nei quali sono rappresentate le diverse anime dell’azienda: la redazione, il marketing, l’IT, il visual desk. C’è un dialogo costante e spesso la spinta a prodotti innovativi parte dai giornalisti che trovano poi interlocutori nell’IT, nei grafici, nei data analyst a seconda delle esigenze”. In questo modo i diversi soggetti coinvolti nel processo possono mantenere un dialogo costante, riducendo al minimo le frizioni da ogni punto di vista.

Il Fatto Quotidiano

Anche al Fatto Quotidiano l’introduzione e la sperimentazione dei tool di Intelligenza artificiale è stata affidata a un team di “esploratori”, coordinato dal vicedirettore dell’edizione online Simone Ceriotti e composto anche dall’art director, da due giornalisti (un redattore che si occupa di cronaca e sport e una che si occupa di spettacoli), mentre l’azienda è rappresentata dal consigliere per l’innovazione e – per la parte tecnologica – dalla manager Seo e da un product manager   “Partire con un gruppo di lavoro ristretto ci consente di testare gli strumenti in maniera controllata e in ambiente protetto – spiega Ceriotti – con l’obiettivo di arrivare a un utilizzo più diffuso ma comunque guidato e controllato. Ovviamente siamo aperti alla curiosità e alla contaminazione con tutta la redazione”.

Lo sviluppo segue tre filoni, come già avviene nella maggior parte delle aziende editoriali: l’automazione dei processi di gestione, fidelizzazione e monetizzazione dei lettori (abbonamenti, paywall dinamico, marketing); l’assistenza per il lavoro giornalistico di inchiesta e approfondimento (strumenti di traduzione e trascrizione automatica, analisi dei documenti) che è però in una fase embrionale; e soprattutto il supporto al lavoro quotidiano della redazione, per cercare di automatizzare la parte del lavoro più ripetitiva e di minor valore aggiunto. “Abbiamo cominciato da cronaca, sport e spettacoli proprio perché sono i settori che più si prestano all’uso di questi strumenti, vista la mole di contenuti che ogni giorno vengono realizzati. Non stiamo al momento pensando alla produzione di articoli, ma all’assistenza per l’indicizzazione Seo, per i tag e per la titolazione. Se si trova il modo di essere affiancati dall’Intelligenza artificiale per fare titoli ottimizzati, si possono risparmiare tempo e risorse da dedicare al lavoro giornalistico originale e di qualità”.

Per ora il team lavora utilizzando i due chatbot più diffusi, ChatGPT e Gemini, ma non pubblica nulla senza il controllo e la revisione da parte dei giornalisti. “Abbiamo fatto qualche esperimento di generazione di immagini con Dall-E, lo strumento di OpenAI, con la supervisione del nostro art director. In quei casi abbiamo segnalato ai lettori che si trattava di immagini create con il supporto dell’intelligenza artificiale. Nel momento in cui dovessimo arrivare anche alla produzione di contenuti di testo “assistiti”, sarà necessario identificare anche quelli. Penso per esempio alle traduzioni di nostre inchieste e contenuti originali: così come oggi quando un testo viene tradotto manualmente si inserisce la firma del traduttore, in futuro si potrà segnalare che quel contenuto è stato tradotto con il supporto dell’Intelligenza artificiale”

 

Class Editori

Al gruppo Class, “il tema di come l’Intelligenza artificiale generativa entrerà nei processi e nei prodotti è centrale – spiega Roberto Bernabò, Chief digital development manager – tanto che con la nostra struttura dedicata agli eventi abbiamo organizzato gli Stati generali dell’intelligenza artificiale, nei quali abbiamo cercato di capire come questa nuova rivoluzione tecnologica possa intrecciarsi con il business editoriale e soprattutto con gli aspetti etici legati alla nostra professione, potendo contare sul contributo di figure di eccellenza come Padre Benanti (il teologo francescano di recente nominato presidente della commissione AI per l’informazione) e Mario Rasetti, professore emerito di Fisica teorica al Politecnico di Torino”.

Anche a Class, come in altre realtà editoriali, la strada dell’innovazione passa attraverso la creazione di un team interdisciplinare che riunisce manager, ingegneri e giornalisti e si interfaccia con i diversi stakeholder interni ed esterni all’azienda. In questo processo, tra gli altri, sono coinvolti in prima persona Andrea Cabrini, direttore di Class CNBC e Roberto Sommella, direttore di Milano Finanza, componente del Comitato per studiare l’impatto dell’AI sull’editoria.

 “L’obiettivo – dice Bernabò – è quello di analizzare le possibilità offerte dall’Intelligenza artificiale, in particolare quella cosiddetta generativa basata sui large language model, non tanto per sviluppare algoritmi proprietari ma per comprendere come possa essere funzionale ai processi aziendali e alla realizzazione di nuovi prodotti”.

A questo scopo, tra il resto, è stato avviato un tavolo di lavoro con Atex, società leader nella fornitura e lo sviluppo di sistemi editoriali per giornali e piattaforme informative digitali, per studiare l’implementazione di funzioni alimentate dall’Intelligenza artificiale all’interno del sistema editoriale, che possano aiutare il lavoro quotidiano della redazione.

L’idea è quella di creare strumenti per facilitare la Search Engine Optimization (titoli e descrizioni Seo-friendly, che aiutino a migliorare le performance dei contenuti sui motori di ricerca), ma anche parafrasi di testi, funzioni di “video to text” e “audio to text”, traduzione. A Class NBC sono stati invece già avviati esperimenti video con l’utilizzo di Avatar.

Per quanto riguarda i rapporti con le aziende del settore, spiega Bernabò, “quelli con i big player (come Google e OpenAI ma anche europei, ndr) sono in fase più o meno embrionale, mentre per lo sviluppo abbiamo rapporti più avanzati con altre realtà tecnologiche che si occupano di IA”.

Un aspetto fondamentale legato all’introduzione dell’intelligenza artificiale nei prodotti e nei processi editoriali è quello della trasparenza: “E’ un tema che ci sta molto a cuore, ogni contenuto che viene creato con il supporto di IA, come per esempio l’analisi tecnica dei titoli di Borsa, è dichiarato. Su un altro piano, stiamo ragionando sulla necessità di adottare una policy che regolamenti l’uso dell’Intelligenza artificiale da parte dei redattori, anche se per ora si tratta di un impiego limitato”.

L’approccio consapevole – e quindi etico – passa anche attraverso la formazione dei giornalisti: “Abbiamo un programma di formazione interna costante, nell’ambito del quale stiamo introducendo lezioni sull’IA con temi di policy, aspetti etici, pratici. Nella cassetta degli attrezzi della nostra professione oggi non può non esserci la capacità di saper scrivere un prompt, poi al di là dell’interesse e della predisposizione dei singoli è importante tenere i giornalisti aggiornati non solo e non tanto sugli strumenti a disposizione, ma sulle implicazioni e le ricadute che le nuove tecnologie hanno sul ruolo del giornalista”. Torna il tema della trasparenza, insieme a quello fondamentale della validazione e verifica dei contenuti creati con il supporto dell’Intelligenza artificiale.

Timori e scetticismo, in questa fase, sono inevitabili: “La conoscenza – dice Bernabò – ci aiuta a passare da un atteggiamento di paura e chiusura, magari nel timore che questi strumenti possano far perdere posti di lavoro, alla consapevolezza di poterli usare per affiancare il nostro lavoro, farlo meglio, creare anche nuove opportunità di business di cui l’editoria ha estremo bisogno. Più lucidi siamo meno cadiamo nell’hype, in un senso e nell’altro, perché anche l’eccesso di entusiasmo può essere dannoso, bisogna sempre misurare l’efficacia di quello che porti a casa. Più i giornalisti stanno dentro i processi meno creiamo diffidenza, paure o entusiasmo”.

Fanpage

Secondo Francesco Cancellato, direttore di Fanpage, è necessaria una distinzione preliminare nel concetto di Intelligenza artificiale: “Il supporto della tecnologia al lavoro giornalistico è una realtà presente nel nostro lavoro da tempo. In questo senso noi “usiamo” l’intelligenza artificiale più o meno consapevolmente da anni, basti pensare alle ottimizzazioni Seo o ai servizi di traduzione dei testi già presenti sul mercato. Potremmo definire intelligenza artificiale anche l’insieme di strumenti che – messi in mano a professionisti come i colleghi del New York Times – hanno consentito di scoprire e smascherare il genocidio di Bucha in Ucraina a partire dall’analisi delle immagini satellitari”.

Diversa invece è la questione della cosiddetta IA generativa basata sul Natural Language Processing (NLP), come Chat GPT. Su questo Cancellato ha un punto di vista controcorrente: “A Fanpage siamo molto prudenti e per ora non la stiamo usando in maniera sistematica, evitiamo anche l’automatizzazione di contenuti ripetitivi come il meteo, il Superenalotto o la Borsa. Il motivo è che la standardizzazione dei contenuti crea un effetto di duplicazione che alla lunga penalizza una realtà come la nostra. Serve invece un lavoro giornalistico originale che crei un delta rispetto a quello che tutti possono fare con l’IA, per continuare ad avere rilevanza e specificità”.  Alcuni esperimenti di uso dell’IA sono in corso ma l’approccio è molto prudente. “Abbiamo un’unità di ricerca che sta lavorando sulle possibili applicazioni dell’IA e stiamo introducendo una policy per distinguere i contenuti eventualmente prodotti in maniera automatizzata o semiautomatizzata, magari generati da comunicati stampa. Ci interessano gli sviluppi possibili sulla parte video”.

Ma la riflessione è più ampia. Il tema non è solo legato alla qualità del giornalismo, ma a più concrete ragioni di business. “Siamo di fronte a uno scenario che abbiamo già visto verificarsi in maniera analoga sulle piattaforme social, che sono gradualmente passate dall’essere un’importante fonte di traffico per i contenuti generati dai siti di informazione a privilegiare un modello basato su contenuti nativi, mettendo in crisi il concetto di “click per pay” su cui era stato costruito il rapporto di interazione tra loro e noi. L’avvento dell’IA generativa potrebbe presto portare allo stesso meccanismo sui motori di ricerca, a cominciare da Google: l’utente potrebbe trovare quello che cerca in forma nativa sulla pagina di ricerca, senza la necessità di un clic ulteriore verso la fonte o le fonti originali. Questa rivoluzione mette in crisi l’intero modello di business su cui si basa il mercato delle news digitali. L’aspetto positivo è che forse i giornali smetteranno di assomigliarsi tutti e ciascuno cercherà di valorizzare le proprie notizie per avere rilevanza, puntando a costruire un rapporto di fiducia con un tipo di utenza diretta”.

Per questo, secondo Cancellato, soprattutto le realtà editoriali più piccole dovranno immaginare strade alternative, mentre le fonti generaliste che alimentano l’intelligenza – e quindi la capacità di elaborazione e risposta – di Chat GPT aumentano a livello esponenziale. “E’ una tecnologia che viaggia a grande velocità, basti pensare a quello che si può fare oggi con i video, inimmaginabile solo fino a pochi mesi fa. Siamo all’inizio di una rivoluzione. Come sopravvivere? La metafora che preferisco è quella della grande distribuzione. Una volta erano i marchi più famosi ad essere privilegiati sugli scaffali, poi con l’aumento della concorrenza è diventato sempre più difficile ottenere le posizioni migliori e si è investito quasi più su questa necessità che sul prodotto. Quando la Gdo ha cominciato a distribuire i prodotti con il proprio marchio, i produttori si sono ritrovati a diventare semplici fornitori. E per i grandi brand l’unica alternativa sono stati i negozi monomarca. In questa metafora, possiamo dire che l’avvento di Chat GPT è paragonabile per impatto alla rivoluzione compiuta dall’e-commerce”. Proprio il rapporto con Big Tech è un tema che secondo Cancellato merita grande attenzione: “Anche il più grande dei giornali internazionali in confronto agli OTT è un pesce pulitore nella bocca di uno squalo, c’è una relazione squilibrata, come abbiamo già visto in passato il rapporto esiste fino a quando gli servi”. La conclusione è amara: “Potremmo davvero trovarci di fronte alla paventata chiusura della parentesi Gutenberg: l’opinione pubblica, in un futuro non remoto, potrebbe non avere più bisogno di noi per informarsi. O forse no, dipende anche da noi”.

 

La Nazione – Resto del Carlino – Il Giorno – QN (Gruppo Monrif)

Agnese Pini, direttrice dei quotidiani editi dal gruppo Monrif (La Nazione, il Resto del Carlino, il Giorno e QN), conferma la tendenza in atto nelle principali redazioni italiane: “È stato appena avviato un processo di discussione che mette insieme cdr, giornalisti, tecnici, direzione e azienda per capire come e quanto far entrare l’IA dentro i processi redazionali.

Si discute soprattutto di come l’IA può agevolare le parti ripetitive, faticose, dispendiose in termini di tempo ed energia e non intellettualmente gratificanti del lavoro redazionale. La formazione inizierà nel momento in cui troveremo linee di condotta condivise, sia operative sia etiche.

La piena condivisione di tutti i processi è l’unico modo per un approccio etico all’IA, che come ogni tecnologia ha dei rischi ma se usata bene può in potenza migliorare notevolmente il lavoro dei giornalisti”.

 

Open

Anche a Open, testata all digital nata dall’impegno editoriale di Enrico Mentana, l’IA è oggetto di studio:  “Stiamo ragionando sulle applicazioni, sperimentando quello che esiste – spiega il direttore Franco Bechis – per esempio con la trascrizione dei sottotitolo nei video. Abbiamo anche provato a sperimentare la costruzione di testi utilizzando chatbot ma non abbiamo mai pubblicato il risultato”. L’ipotesi di lavoro, al momento, è quella di realizzare un archivio di schede sui temi principali con la doppia funzione di poter essere indicizzate dai motori di ricerca e essere usate a supporto dei contenuti di attualità. “Il problema – chiosa Bechis – è che l’intelligenza artificiale non è ancora così intelligente, i programmi necessitano  di essere affinati. Per fare un esempio, i servizi di traduzione vanno in difficoltà quando ci sono testi originali che contengono parti in italiano e parti in inglese”.

L’utilità maggiore in questa fase secondo Bechis viene dagli strumenti tecnologici di supporto all’attività giornalistica umana: “Possiamo immaginarli alla stregua delle videocamere o dei programmi di montaggio video e audio. Ci aiutano nella trascrizione, nella pulizia dei file, nella registrazione. Sono strumenti e come tali si possono utilizzare, magari consentendo ai redattori di avere più tempo per creare valore aggiunto”.

Ai giornalisti invece è affidato il compito di individuare e segnalare le potenziali fake news create con l’intelligenza artificiale: “Quella della verifica e del debunking è la cifra che contraddistingue Open e per questo dobbiamo essere molto prudenti. L’autorevolezza è fondamentale, la nostra policy di trasparenza ci impone già ora di chiedere scusa in caso di errori, lasciare traccia delle correzioni e avvisare sempre i lettori delle nostre procedure di verifica. Detto questo, i giornalisti non devono avere paura della tecnologia: continueremo a sperimentare per capire quali sono le applicazioni pratiche”.

 

VareseNews

Anche il giornalismo locale sta facendo i conti con l’IA. Un punto di vista informato è quello di Marco Giovannelli, nelle sue molteplici vesti di direttore ed editore di VareseNews, presidente di Anso (Associazione nazionale stampa online) e organizzatore del festival Glocal, che ogni anno porta proprio a Varese professionisti, ricercatori, studenti di giornalismo per ragionare su informazione e innovazione. “Siamo così consapevoli dell’importanza del tema che in un primo momento avremmo voluto scegliere come parola chiave di Glocal 2024 il termine “prompt”, poi abbiamo optato per “domande”, ma pensando proprio che l’aspetto fondamentale per poter approcciare i large language model è la capacità di saperli interrogare”.

Le riflessioni sono cominciate un anno fa, anche grazie alla collaborazione con l’università Liuc: “Siamo partiti dalla conoscenza e dalla formazione, abbiamo avviato i primi esperimenti con Chat GPT e abbiamo organizzato incontri formativi. Anche all’interno dell’ultima edizione di Glocal c’erano cinque eventi dedicati all’Intelligenza artificiale. Siamo in una fase di studio e curiosità, ma siamo consapevoli che serve un ulteriore salto per passare alle sue applicazioni pratiche. Non è un processo compiuto, stiamo tutti a guardare che succede ma sappiamo che dobbiamo muoverci”. Per ora a VareseNews ci sono due figure di riferimento che stanno sperimentando le potenzialità dell’IA generativa: una nel cuore della “macchina”, cioè il caporedattore che applica gli strumenti nel proprio lavoro quotidiano; e una esterna (Riccardo Saporiti, ndr), che sta studiando il fenomeno proprio in funzione della prossima edizione del Festival Glocal.

Giovannelli spiega perché l’approccio finora è stato prudente: “Non abbiamo spinto da subito perché quando introduci Chat GPT nel tuo flusso di lavoro hai un problema non indifferente: gli dai in pasto il tuo giornale, il tuo archivio, i dati in tuo possesso, senza avere garanzie su come avverrà la condivisione di quei dati. Siamo in una fase nella quale, per dirla con Michele Mezza, l’implementazione va contrattata con i grandi player del settore, per non cadere negli errori del passato. Il problema della condivisione dei dati – il nostro archivio di 300 mila articoli, tanto per cominciare – è centrale in questo momento e la prudenza è necessaria”.

D’altra parte Giovannelli è consapevole delle potenzialità dell’IA generativa, avendola sperimentata nel suo lavoro quotidiano: “Faccio un esempio banale, mi serviva un grafico con i dati anagrafici di un comune dal 1581 ai giorni nostri. Fino a poco tempo fa una persona avrebbe dovuto consultare gli archivi, copiare i dati e poi elaborarli. Oggi, con ChatGPT4, è sufficiente una foto con lo smartphone per creare una tabella in un minuto”. Il punto è come arrivare all’implementazione di questi strumenti nel flusso di lavoro, soprattutto in una realtà locale “nella quale ci sono molte variabili. Non bisogna stare in difesa ma nemmeno lasciarsi affascinare dal culto della meraviglia, perché le criticità ci sono e non vanno trascurate, a cominciare dal tema dell’affidabilità, credibilità e autorevolezza dei contenuti generati con il supporto dell’IA”.

Secondo Giovannell,i editori e redazioni dovrebbe adottare un metodo sperimentale: “L’esempio a cui penso è quello del Visual Lab creato anni fa proprio all’interno di Gedi, un gruppo di persone con competenze diverse che sperimenta, una sorta di startup interna. Dobbiamo stressare le potenzialità dell’IA facendole fare delle cose vere, sapendo che hai una macchina con cui interagire. E per arrivare a questo l’ideale sarebbe creare spazio di pensiero laterale, coinvolgendo non solo giornalisti ma anche chi proviene da background diversi, dall’avvocato al musicista. Ed è fondamentale che sia un lavoro intergenerazionale, coinvolgendo i giovanissimi per capire quali possono essere le necessità e gli esiti se gli strumenti vengono messi in mano a chi ha altre esigenze o punti di vista. Siamo di fronte a una svolta epocale che oggi ancora non vediamo e forse non basteranno i prossimi mesi, ma di sicuro nel giro di pochi anni ci sarà una rivoluzione”.

NOTE

[1] Adib Sisani / Julia Sommerfeld, “Axel Springer and OpenAI partner to deepen beneficial use of AI in journalism” (axelspringer.com)

[2] Michael M. Grynbaum / Ryan Mac, “The Times sues OpeAI and Microsoft over A.I. use of copyrighted Work” (nytimes.com)

[3] Jessica Cecil, 2023 Round tables on AI and the global news industry (reutersinstitute.politics.ox.ac.uk)

[4] GPT-4” (openai.com)

[5] Sundar Pichai / Demis Hassabis, “Introducing Gemini, our largest and most capable AI model” (blog.google)

[6] “Creating video from text” (openai.com)

[7] Blake Brittain, “Getty Images lawsuit says Stability AI misused photos to train AI” (reuters.com)

[8] Matt O’Brien, “ChatGPT maker OpenAI signs deal with AP to license news stories (apnews.com)

[9]OpenAI, nuovi accordi con le testate giornalistiche: Le Monde e Prisa Media” (interskills.it)

[10] “La Francia multa Google con 250 milioni sul diritto d’autore” (ansa.it)

[11] Kari Paul, “Letter signed by Elon Musk demanding AI research pause sparks controversy”

[12] Kalley Huang, “Why Pope Francis is the star og A.I.-generated photos” (nytimes.com)

[13] “Google restricts AI chatbot Gemini from answering queries on global elections” (reuters.com)

[14] Jason Norwood-Young, “Daily Maverick experiments with in-house AI solutions while learning from its editors” (inma.org)

[15] “Explorative industry collaboration on AI transparency in Swedish Media” (nordicaijournalism.com)

[16] Guido Romeo, Emanuela Grigliè, “AI ethics and policies: why european journalism needs more of both” (link.springer.com)

[17] Pierluigi Pisa, IA e informazione, Benanti: “Dalle fake news al diritto d’autore, così salveremo il giornalismo” (repubblica.it)

[18] How WIRED will use generative AI tools” (wired.com)

[19] Sara Forni, “Finding news with AI” (joynalism.mytipe.news)

ANDREA IANNUZZI

Andrea Iannuzzi è Caporedattore centrale vicario a Repubblica. E’ stato vicedirettore e web editor al Trentino- Alto Adige, direttore AGL, fondatore e responsabile del Visual Lab Gedi Digital. A Repubblica ha avviato e coordinato il progetto Rep, la prima mobile app per gli abbonati. Vincitore nel 2017 degli Online Journalism Awards (Online News Association), con lo speciale multimediale “Francesco Totti re di Roma”. Ha partecipato al News Impact Network (European Journalism Centre) e al Journalism AI project (Polis / Lse). Visiting professor Scuola di Giornalismo LUMSA. Papà di Matilde e Niccolò. Velista.

i report dell'Osservatorio sono realizzati con il patrocinio di:

in collaborazione con:

I contenuti di questo documento vengono distribuiti con licenza Creative Commons By

  • Condividere — riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare questo materiale con qualsiasi mezzo e formato
  • Modificare — remixare, trasformare il materiale e basarti su di esso per le tue opere per qualsiasi fine, anche commerciale.

Il licenziante non può revocare questi diritti fintanto che tu rispetti i termini della licenza

URL pagina: https://www.odg.it/intelligenza-artificiale-nelle-redazioni-italiane/56109