Giornalismo e Intelligenza artificiale: fare informazione senza perdere l’anima

Author di Ottavio Mancuso

Nello scorso ottobre, l’Accademia Reale svedese delle Scienze ha assegnato il premio Nobel per la Chimica a Demis Hassabis, informatico inglese, fondatore e ceo di Google DeepMind, il quale ha detto che con l’intelligenza artificiale inizia «un’età dell’oro per le scoperte scientifiche, un nuovo Rinascimento. Uno strumento potentissimo che riuscirà a ridurre drasticamente i tempi per avere farmaci nuovi e più efficaci, scoprire materiali rivoluzionari, risolvere il problema del riscaldamento globale».

La stessa Accademia delle Scienze ha contemporaneamente assegnato il Nobel per la Fisica a Geoffry Hinton, informatico anglo-canadese, il quale lo scorso anno ha lasciato proprio Google, di cui era uno dei principali consulenti scientifici, e da allora ha iniziato a girare il mondo tenendo conferenze in cui lancia l’allarme sul pericolo che si crei una Superintelligenza artificiale svincolata dal controllo dell’uomo, in grado, a suo parere, di determinare addirittura la fine dell’umanità stessa. In proposito, Hinton non usa mezze misure: «Mitigare il rischio di estinzione per mano dell’AI dovrebbe essere una priorità globale, al pari di atri rischi su scala mondiale come le pandemie e la guerra nucleare».

Se due scienziati premi Nobel, entrambi considerati padri dell’Intelligenza artificiale, la pensano in maniera così diversa, anzi, diametralmente opposta, noi poveri mortali possiamo essere giustificati nell’essere imbarazzati, confusi e anche un po’ attoniti, di fronte ai travolgenti progressi tecnologici a cui stiamo assistendo.

In proposito, prima di entrare nel merito del tema che oggi affrontiamo, mi sembra opportuno fare alcune poche, ma necessarie, considerazioni.

L’Intelligenza artificiale è oggi paragonabile a un neonato: si tratta di una tecnologia che sta muovendo i primi passi ed è assolutamente impossibile prevedere dove possa arrivare e in quali tempi. Abbiamo una sola certezza: fra pochissimi anni, l’AI non avrà nulla a che vedere con quella che conosciamo oggi, giacché i progressi realizzati negli ultimi tempi sono stati così vorticosi da rendere impossibile agli stessi scienziati immaginare il livello che potrà raggiungere in futuro.

Il cervello umano ha una capacità di apprendimento che non supera mediamente le 6-8 ore al giorno. Nel resto della giornata l’uomo compie (per fortuna!) altre attività: si nutre, si diverte, riposa, dorme. La macchina, invece, lavora 24 al giorno, tutti i giorni, senza riposare mai, senza prendere ferie, senza ammalarsi. Dobbiamo, inoltre, tener conto che le macchine acquisiscono e si scambiano informazioni con altre macchine a cui sono collegate. Questo consente all’AI di elaborare in tempi rapidissimi miliardi di dati che nessuna mente umana è in grado di immagazzinare. Se anche un uomo passasse l’intera vita a leggere tutti i libri contenuti nella Biblioteca nazionale di una grande città come Roma, non riuscirebbe neanche lontanamente ad avvicinarsi al patrimonio informativo di big data consultabili in pochissimo tempo dai sistemi di AI.

Di fronte a questo grande divario, di fronte a questo enorme vantaggio competitivo da parte dell’AI, molti – non solo il premio Nobel Hinton – sono convinti che, prima o poi, le macchine potranno diventare più intelligenti dell’uomo, dando vita appunto a una Superintelligenza artificiale sulla quale l’umanità non sarà in grado di esercitare alcun tipo di controllo.

In attesa di assistere agli sviluppi dell’AI, analizziamo le conseguenze dell’applicazione di quest’ultima nel campo dell’informazione e sgombriamo subito il campo da equivoci: giornalismo e Intelligenza artificiale possono, anzi, devono andare d’accordo. Per il mondo dell’informazione, la sfida consiste nel saper governare i cambiamenti in atto, evitando che post-verità e prodotti scadenti prendano il sopravvento, facendo annegare la realtà nel grande mare della rete in cui tutto si mescola e si confonde. Per farlo, occorre che i giornalisti utilizzino al meglio le enormi opportunità offerte dalla tecnologia, assicurando al tempo stesso un’informazione credibile, accurata, professionalmente corretta, a livelli tali da far emergere la differenza con tutto ciò che di falso circola in rete.

Già oggi in redazione si può ricorrere all’AI per scrivere pezzi ripetitivi, basati esclusivamente su dati che non richiedono un commento; può essere utilizzata anche per scrivere riepiloghi di vicende che si trascinano nel tempo o sbobinare velocemente interviste. Per mantenere un livello qualitativo adeguato, è tuttavia necessario che questi articoli siano considerati alla stregua di prodotti semilavorati che il giornalista dovrà successivamente verificare, arricchire e rielaborare, ricorrendo a sue fonti personali e alla conoscenza specifica del tema.

Facciamo un esempio concreto. Un giornalista decide di affidarsi all’Intelligenza artificiale per scrivere un “coccodrillo”, il termine che in gergo si usa per indicare la biografia di una persona famosa deceduta. Ebbene, per non correre il rischio di cadere in inesattezze ed evitare che il suo articolo risulti identico a quello di testate concorrenti, quel giornalista ne verificherà innanzitutto la correttezza e successivamente aggiungerà un tocco di originalità e creatività grazie alla sua memoria storica, all’archivio personale, a testimonianze originali. Un articolo anonimo sarà, così, trasformato in un vero pezzo giornalistico.

L’AI potrà essere efficacemente utilizzata anche per ricerche e approfondimenti. Ad esempio, riguardo al giornalismo d’inchiesta, immaginate il vantaggio di ottenere in pochi secondi tutto quanto è stato scritto su un determinato argomento oppure di avere a disposizione tutti gli atti giudiziari riferiti a una vicenda o a una determinata persona. Documenti, magari, lontani fra loro nel tempo e nello spazio, molto difficilmente reperibili in formato cartaceo.

Nella storia dell’umanità ogni innovazione ha determinato, allo stesso tempo, benefici e rischi. Opporvisi aprioristicamente – alla stregua degli operai “luddisti” che nell’Inghilterra di inizio Ottocento credevano di poter fermare la Rivoluzione industriale sabotando le moderne macchine tessili ritenute responsabili della perdita del loro posto di lavoro – è sbagliato, oltre che velleitario. Ma è altrettanto sbagliato assecondare le innovazioni senza riflettere sulle conseguenze che esse potranno produrre: solo in questo modo sarà possibile tracciare confini e fissare regole per la loro corretta applicazione.

Parliamo in primo luogo di un problema che non viene adeguatamente considerato, vale a dire quello del linguaggio che è alla base del mestiere del giornalista. Ebbene, l’Intelligenza artificiale costruisce le frasi per correlazione probabilistica: in pratica, a una determinata parola, a una determinata frase ne fa seguire un’altra in base a una semplice analisi statistica, dando vita, in tal modo, a una lingua standardizzata, matematizzata.

A differenza dell’AI, la mente umana funziona, invece, per associazione di idee, dando vita a un linguaggio singolare, non omologato, creativo, per la semplice ragione che nessuna mente associa i pensieri allo stesso modo di un’altra. Una ricchezza che, a lungo andare, rischiamo di perdere, di veder scomparire a vantaggio di una lingua omologata, robotizzata: come faremo un domani non lontano a convincere i nostri figli, i nostri nipoti a studiare la grammatica e l’ortografia, a imparare, insomma, a esprimersi bene, quando esisteranno macchine che potranno farlo, facilmente e in pochi secondi, al loro posto?

E veniamo al punto più controverso, quello relativo alle fonti a cui attinge l’Intelligenza artificiale. Quando interroghiamo CHAT GPT o un’altra chatbot, non possiamo non chiederci come avvenga la selezione delle fonti, in base a quali criteri una fonte acquisisce maggiore priorità e credibilità rispetto a un’altra, come e da chi vengono realizzati i relativi algoritmi. Così come dobbiamo chiederci se sia possibile intervenire su questi ultimi o se dobbiamo semplicemente confidare nella buona fede delle società che creano queste piattaforme, con tutti i risvolti professionali e legali, ma anche squisitamente etici e deontologici che l’utilizzo di questa disciplina pone. Domande non banali, se consideriamo che l’AI non è addestrata a fare affidamento sulle fonti maggiormente attendibili, quanto su quelle a più elevato potenziale di circolazione, comprese quindi anche le “bufale” che circolano liberamente sulla Rete. Un circolo vizioso che rischia di dar vita a prodotti giornalistici omologati e di dubbia credibilità.

Date queste condizioni, preoccupa, insomma, la potenzialmente più ampia diffusione di fake news e post-verità derivante da un uso malevolo delle nuove tecnologie. Sarà, infatti, sempre più difficile intercettare “attori maligni” pronti a utilizzare le capacità dell’Intelligenza artificiale allo scopo di diffondere notizie, documenti, video che, pur essendo falsi, appaiono straordinariamente veri. A quel punto, la verità non solo sarà più incerta, ma rischia di diventare addirittura irrilevante rispetto a quella virtuale partorita dall’AI.

Nel nostro Paese, poi, la situazione è resa ancora più problematica dalla presenza di un elevato tasso di “analfabetismo funzionale”, che, sulla base dei più recenti dati diffusi dall’Ocse, ha raggiunto il 35% della popolazione. Vale a dire che un italiano su tre – pur sapendo leggere e scrivere ‒ comprende il significato solo di testi brevi e molto semplici, mentre non è in grado di farlo per quelli appena più complessi. Il combinato disposto fra verità virtuali e analfabetismo funzionale rischia di pregiudicare il corretto gioco democratico: diventerà, infatti, sempre più difficile informare correttamente l’opinione pubblica e metterla nelle condizioni di conoscere la realtà dei fatti.

È evidente che, sul piano generale, dovrebbero muoversi i governi mondiali, le classi dirigenti e le comunità scientifiche di tutti i Paesi. L’Unione Europea qualcosa ha fatto, approvando l’AI Act che fissa una serie di condizioni per le piattaforme che gestiscono l’Intelligenza artificiale, stabilendo anche delle sanzioni per chi le disattende. Premesso che lo scopo dell’Ue è lodevole, sorge, però, un dubbio: tenendo presente che la normativa entrerà pienamente in vigore solo entro il 2026 e considerando il vorticoso sviluppo delle tecnologie, siamo sicuri che tra due anni quelle norme saranno ancora efficaci? O non saranno, nel frattempo, diventate già obsolete?

Il problema è stato recentemente impostato nella giusta direzione dal capo dello Stato, Sergio Mattarella, il quale ha detto che «è assolutamente necessario evitare che pochi gruppi possano diventare i protagonisti che dettano le regole anziché essere destinatari di regolamentazione e quindi perciò finire per condizionare la democrazia stessa». Parole su cui riflettere nel momento in cui un ristretto numero di persone e di gruppi industriali ha costituito una sorta di oligarchia tecnologica, potenzialmente in grado di condizionare i destini degli Stati e la vita di ogni singolo individuo.

In attesa che qualcosa si muova in questa direzione, coloro che lavorano nel mondo dell’informazione non possono rimanere passivi, anzi, devono fare la loro parte: la posta in gioco non è tanto, o almeno non solo, la perdita di posti di lavoro. In gioco c’è la democrazia, perché, senza un’informazione corretta, l’opinione pubblica non sarà in grado di farsi un’idea delle cose che accadono attorno a essa e non potrà, così, esercitare la sovranità popolare in maniera consapevole.

In proposito, dobbiamo essere sinceri e ammettere che i condizionamenti, le pressioni indebite nei confronti della stampa non nascono certo con l’Intelligenza artificiale. Da quando esiste il giornalismo, la politica, i potentati economici, i gruppi di potere in genere hanno provato, spesso riuscendoci, a influenzare l’informazione. Le cosiddette “veline” esistono da sempre. Ricordo che un tempo diversi giornalisti, alcuni anche parecchio famosi, giravano per i palazzi del potere, alla Camera, al Senato, consegnando questi pezzi di carta anonimi – che poi anonimi non erano ‒ che riportavano fedelmente la posizione del governo, dell’opposizione, di questo o di quel partito, di questo o di quell’esponente politico. Via via, con il tempo, le veline non sono state più consegnate a mano, ma inviate in redazione con il fax, poi con le mail. In ogni caso, il giornalista conosceva sempre la loro provenienza ed era in grado di attribuirne la paternità. Era, quindi, una sua scelta prendere per oro colato quanto contenuto in quelle veline oppure utilizzarle correttamente, mettendole a confronto con altre fonti.

Oggi, invece, con i prodotti dell’Intelligenza artificiale rischiamo di non capire più se quello che ci viene proposto corrisponda alla realtà o sia, invece, una presa di posizione di parte, se non addirittura una bufala. In altre parole, rischiamo di ritrovarci in mano una sorta di “velina virtuale” senza sapere chi davvero ce l’abbia data e a nome di chi stia parlando.

Torniamo, quindi, al rischio che la verità diventi irrilevante rispetto a quella virtuale. Ebbene, dobbiamo intenderci sul significato di verità, parola impegnativa che va usata con estrema cautela. Può essere frutto di enfasi retorica e risultare pertanto vuota e inutile, ma può anche essere brandita come arma contro chi la pensa diversamente da noi e, in questo caso, diventa pericolosa. Il giornalista non è un giudice, non deve attribuire responsabilità penali, non deve stabilire se una persona sia da condannare o assolvere. Il giornalista è chiamato a ricostruire i contesti all’interno dei quali si svolgono certe vicende, allo scopo di individuarne le dinamiche e le ragioni. Il giornalista deve, insomma, puntare alla ricerca della verità, un processo virtuoso il cui scopo non è dimostrare la giustezza delle proprie idee, ma osservare la realtà con spirito critico e raccontarla con professionalità e onestà intellettuale, fornendo al pubblico gli strumenti perché si faccia un’idea di come si sono svolti i fatti. In poche parole, non deve suggestionare, ma informare.

Il giornalista deve mettersi in gioco, studiare, approfondire, non deve mai accontentarsi dei saperi di seconda mano. Solo così potrà continuare ad avere ancora un vantaggio competitivo nei confronti dell’Intelligenza artificiale. Quest’ultima, almeno al livello tecnologico finora raggiunto, è in grado di riprodurre e rielaborare ciò che già esiste, ciò che è stato pubblicato. In altre parole, allo stato attuale delle cose, una chatbot non può darmi, metaforicamente parlando, il nome dell’assassino, se questo non è già stato pubblicato da qualche parte. Almeno al momento, non può darmi, insomma, una notizia esclusiva. Il giornalismo è, invece, basato sulla creatività e sull’originalità, caratteristiche che dobbiamo tenerci strette, che dobbiamo difendere con i denti per marcare la differenza fra Intelligenza artificiale e informazione di qualità.

Ho iniziato l’intervento citando due scienziati premi Nobel, entrambi padri dell’Intelligenza artificiale. Mi piace concluderlo con un’altra citazione, questa volta del filosofo francese Eric Sadin, il quale, a proposito dell’AI, ha detto: «È vitale non preoccuparsi solo del riscaldamento climatico, ma anche della prossima glaciazione delle nostre facoltà. Di fonte ai progressi illimitati dell’Intelligenza artificiale dobbiamo ergerci, non più come spettatori attoniti, ma come guardiani finalmente responsabili e accaniti della nostra anima»[1].

 

  1. Intervento al Convegno Intelligenza artificiale (IA) ed editoria, a cura dell’USPI (Unione Stampa Periodica Italiana), Roma 12 dicembre 2024.

(fasc. 55, 25 febbraio 2025)

Italo Calvino e l’estetica dell’intelligenza artificiale: giochi linguistici, morte dell’autore e teoria della ricezione

Author di Daniel Raffini

L’attenzione al legame tra scienza e cultura e lo sguardo analitico sul mondo rendono Calvino uno scrittore in grado di prevedere fenomeni sociali e culturali. È il caso della rivoluzione digitale, di cui è uno dei primissimi osservatori[1]. La preveggenza calviniana si dimostra anche nel campo dell’intelligenza artificiale, soprattutto per quanto riguarda l’interazione con la produzione artistica e l’immaginario culturale. Il tema torna in diversi saggi ed è presente anche nella scrittura finzionale[2]. All’interno di questa vasta produzione, il saggio Cibernetica e fantasmi affronta in maniera estesa il rapporto tra essere umano e macchine dal punto di vista della scrittura. Continua a leggere Italo Calvino e l’estetica dell’intelligenza artificiale: giochi linguistici, morte dell’autore e teoria della ricezione

(fasc. 53, 25 agosto 2024)