Che l’Intelligenza Artificiale stia diventando una componente sempre più presente e discussa nella realtà di tutti i giorni è fuori dubbio. Come insegna la storia, ogni grande cambiamento, soprattutto se tecnologico, porta con sé una risposta spesso tardiva delle istituzioni, che hanno il compito di regolarne l’uso per garantire la libera concorrenza. Questa “long read” si basa su un report risalente al 2022 realizzato da OpenAI in collaborazione con l’università di Washington; l’obiettivo è quello di analizzare l’impatto dell’uso diffuso di modelli generativi di Intelligenza Artificiale nella creazione e propagazione di campagne di disinformazione. di seguito tre sezioni: la prima dedicata alle implicazioni dell’intelligenza artificiale nel mondo della disinformazione in generale, la seconda un’analisi più approfondita del tema e la terza, infine, propone alcune possibili soluzioni, valutandone la realizzabilità caso per caso.
Possibili soluzioni
Rimane da analizzare quali siano le risposte a questi rischi sempre più pressanti, presentando per ogni possibile soluzione sia la promessa, ovvero una sorta di quadro dei problemi in grado di risolvere, che le limitazioni che la rendono difficile da implementare.
Dividiamo le soluzioni proposte seguendo l’ordine del capitolo precedente, saltando per ovvie ragioni quelle legate agli impatti, visto che riguardano un momento successivo alla creazione di credibilità, che miriamo ad evitare in primis.
Design e costruzione di modelli
Generalmente parlando, quando si tratta di proporre soluzioni, si cerca di agire alla fonte del problema, e di eliminarne le cause. Ora, adottare questo approccio con i modelli generativi di intelligenza artificiale è altamente complesso, come vedremo.
La prima soluzione proposta è certamente quella di obbligare tutte le aziende che hanno intenzione di sviluppare un modello generativo a creare output più facilmente riconoscibili; ora, rimane un tema aperto se si debbano utilizzare altri modelli per stabilire se un contenuto sia o meno frutto dell’intelligenza artificiale, oppure fare in modo che noi umani possiamo autonomamente eseguire questa distinzione; in base alla risposta a questo quesito, la soluzione proposta deve essere implementata in modi diversi. Il problema principale con questo metodo è la difficoltà tecnica di realizzare qualcosa di simile, oltre all’improbabile coordinazione necessaria tra i vari sviluppatori.
Cercare di creare modelli più ferrei nella verifica dei fatti sicuramente può rappresentare un’altra possibile soluzione, senza menzionare che la probabilità di sperimentare fenomeni di “allucinazioni” può essere controllata, come dimostra Microsoft Copilot con le sue tre modalità di funzionamento: creativa, bilanciata e precisa. La differenza, in questo caso, risiede nel grado di libertà concesso al modello nel “produrre” risposte, in grado addirittura di citare le fonti se impostato su “precisa”.
Alcuni esperti suggeriscono che uno dei metodi più efficaci, che garantirebbe maggiore sicurezza nell’uso dei modelli in questione, riguardi l’imposizione da parte dei governi di restrizioni circa i dataset utilizzati dalle aziende per addestrare i diversi modelli, oltre che limitazioni nella disponibilità dell’hardware stesso necessario al loro sviluppo.
Accesso al modello
Certamente, risolvere tutte le “falle” nella sicurezza circa l’accesso ai diversi modelli rappresenta una sfida cruciale, anche se, va ammesso, questo risolverebbe soltanto un possibile stratagemma utilizzato dagli organizzatori di campagne di disinformazione per accedere a modelli già pronti per i loro scopi, lasciando tutti gli altri pressoché disponibili. Dal punto di vista normativo, si può richiedere che vengano firmati accordi tra aziende del settore al fine di limitare l’accesso al modello solo ad organizzazioni e privati, controllando chi utilizza la tecnologia e per quali scopi, così da evitarne il più possibile un uso in malafede; tuttavia, proprio questa coordinazione rappresenterebbe l’ostacolo principale, visto che abbiamo già assistito alla presentazione sul mercato globale di modelli provenienti da realtà politiche ben diverse, come il caso di Wu Dao 2.0, il modello sviluppato a Beijing, che conta 1,75 trilioni di parametri; per intenderci, 10 volte quelli di GPT-3.
Per concludere, restringere l’accesso al modello sembra essere una strada difficilmente percorribile a livello internazionale, mentre nel panorama locale potrebbe rappresentare un valido metodo per arginare l’uso malevolo di queste tecnologie.
Diffusione del contenuto
Tenendo in mente che in un mondo ideale, in cui tutti danno retta al proprio buon senso, basterebbe che le aziende del settore si accordassero per sfruttare l’intelligenza artificiale stessa per riconoscere autonomamente potenziali contenuti generati appositamente, segnalandoli agli uffici preposti che possono procedere alle opportune verifiche, e prendere provvedimenti contro tutti gli usi non etici delle suddette tecnologie.
Quando si parla di diffusione, il fulcro risiede proprio nella facilità di individuazione di un contenuto artificiale; come dimostrano diversi studi1, esistono già molte tecnologie in grado di riconoscere autonomamente dei possibili casi di utilizzo di modelli generativi per la creazione e la diffusione dei contenuti, ma risultano essere soggetti a frequenti fenomeni di falsi positivi. Inoltre, come sostiene Ethan Mollick, Associate Professor a Wharton, queste tecnologie soffrono di “allucinazioni”, soprattutto quando l’input da analizzare è in una lingua diversa da quella originale del dataset usato per l’addestramento; sul tema sono presenti diversi studi, il più autorevole presentato dalla Stanford University.
Considerato che l’approccio dell’Intelligenza Artificiale contro sé stessa non si può ancora intraprendere, negli ultimi tempi si è cercata una soluzione che fosse efficace nel lungo periodo, sorvolando sulle difficoltà iniziali; il risultato è stato un’iniziativa messa in atto dalla “Data&Trust Alliance” per creare degli standard riguardo la provenienza dei dati per addestrare i dataset (discussa precedentemente), oltre alla creazione della “Coalition for Content Provenance and Authenticity” : una sorta di alleanza in grado di fornire ai privati l’origine di un determinato contenuto digitale. Questo è un tentativo di dare un’alternativa a tutti coloro che intendono continuare ad informarsi in modo consapevole, ma richiedono necessariamente che sia il consumatore finale dei contenuti a recarsi sul sito internet per eseguire le dovute ricerche; insomma, ancora una volta è tutto nelle nostre mani e nell’uso che ne facciamo. L’ultima soluzione proposta per combattere una diffusione sempre più facile e rapida di disinformazione è quella di richiedere la prova di essere umano per avere accesso alle funzionalità di condivisione sui diversi social. X (ex-Twitter) è il caso più emblematico, in cui, piano piano, si sta creando un sottogruppo interno ad uno più ampio, quest’ultimo composto dalla totalità degli utilizzatori, di utenti che hanno pagato per avere la “spunta blu”, e che possono limitare la visualizzazione e le interazioni solo con altrettanti utenti paganti. Questo permette al social in questione di rendere notevolmente più difficile la circolazione di messaggi generati artificialmente. Ancora una volta, però, il problema persiste, visto che X è soltanto una delle innumerevoli piattaforme del suo genere in cui gli utenti possono condividere contenuti -e opinioni.
Creazione di credibilità
Per contrastare questo fenomeno, che è l’ultimo anello debole della catena della disinformazione, è stato posto l’accento sulle iniziative di “media literacy”. Questi strumenti consistono in vere e proprie campagne di educazione rivolte sia ai genitori che ai più piccoli riguardo i migliori modi per informarsi consapevolmente in rete. In queste “lezioni”, solitamente tenute da esperti del settore, sono gli esempi pratici a fare da padroni della scena, così da mantenere sempre sull’attenti chiunque. A proposito, l’ente principale a livello europeo che si occupa di “media literacy” si tratta di ERGA (European Regulators Group for Audiovisual Media Services), che pubblica frequentemente dei report sullo stato delle diverse campagne e sui risultati ottenuti. Questo approccio ha un impatto positivo sulle fasce di popolazione già particolarmente istruite, che tendono ad avere maggiore fiducia nei contenuti legittimi, a discapito di tutta l’altra fetta, che, al contrario, minerebbe ulteriormente la fiducia nelle fonti di informazione ufficiali.
Un ulteriore approccio volto alla risoluzione del problema della diffusione di campagne di disinformazione riguarda lo sviluppo di strumenti basati su Intelligenza Artificiale sempre più specifici, maggiormente creati in base alle esigenze dell’utilizzatore finale, in modo da scoraggiare tutti coloro che necessitano di un “tool” molto più generico per la generazione delle suddette campagne. In questo caso, nel breve periodo l’unico problema sollevato sembra essere quello degli evidenti bias dei modelli generativi quando devono operare in campi specifici, vista la quantità ristretta di dati da cui apprendere; a pensarci bene, nel lungo termine le persone potrebbero fare troppo affidamento a queste tecnologie, mettendo ulteriore pressione sul problema generale discusso in questo “paper”, che non è detto sarà già sufficientemente arginato per quel momento. Inoltre, questo non comporterebbe la soluzione del problema alla sua radice, ma consisterebbe in un adattamento parziale della base di utenti.
Conclusioni
Lo scenario futuro che si presenta non è certamente dei migliori. Le tecnologie generative giocheranno un ruolo sempre più presente nella vita di tutti i giorni, e c’è chi sta già pensando ad un futuro ancora più lontano abitato dall’AGI (Artificial General Intelligence). L’informazione legittima e veritiera è già diventata un vero e proprio “asset” strategico, ma ora si sta assistendo ai primi problemi concreti circa il modo in cui vengono recepite le campagne di informazione -e disinformazione- in tutto il mondo. Basti vedere ciò che sta accadendo ad Harvard o alla Columbia University per citarne soltanto due, in cui metà della storia, della verità e delle opinioni viene presa in considerazione e sostenuta a spada tesa. Possiamo quasi concludere dicendo che bisogna evitare in tutti i modi che l’impegno condiviso si sposti dalla regolamentazione delle diverse aziende, alla sola diffusione e ricezione da parte del pubblico finale delle campagne di disinformazione; l’educazione, come sappiamo, è la via migliore, ma implica tempi di realizzazione (o turnover) molto dilatati. Per questa ragione, oggigiorno si ritiene più efficace un approccio di tipo regolamentare, in cui i diversi organi internazionali preposti alla tutela dei diversi diritti e al controllo del corretto operato da parte delle aziende si alleano contro tutti coloro che vogliono fare dei modelli generativi un veicolo di mala-informazione.
Dal punto di vista della regolamentazione del mercato, è di fondamentale importanza creare norme omogenee, che non siano eccessivamente concentrate a risolvere uno solo dei problemi precedentemente esposti, altrimenti si rischia di vanificarne totalmente gli effetti. Per intenderci, sarebbe come avere una capacità produttiva di cento unità, e quella di vendita di mille: sicuramente il “sales manager” ha fatto un ottimo lavoro, ma quale è il riscontro effettivo?
In definitiva, in questo momento si ha l’occasione di dare una direzione concreta allo sviluppo di questa tecnologia; l’Europa, come il resto del mondo, non è ancora in ritardo, ma avanza velocemente verso il punto di non ritorno. Per queste ragioni, è fondamentale coordinarsi per lo stesso fine, visto che questo mercato sicuramente non intende essere arrestato.
