3 May 2026 – Sunday
3 May 2026 – Sunday

AI e Disinformazione: Arma a Doppio Taglio? – 2/3

Che l’Intelligenza Artificiale stia diventando una componente sempre più presente e discussa nella realtà di tutti i giorni è fuori dubbio. Come insegna la storia, ogni grande cambiamento, soprattutto se tecnologico, porta con sé una risposta spesso tardiva delle istituzioni, che hanno il compito di regolarne l’uso per garantire la libera concorrenza. Questa “long read” si basa su un report risalente al 2022 realizzato da OpenAI in collaborazione con l’università di Washington; l’obiettivo è quello di analizzare l’impatto dell’uso diffuso di modelli generativi di Intelligenza Artificiale nella creazione e propagazione di campagne di disinformazione. di seguito tre sezioni: la prima dedicata alle implicazioni dell’intelligenza artificiale nel mondo della disinformazione in generale, la seconda un’analisi più approfondita del tema e la terza, infine, propone alcune possibili soluzioni, valutandone la realizzabilità caso per caso. 

Un’analisi più approfondita 

Se si volesse analizzare il problema in modo più dettagliato, lo si potrebbe dividere nelle diverse fasi attraversate da tutte le campagne di disinformazione, dalla creazione dei modelli generativi (per quelle che possono permetterselo), fino alle conseguenze delle stesse, ovvero gli impatti sulla popolazione.  

Di seguito sono riportate i suddetti step che verranno sviscerati con attenzione: 

  • Costruzione del modello 
  • Accesso al modello 
  • Diffusione del contenuto 
  • Creazione di credibilità 
  • Impatto 

Procediamo analizzando ognuno di questi passaggi, evidenziando tutte le maggiori conseguenze di un uso sempre più diffuso di modelli generativi di intelligenza artificiale in ognuno di essi. 

Costruzione del modello 

Genericamente, tutte le campagne di disinformazione cominciano da questa fase, che consiste nella ricerca massiva di dati per l’addestramento del modello che sarà successivamente utilizzato. Ovviamente, non tutte le organizzazioni possono permettersi i costi di sviluppo di una tale tecnologia, che si aggirano attorno alle diverse centinaia di migliaia di dollari al giorno; tuttavia, i metodi utilizzati dai giganti come OpenAI per il grande pubblico, sono potenzialmente replicabili su scala molto minore, e con scopi più mirati.  

La materia prima consiste in enormi database di dati, che variano da dimensioni di qualche centinaio di Giga fino a qualche Tera (migliaia di Giga); queste banche dati possono essere liberamente acquistate, oppure create attraverso l’utilizzo di specifici metodi chiamati di “web scraping”, che consistono, letteralmente, nel “raschiare” il web raccogliendo tutte le informazioni presenti nei siti selezionati al fine di essere utilizzate come materiale di addestramento per il modello in via di sviluppo. Da non sottovalutare, inoltre, sono tutte le attività di spionaggio informatico che possono portare ad una generazione più efficace di questi database, ma si tratta di pratiche ancora notevolmente limitate all’ambito governativo. 

Anche l’hardware utilizzato gioca un ruolo fondamentale nello sviluppo delle campagne, a partire proprio dalla fase di costruzione dei modelli, visto che sono necessarie notevoli capacità computazionali al fine di gestire un numero maggiore di parametri e, di conseguenza, una maggiore complessità del modello generato. Da questo punto di vista, tutte le realtà che si occupano dell’acquisto, della costruzione o dell’utilizzo remoto (tramite cloud computing) giocano un ruolo fondamentale; questi mercati, generalmente, sono molto ristretti e caratterizzati da monopoli pressoché totali detenuti da nazioni spesso politicamente polarizzate le une rispetto alle altre (Cina-USA). Questo rende estremamente difficile creare una classificazione chiara e omogenea delle tecnologie in circolazione. 

Un’altra prassi in crescente uso è quella di assumere, soprattutto da parte di grandi aziende di software, veri e propri talenti nel campo dell’Intelligenza Artificiale, come accademici e ricercatori, oltre ad ex collaboratori governativi. Queste figure sono accessibili, di conseguenza, anche a tutti coloro che intendono diffondere una campagna di disinformazione, facilitando questa prima, ma fondamentale, fase. 

Accesso al modello 

Al giorno d’oggi, non esistono barriere concrete contro l’uso da parte di enti o organizzazioni controproducenti con scopi di creazione e diffusione di campagne di disinformazione più o meno sviluppate.  

Infatti, al fine di adottare uno o più dei suddetti modelli di Intelligenza Artificiale si può procedere alla sua costruzione da zero, optare per un modello già creato liberamente accessibile oppure rubarne uno. Riguardo quest’ultima possibilità, sembra essere più remota delle altre; in realtà, dopo un’attenta ricerca è emerso che esistono numerosi casi di furto di modelli, o meglio, furto di chiavi API (Application Programming Interface) per l’accesso ai suddetti modelli. Infatti, ogni volta che si lancia sul mercato un software, si può scegliere se distribuirlo attraverso una versione commerciale, acquistabile e installabile direttamente sulla macchina dell’utente, oppure dare la possibilità agli utilizzatori di pagare per una chiave di accesso univoca e segreta che dia adito ad un uso personalizzato delle diverse funzionalità messe a disposizione, così da garantire alla casa sviluppatrice un maggiore controllo dell’utilizzo che viene fatto delle sue tecnologie. Questa seconda strada è stata scelta da colossi come OpenAI, che creano chiavi uniche appositamente per i singoli utenti, ognuna collegata ad un profilo specifico di funzionalità utilizzabili e ad altri limiti di carattere quantitativo piuttosto che qualitativo riguardo l’esperienza con il modello. Questo metodo garantisce indubbiamente un controllo più stretto da parte di OpenAI delle finalità per le quali vengono impiegate le loro tecnologie, ma presenta diverse vulnerabilità in fatto di sicurezza contro la diffusione incontrollata dei modelli da loro sviluppati; infatti, fornendo all’utente finale una chiave, ci si aspetta che sia in grado di conservarla in un luogo sicuro, e che sia anche capace di riconoscere eventuali tentativi di appropriazione illeciti. Purtroppo, come svela la realtà stessa, le cose non stanno sempre così; dopo un’attenta ricerca, sono emersi tre attacchi estremamente diffusi che mirano al furto di chiavi API: 

  • Malware: Impropriamente definiti “virus”, consistono in software generalmente installati ad insaputa dell’utente dopo aver cliccato su link pericolosi, e aver aperto file apparentemente innocui, con il risultato di estrapolare dal disco nel computer tutto ciò che assomiglia ad una chiave API. È il caso di AlienFox, distribuito tramite Telegram nel corso del 2023, in grado di rubare chiavi API per servizi come AWS, Google o Amazon; 
  • E-mail phishing: Conosciuto semplicemente come “phishing” è un tentativo da parte di malintenzionati di impersonificare un’azienda o servizio attraverso l’invio di e-mail generiche contenenti un link contraffatto che richiede l’inserimento di dati sensibili, simulando grafica e comportamenti del sito originale. È una pratica estremamente diffusa anche in altri campi oltre all’Intelligenza Artificiale; basti pensare che, nel 2022, un’e-mail di phishing invitava gli utenti di OpenAI ad una fantomatica “verifica del proprio account”, rubando in realtà dati di accesso e chiavi API; 
  • Attacchi brute force: Dall’inglese “forza bruta”, sono attacchi che mirano a scoprire chiavi API o informazioni di accesso tramite tentativi ripetuti cercando di indovinare la combinazione di lettere e numeri. Sono poco fattibili, anche se nel 2021 un hacker è riuscito a rubare una chiave API dopo alcune settimane di attacchi brute force ripetuti. 

Diffusione del contenuto 

Al giorno d’oggi, il più grande rischio collegato all’uso sempre maggiore di questi modelli è quello dell’evoluzione a livello di sofisticatezza delle metodologie adottate per diffondere i contenuti.  

Tra le tattiche con il grado di fattibilità più elevato troviamo l’impersonificazione, resa possibile grazie ai deepfake -contenuti creati attraverso intelligenza artificiale che animano un individuo per dare l’idea che stia pronunciando determinate frasi, unite a software di generazione vocale anch’essi capaci di fare come se fossero pronunciate da un determinato individuo.  

La manipolazione è un altro metodo molto efficace, che si serve di bot su social network per creare miti falsi e diffondere credenze simulando discussioni tra utenti apparentemente sconosciuti che si trovano d’accordo su un argomento, mentre in realtà l’invio di quei messaggi è controllato dagli autori della campagna.  

La disinformazione, in generale, è il metodo più utilizzato per ampliare il pubblico delle suddette campagne, che passa attraverso l’uso di immagini e narrazioni fuorvianti, appositamente create con uno scopo preciso. Anche la distrazione diventa un’arma, soprattutto oggigiorno, con sempre più campagne di disinformazione che ripiegano su questo mezzo per diffondere contenuti polarizzati e sviare l’attenzione della gente, anche attraverso progetti di spam che riescono ad evadere i filtri usati dalla maggior parte delle piattaforme in rete, anche grazie all’Intelligenza Artificiale. 

Per concludere, il contenuto viene disseminato sfruttando non più i soliti strumenti e canali, ma anche attraverso nuovi metodi, alcuni dei quali molto efficaci. Un esempio che può dare ulteriormente un’idea del potenziale impatto distruttivo di queste tecnologie riguarda proprio un’intelligenza artificiale sviluppata da Microsoft nell’ormai lontano 2017, chiamata Tay; l’obiettivo dichiarato dalla nota azienda era quello di creare una chatbot in grado di intrattenere delle conversazioni con gli utenti di Twitter in modo scherzoso e leggero, così da raccogliere ulteriori dati su come imitare comportamenti umani in rete. Questo tipo di approccio prende il nome di “apprendimento non supervisionato”, e consiste nello sviluppo del modello direttamente a contatto con il pubblico, senza quindi possibilità di moderare i contenuti con cui viene addestrato. Dopo il lancio, alcuni utenti si sono accorti che la tendenza della chatbot era quella di emulare i loro comportamenti; così, dopo diversi tentativi, sono riusciti a farle assumere un atteggiamento razzista e notevolmente polarizzato, culminato nella pubblicazione di alcuni tweet deliberatamente offensivi e discriminatori. Microsoft ha immediatamente ritirato il tutto, facendo sollevare notevoli dubbi riguardo l’uso di queste tecnologie. 

Creazione di credibilità 

Generalmente parlando, questa è una delle fasi più cruciali dell’intera campagna di disinformazione, visto che è quella in cui si inizia a verificarne l’efficacia. A questo proposito, si cerca sempre di più di fare leva sulla paura e la poca fiducia riposta nelle istituzioni per facilitare l’insediamento di disinformazione nella mente delle persone. Assieme a questi due elementi, anche i notevoli deficit dell’attenzione giocano un ruolo importante nel rafforzamento di credenze false o senza apparenti prove, spesso accompagnati da miti popolari di fondo sbagliati.  

Da varie ricerche, emerge un quadro preoccupante circa il quantitativo di nazioni che sfruttano campagne organizzate di diffusione di contenuti sulle diverse piattaforme social con l’obiettivo di influenzare le opinioni della gente. Questo numero è cresciuto da 28 nel 2017 a 81 nel 2020. Il risultato? Sempre più persone finiscono per dare per scontato che tutte le informazioni provenienti da una data piattaforma siano veritiere visto che le istituzioni stesse sono presenti e pubblicano contenuti regolarmente. L’Intelligenza Artificiale rischia concretamente di simulare alla perfezione la tipologia di contenuti usati dai governi, così da rendere ancora più difficili da distinguere le campagne create da esseri umani da quelle, invece, generate artificialmente. 

Impatto 

Quando si parla di conseguenze legate all’utilizzo di modelli generativi di intelligenza artificiale, è importante dare la corretta attenzione ad ognuno degli scenari che si possono presentare.  

Da un punto di vista di “ingegneria sociale”, l’impatto dell’uso di questi modelli si riscontra soprattutto nell’organizzazione più rapida di flash mobs e in generale di manifestazioni mirate, vista la maggiore facilità con cui si possono creare false credenze (discusso al punto prima); la diffusione di mala informazione attraverso i diversi canali porterà, inoltre, a possibili cambiamenti di policies specificatamente vantaggiosi nei confronti di particolari gruppi e a uno sfruttamento ulteriormente facilitato di eventuali vulnerabilità informatiche. Per intenderci, basta immaginare una situazione non troppo utopica in cui una minoranza di individui architetti una campagna di disinformazione volta a sensibilizzare su un tema di nicchia, portandolo mainstream. Non sarebbe la prima volta in cui dei partiti politici cavalchino l’onda per tutelare diritti di dubbia utilità e provenienza. 

Un impatto importante verrà osservato anche in materia di decisioni, che verranno prese, con probabilità sempre maggiori, su una base di disinformazioni o, peggio ancora, informazioni create ad hoc e svianti.  

Un altro possibile risultato, in alternativa a quest’ultimo, potrebbe essere l’incapacità di prendere decisioni vista l’impossibilità di acquisire informazioni da fonti certe, culminando in una vera e propria paralisi decisionale, in cui le opinioni di esperti potranno perdersi tra quelle create appositamente, portando a situazioni di stallo politico.  

Importante notare anche tutti quegli effetti indirettamente collegati all’uso di questi modelli, come una minore fiducia generale nel “sistema” e un “decadimento” spinto delle istituzioni.  

Chief Editor & Web Manager | marco.milesi@studbocconi.it |  + posts
share

Suggested articles

Che l’Intelligenza Artificiale stia diventando una componente sempre più presente e discussa nella realtà di tutti i giorni è fuori dubbio. Come insegna la storia, ogni grande cambiamento, soprattutto se tecnologico, porta con sé…

Trending

Che l’Intelligenza Artificiale stia diventando una componente sempre più presente e discussa nella realtà di tutti i giorni è fuori dubbio. Come insegna la storia, ogni grande cambiamento, soprattutto se tecnologico, porta con sé…