Negli ultimi dodici mesi la quantità di contenuti ingannevoli prodotti dai chatbot basati su intelligenza artificiale è cresciuta in modo rilevante: dal 18% registrato nel 2024 si è passati al 35% nel 2025. A segnalare il fenomeno è NewsGuard, parlando di un incremento “di natura strutturale”.
Secondo gli analisti, questo peggioramento dipende dal mutamento nel modo in cui i modelli vengono addestrati e aggiornati. Come osserva McKenzie Sadeghi di NewsGuard, i sistemi non si limitano più a dichiarare i propri limiti o a rifiutarsi di trattare argomenti complessi: oggi si appoggiano a ricerche online in tempo reale, esponendosi così a contenuti manipolati provenienti da reti organizzate di disinformazione, incluse quelle di matrice russa.
Il monitoraggio mostra anche che, rispetto all’anno scorso, i chatbot sono più bravi a riconoscere e confutare bufale (dal 51% al 65%). Tuttavia, la loro inclinazione a diffondere falsità è cresciuta rapidamente. Un anno fa, infatti, tendevano a rifiutare il 31% delle domande sensibili; oggi, invece, rispondono quasi sempre, aumentando così il rischio di errori.
Per i ricercatori, la strategia dei gruppi di disinformazione è ormai cambiata: non cercano più soltanto di colpire gli utenti sui social media, ma puntano a saturare il web di contenuti falsi. In questo modo riescono a condizionare gli stessi sistemi di AI generativa, trasformandoli nei nuovi “distributori automatici di notizie false”.










