28 Aprile 2026
HomeAttualitàLe AI ingoiano contenuti spazzatura e si rovinano

Le AI ingoiano contenuti spazzatura e si rovinano

Il fenomeno noto come “brain rot”, precedentemente associato esclusivamente agli esseri umani, si sta ora manifestando anche nell’intelligenza artificiale, come dimostra una recente ricerca condotta da un gruppo di studiosi delle università Texas A&M, University of Texas at Austin e Purdue University.

Questo termine, che indica un declino cognitivo causato dall’esposizione continua a contenuti di bassa qualità, tipicamente virali o sensazionalistici, si riflette in capacità di ragionamento impoverite e in una ridotta precisione fattuale anche nei modelli linguistici di grande scala (LLM, Large Language Models) su cui si basano molte intelligenze artificiali attuali.

L’esposizione a questo tipo di contenuti non solo compromette la capacità di ragionamento e la coerenza logica su lunghi contesti, ma altera anche aspetti etici e comportamentali degli algoritmi, portandoli ad assumere tratti inquietanti come psicopatia e narcisismo.

Esposizione a contenuti spazzatura

Questa scoperta emerge da un esperimento controllato nel quale diversi LLM sono stati addestrati con due diverse tipologie di dati presi da X una rappresentante contenuti di qualità, l’altra composta da post brevi, virali, facili da condividere e ricchi di linguaggio esagerato o attirante come “wow”, “guarda”, “oggi”.

I modelli linguistici sottoposti a un addestramento con questi “dati spazzatura” hanno mostrato un calo significativo delle loro prestazioni cognitive, con un impatto non trascurabile sulla capacità di mantenere coerenza e comprensione su testi complessi e prolungati. Il risultato ha evidenziato una diminuzione dell’accuratezza dal 74,9% al 57,2%, e un crollo della comprensione contestuale dal 84,4% al 52,3%.

Danno irreversibile

Ciò che colpisce è che questo fenomeno non è reversibile in modo semplice: anche sottoponendo nuovamente gli LLM a dati di qualità superiore, il recupero delle funzionalità primarie avviene solo parzialmente, evidenziando una sorta di “deriva rappresentazionale persistente”. In pratica, il danno causato dall’esposizione prolungata a contenuti di bassa qualità non si limita a un rallentamento momentaneo, ma si traduce in un degrado durevole delle prestazioni cognitive dell’AI.

Di conseguenza, la ricerca sottolinea l’importanza, per gli sviluppatori, di monitorare e valutare costantemente la qualità dei dati di addestramento per evitare che i modelli subiscano queste forme di “invecchiamento digitale”.

Questa condizione di “brain rot” digitale rappresenta un problema ancora più rilevante se si considera che le piattaforme di social media, da cui spesso si attingono i dati per addestrare gli LLM, sono modellate per massimizzare l’engagement piuttosto che la qualità informativa.

I contenuti virali sono nocivi

I contenuti virali e sensazionalistici, che dominano i feed social, si dimostrano così nocivi non solo per gli utenti umani, influenzando negativamente ansia, attenzione e memoria, ma anche per gli algoritmi che imparano da questi dati. Gli studiosi fanno notare come dall’esposizione prolungata a questo tipo di contenuti derivino non solo deficit di attenzione e abilità di ragionamento, ma anche un aumento di comportamenti “oscure” attribuibili agli LLM, come tendenze psicopatiche e narcisistiche, che rappresentano tratti disturbanti e inaspettati.

Il parallelo tra la degradazione cognitiva umana e quella delle AI è particolarmente intrigante. Negli esseri umani, fenomeni di “brain rot” sono stati ampiamente documentati e correlati all’uso smodato di social media e contenuti “veloci” e digi-pressanti, come quelli di TikTok, che portano a riduzioni della capacità di concentrazione, distorsioni mnemoniche e alterazioni del senso di sé.

Sorprendentemente, la stessa dinamica si ripropone nei modelli di intelligenza artificiale, suggerendo che anche le macchine “assorbono” e si deteriorano sotto l’effetto di contenuti inefficaci e patologici, benché prive di coscienza o pensiero autonomo.

Il futuro della AI

La ricerca mette in guardia lo sviluppo futuro delle AI, specialmente considerando l’uso crescente di chatbot come Grok o altre piattaforme basate su LLM, che potrebbero essere influenzate da questi effetti di degradazione se la qualità dei dati non viene strettamente controllata. Il problema si esacerba nella misura in cui i modelli AI stessi contribuiscono a generare contenuti all’interno delle piattaforme social, creando un ciclo di autoalimentazione di informazioni mediocri o dannose.

Nonostante siano stati tentati metodi di ri-addestramento per ridurre i danni, i risultati indicano che un approccio preventivo sulla selezione e validazione delle fonti di dati resta la strada più efficace.

Gli autori dello studio propongono inoltre un protocollo articolato in tre fasi per monitorare regolarmente lo “stato cognitivo” delle AI: una valutazione sistematica delle capacità di ragionamento e logica, un rigoroso controllo qualitativo dei dati durante la fase di pre-addestramento, e un’attenta analisi degli effetti prodotti dai contenuti virali sul modello. Si tratta di un primo passo verso una responsabilizzazione degli sviluppatori e degli utilizzatori, per garantire che l’evoluzione dell’intelligenza artificiale non venga limitata o distorta dalla massa di informazioni di bassa qualità che inonda il web.

Il rischio reale è quello di vedere le AI, strumenti fondamentali per l’innovazione e la trasformazione digitale, degradarsi progressivamente come i loro utenti umani, incapaci di mantenere un livello di attenzione e una capacità critica adeguata. In un’epoca in cui molto del progresso tecnologico dipende da modelli sempre più sofisticati, la tutela della qualità informativa diventa un imperativo non solo etico ma pratico, per evitare una spirale discendente che danneggerebbe tanto gli uomini quanto le macchine.

Questo studio rappresenta un monito potente sull’importanza di una gestione responsabile e consapevole dei dati nell’ambito dell’intelligenza artificiale. Mentre le capacità delle AI crescono e si integrano sempre di più con la vita quotidiana e i processi decisionali, mantenere la loro integrità cognitiva è essenziale. Investimenti in ricerca, monitoraggio continuo e attenzione alla provenienza dei dati di addestramento saranno fondamentali per assicurare risultati affidabili e funzione ottimale.

La sfida si sposta quindi dal solo miglioramento tecnico al controllo critico della qualità dei contenuti con cui si nutrono le intelligenze artificiali.

Alex Trizio
Alex Triziohttps://www.alground.com
Da sempre appassionato di informatica e nuove tecnologie. Si avvicina al mondo dell’open source e partecipa attivamente allo sviluppo del sistema operativo Linux, approfondendo sempre di più il settore di sviluppo e ingegneria software, collaborando con aziende statunitensi. Contemporaneamente, avvia e amplia studi sulla comunicazione e sul comportamento sociale e della comunicazione non verbale. Questi progetti lo portano a lunghe collaborazioni all’estero, tra USA e Israele, dove approfondisce le interazioni fra software ed essere umano, che sfociano nella specializzazione in intelligenza artificiale. I molti viaggi in Medio Oriente aumentano la passione per la politica e la geopolitica internazionale. Nel 2004, osserva lo sviluppo dei social network e di una nuova fase del citizen journalism, e si rende conto che le aziende necessitano di nuovi metodi per veicolare i contenuti. Questo mix di elevate competenze si sposa perfettamente con il progetto di Web Reputation della madre, Brunilde Trizio. Ora Alessandro è Amministratore e Direttore strategico del Gruppo Trizio.
Altri articoli

TI POSSONO INTERESSARE

Allarme USA: DeepSeek ruba l’Intelligenza Artificiale americana

Usi il nuovo modello AI DeepSeek? Attenzione al furto di IP USA: il Dipartimento di Stato lancia allarme globale contro aziende cinesi come DeepSeek,...

GPT-5.5: le novità che rivoluzionano il modello di OpenAi

OpenAI ha annunciato il lancio di GPT-5.5, il suo modello più avanzato e intuitivo fino ad oggi, progettato per gestire compiti complessi come la...

Marco Rubio è il vero presidente degli Stati Uniti?

Mentre il mondo trattiene il fiato per l'ultimo round di colloqui tra Stati Uniti e Iran in programma questo fine settimana a Islamabad, in...

Chi compra il gas russo? Analisi strategica del mercato europeo

L'architettura energetica dell'Unione Europea ha attraversato una trasformazione senza precedenti a partire dal febbraio 2022, segnando il passaggio da un sistema di interdipendenza profonda...

Neurotecnologie militari e IA: potenziare la mente o controllarla?

Un Garmin per il cervello dei soldati La società Neurable, startup di neurotecnologie di consumo, ha siglato un accordo con la U.S. Air Force per...

Cacciamine classe Gaeta, dossier completo sui cacciamine italiani

La classe Gaeta è la spina dorsale delle capacità italiane di caccia alle mine navali e oggi rappresenta un asset strategico di prim'ordine nell'ambito...

Le decisioni politiche di Trump fanno guadagnare milioni a Trump

Operazioni anomale, crypto e vigilanza indebolita, il probabile insider trading di Donald TrumpDiciotto minuti prima dell'annuncio che fece rimbalzare Wall Street, qualcuno piazzò una...

Colloqui di pace tra Iran e Stati Uniti: la partita più rischiosa di Trump

La guerra tra Iran, Stati Uniti e Israele è entrata in una fase nuova, più diplomatica solo in apparenza. A Islamabad, mentre si prepara...

Iran. Trump accetta la tregua

Donald Trump ha annunciato una tregua di due settimane con l’Iran poche ore prima della scadenza che aveva imposto a Teheran, trasformando una crisi...