18 Aprile 2026
HomeAttualitàLe AI ingoiano contenuti spazzatura e si rovinano

Le AI ingoiano contenuti spazzatura e si rovinano

Il fenomeno noto come “brain rot”, precedentemente associato esclusivamente agli esseri umani, si sta ora manifestando anche nell’intelligenza artificiale, come dimostra una recente ricerca condotta da un gruppo di studiosi delle università Texas A&M, University of Texas at Austin e Purdue University.

Questo termine, che indica un declino cognitivo causato dall’esposizione continua a contenuti di bassa qualità, tipicamente virali o sensazionalistici, si riflette in capacità di ragionamento impoverite e in una ridotta precisione fattuale anche nei modelli linguistici di grande scala (LLM, Large Language Models) su cui si basano molte intelligenze artificiali attuali.

L’esposizione a questo tipo di contenuti non solo compromette la capacità di ragionamento e la coerenza logica su lunghi contesti, ma altera anche aspetti etici e comportamentali degli algoritmi, portandoli ad assumere tratti inquietanti come psicopatia e narcisismo.

Esposizione a contenuti spazzatura

Questa scoperta emerge da un esperimento controllato nel quale diversi LLM sono stati addestrati con due diverse tipologie di dati presi da X una rappresentante contenuti di qualità, l’altra composta da post brevi, virali, facili da condividere e ricchi di linguaggio esagerato o attirante come “wow”, “guarda”, “oggi”.

I modelli linguistici sottoposti a un addestramento con questi “dati spazzatura” hanno mostrato un calo significativo delle loro prestazioni cognitive, con un impatto non trascurabile sulla capacità di mantenere coerenza e comprensione su testi complessi e prolungati. Il risultato ha evidenziato una diminuzione dell’accuratezza dal 74,9% al 57,2%, e un crollo della comprensione contestuale dal 84,4% al 52,3%.

Danno irreversibile

Ciò che colpisce è che questo fenomeno non è reversibile in modo semplice: anche sottoponendo nuovamente gli LLM a dati di qualità superiore, il recupero delle funzionalità primarie avviene solo parzialmente, evidenziando una sorta di “deriva rappresentazionale persistente”. In pratica, il danno causato dall’esposizione prolungata a contenuti di bassa qualità non si limita a un rallentamento momentaneo, ma si traduce in un degrado durevole delle prestazioni cognitive dell’AI.

Di conseguenza, la ricerca sottolinea l’importanza, per gli sviluppatori, di monitorare e valutare costantemente la qualità dei dati di addestramento per evitare che i modelli subiscano queste forme di “invecchiamento digitale”.

Questa condizione di “brain rot” digitale rappresenta un problema ancora più rilevante se si considera che le piattaforme di social media, da cui spesso si attingono i dati per addestrare gli LLM, sono modellate per massimizzare l’engagement piuttosto che la qualità informativa.

I contenuti virali sono nocivi

I contenuti virali e sensazionalistici, che dominano i feed social, si dimostrano così nocivi non solo per gli utenti umani, influenzando negativamente ansia, attenzione e memoria, ma anche per gli algoritmi che imparano da questi dati. Gli studiosi fanno notare come dall’esposizione prolungata a questo tipo di contenuti derivino non solo deficit di attenzione e abilità di ragionamento, ma anche un aumento di comportamenti “oscure” attribuibili agli LLM, come tendenze psicopatiche e narcisistiche, che rappresentano tratti disturbanti e inaspettati.

Il parallelo tra la degradazione cognitiva umana e quella delle AI è particolarmente intrigante. Negli esseri umani, fenomeni di “brain rot” sono stati ampiamente documentati e correlati all’uso smodato di social media e contenuti “veloci” e digi-pressanti, come quelli di TikTok, che portano a riduzioni della capacità di concentrazione, distorsioni mnemoniche e alterazioni del senso di sé.

Sorprendentemente, la stessa dinamica si ripropone nei modelli di intelligenza artificiale, suggerendo che anche le macchine “assorbono” e si deteriorano sotto l’effetto di contenuti inefficaci e patologici, benché prive di coscienza o pensiero autonomo.

Il futuro della AI

La ricerca mette in guardia lo sviluppo futuro delle AI, specialmente considerando l’uso crescente di chatbot come Grok o altre piattaforme basate su LLM, che potrebbero essere influenzate da questi effetti di degradazione se la qualità dei dati non viene strettamente controllata. Il problema si esacerba nella misura in cui i modelli AI stessi contribuiscono a generare contenuti all’interno delle piattaforme social, creando un ciclo di autoalimentazione di informazioni mediocri o dannose.

Nonostante siano stati tentati metodi di ri-addestramento per ridurre i danni, i risultati indicano che un approccio preventivo sulla selezione e validazione delle fonti di dati resta la strada più efficace.

Gli autori dello studio propongono inoltre un protocollo articolato in tre fasi per monitorare regolarmente lo “stato cognitivo” delle AI: una valutazione sistematica delle capacità di ragionamento e logica, un rigoroso controllo qualitativo dei dati durante la fase di pre-addestramento, e un’attenta analisi degli effetti prodotti dai contenuti virali sul modello. Si tratta di un primo passo verso una responsabilizzazione degli sviluppatori e degli utilizzatori, per garantire che l’evoluzione dell’intelligenza artificiale non venga limitata o distorta dalla massa di informazioni di bassa qualità che inonda il web.

Il rischio reale è quello di vedere le AI, strumenti fondamentali per l’innovazione e la trasformazione digitale, degradarsi progressivamente come i loro utenti umani, incapaci di mantenere un livello di attenzione e una capacità critica adeguata. In un’epoca in cui molto del progresso tecnologico dipende da modelli sempre più sofisticati, la tutela della qualità informativa diventa un imperativo non solo etico ma pratico, per evitare una spirale discendente che danneggerebbe tanto gli uomini quanto le macchine.

Questo studio rappresenta un monito potente sull’importanza di una gestione responsabile e consapevole dei dati nell’ambito dell’intelligenza artificiale. Mentre le capacità delle AI crescono e si integrano sempre di più con la vita quotidiana e i processi decisionali, mantenere la loro integrità cognitiva è essenziale. Investimenti in ricerca, monitoraggio continuo e attenzione alla provenienza dei dati di addestramento saranno fondamentali per assicurare risultati affidabili e funzione ottimale.

La sfida si sposta quindi dal solo miglioramento tecnico al controllo critico della qualità dei contenuti con cui si nutrono le intelligenze artificiali.

Alex Trizio
Alex Triziohttps://www.alground.com
Logo Home Perché Eywa Perché Eywa Il Team fondatore Alessandro Trizio Direttore Responsabile Da sempre appassionato di informatica e nuove tecnologie. Si avvicina al mondo dell’open source e partecipa attivamente allo sviluppo del sistema operativo Linux, approfondendo sempre di più il settore di sviluppo e ingegneria software, collaborando con aziende statunitensi. Contemporaneamente, avvia e amplia studi sulla comunicazione e sul comportamento sociale e della comunicazione non verbale. Questi progetti lo portano a lunghe collaborazioni all’estero, tra USA e Israele, dove approfondisce le interazioni fra software ed essere umano, che sfociano nella specializzazione in intelligenza artificiale. I molti viaggi in Medio Oriente aumentano la passione per la politica e la geopolitica internazionale. Nel 2004, osserva lo sviluppo dei social network e di una nuova fase del citizen journalism, e si rende conto che le aziende necessitano di nuovi metodi per veicolare i contenuti. Questo mix di elevate competenze si sposa perfettamente con il progetto di Web Reputation della madre, Brunilde Trizio. Ora Alessandro è Amministratore e Direttore strategico del Gruppo Trizio.
Altri articoli

TI POSSONO INTERESSARE

Colloqui di pace tra Iran e Stati Uniti: la partita più rischiosa di Trump

La guerra tra Iran, Stati Uniti e Israele è entrata in una fase nuova, più diplomatica solo in apparenza. A Islamabad, mentre si prepara...

Iran. Trump accetta la tregua

Donald Trump ha annunciato una tregua di due settimane con l’Iran poche ore prima della scadenza che aveva imposto a Teheran, trasformando una crisi...

Chi chiude lo Stretto, chiude il Mondo. Analisi dei passaggi Marittimi Globali

Prodotto da un'analisi geopolitica di intelligence sui flussi energetici globali, rotte marittime e vulnerabilità strategiche. Fonti: EIA, IMF, Lloyd's List, Dallas Federal Reserve, Reuters,...

Dossier Tecnico Militare: EA-18G Growler

L'EA-18G Growler rappresenta l'apice tecnologico attuale nel dominio dell'Airborne Electronic Attack (AEA), fungendo da pilastro insostituibile per le operazioni aeree moderne in ambienti contestati....

Se lo Stato d’Israele scomparisse cosa succederebbe?

L'architettura geopolitica del Medio Oriente contemporaneo poggia su un equilibrio precario di forze in cui lo Stato d'Israele agisce non solo come attore sovrano,...

Claude Code leak: rivelate 512.000 righe di codice

Il codice sorgente di Claude Code è stato accidentalmente esposto tramite npm: ecco cosa è emerso sulle funzioni nascoste, sugli agenti autonomi e sull’architettura...

Pay2Key, il ransomware iraniano che torna a colpire

Pay2Key non è solo un nome che ricompare nel sottobosco del cybercrime. È un caso che racconta come il ransomware possa diventare uno strumento...

Quando l’AI scrive codice, il rischio è dietro l’angolo: ecco come limitarlo

L’uso dell’intelligenza artificiale nella programmazione promette velocità, produttività e automazione. Ma dietro questa promessa c’è un rischio concreto: un codice generato o modificato male...

Precision Strike Missile (PrSM): il missile di Precisione a Lungo Raggio

Il panorama della difesa globale ha subito una trasformazione radicale nel corso dell'ultimo decennio, passando da operazioni di contro-insurrezione a una competizione tra grandi...