01 Aprile 2026
HomeCybersecurityClaude Code leak: rivelate 512.000 righe di codice

Claude Code leak: rivelate 512.000 righe di codice

Il codice sorgente di Claude Code è stato accidentalmente esposto tramite npm: ecco cosa è emerso sulle funzioni nascoste, sugli agenti autonomi e sull’architettura interna di Anthropic.

Il giro di valzer tra bug e sicurezza

All’alba del 31 marzo 2026 il mondo dell’AI assistita per lo sviluppo software si è svegliato con una notizia che suona più da thriller cyber che da semplice aggiornamento tecnico. Anthropic, il laboratorio dietro Claude, ha accidentalmente esposto il codice sorgente completo del tool Claude Code, il suo assistente di programmazione basato su modello linguistico, tramite un errore di packaging su npm, il registro ufficiale dei pacchetti Node.js. Secondo le ricostruzioni circolate nelle ore successive, il materiale trapelato comprende oltre 512.000 righe di codice TypeScript distribuite in circa 1.900 file, tutti provenienti dalla versione 2.1.88 del pacchetto @anthropic-ai/claude-code. Questo incidente non è solo un semplice errore di compilazione: è un punto di svolta che mette a nudo architetture, funzioni future e segreti interni di una delle piattaforme AI più osservate del momento.

Il problema sarebbe nato da una source map rimasta inclusa nel pacchetto, un file che di norma serve a collegare il codice minificato eseguito in produzione al sorgente originale leggibile dagli sviluppatori. In circostanze normali, questi file non vengono distribuiti pubblicamente proprio perché consentono di ricostruire il codice in modo quasi perfetto. In questo caso, però, quel file avrebbe puntato a un archivio ZIP ospitato su uno storage Cloudflare R2 di Anthropic, archivio che è stato scaricato e poi diffuso in tempi rapidissimi, fino a comparire in varie copie pubbliche online.

Il dato più importante per chi segue la vicenda da un punto di vista tecnico è che il leak non coinvolge pesi dei modelli né dati personali degli utenti. Il materiale trapelato riguarda quasi esclusivamente il codice lato client della CLI di Claude Code, cioè la parte che gira sulle macchine locali degli sviluppatori, non il cuore del modello di linguaggio o i database interni delle conversazioni. Resta però esposto un dettaglio imbarazzante: Anthropic aveva già affrontato un incidente simile nel 2025, quando altro codice interno era stato reso pubblico, e la ricomparsa dello stesso tipo di problema nel 2026 alimenta dubbi sulle procedure di rilascio del laboratorio.

Cosa c’è realmente dentro il codice trapelato

Una volta che il pacchetto è stato de-minificato e ricostruito, la comunità degli sviluppatori ha iniziato a scoprire strato dopo strato le funzioni nascoste. Il dettaglio più interessante è la presenza di 44 feature flag, cioè interruttori software che attivano o disattivano funzioni non ancora pubbliche. Questi flag non sembrano semplici abbozzi di idee, ma sistemi già implementati e soltanto tenuti nascosti al grande pubblico.

Tra le funzioni più citate figurano un’architettura multi-agente in cui un Claude principale orchestra più Claude secondari con toolset limitati, una struttura che ricorda da vicino i flussi di lavoro usati nei framework più avanzati di automazione. Altri flag lasciano intravedere agenti in esecuzione 24 ore su 24, 7 giorni su 7, collegati a webhook GitHub e capaci di eseguire azioni a orari predefiniti tramite cron, quasi come un sistema che resta attivo in background e interviene da solo quando viene attivato da certi eventi. C’è anche una modalità di controllo browser completo tramite Playwright, non solo il semplice recupero di pagine web, il che significa che Claude Code era stato progettato per interagire con il browser in modo molto più profondo di quanto comunicato ufficialmente.

Altre parti del codice rivelano una modalità vocale integrata, agenti in grado di “dormire” e poi riprendere il lavoro autonomamente, e una memoria persistente tra sessioni che non richiede necessariamente un backend esterno. Se attivate, queste funzioni trasformerebbero Claude Code da semplice assistente da riga di comando a un vero agente autonomo capace di pianificare, delegare compiti, monitorare repository e risvegliarsi per completare lavori iniziati giorni prima. In un solo errore di packaging, quindi, sono emersi molti dei meccanismi su cui Anthropic sta evidentemente costruendo il futuro dei suoi strumenti per sviluppatori.

La “pet” Tamagotchi e l’Undercover Mode

Oltre agli aspetti puramente tecnici, una parte del fascino del leak sta nei dettagli più curiosi emersi dalle stringhe e dai commenti interni trovati nel codice. Dalle ricostruzioni circolate online emerge una sorta di “pet” Tamagotchi collegato all’esperienza di Claude Code, un sottosistema che sembra simulare un compagno virtuale o un elemento di interazione più giocoso. Non è chiaro se questo elemento sia nato come scherzo interno o come prototipo di una relazione più umanizzata tra utente e AI, ma il fatto che compaia nel codice suggerisce che Anthropic stia esplorando interfacce molto più narrative rispetto ai tradizionali assistenti da terminale.

Ancora più ironico è il modulo chiamato Undercover Mode. Questo sistema è progettato per evitare che Claude Code, quando contribuisce a repository open source, riveli accidentalmente progetti interni, codici di modello o perfino il fatto stesso di essere un’intelligenza artificiale. Le istruzioni interne indicano che, in questa modalità, il sistema deve rimuovere ogni riferimento a nomi di modelli, versioni non rilasciate, progetti segreti e persino alla denominazione stessa del prodotto. In pratica, Anthropic aveva costruito un sistema sofisticato per nascondere la presenza dell’AI nel codice pubblico, ma l’intero meccanismo è finito in bella vista insieme al resto del sorgente.

Impatto competitivo e rischio reputazionale

Dal punto di vista industriale, questo leak è un regalo imbarazzante per i concorrenti di Anthropic. Sebbene il codice sia legato soprattutto alla CLI di Claude Code e non al modello di linguaggio in sé, fornisce una mappa dettagliata di come Anthropic sta costruendo agenti, sistemi di orchestrazione, pipeline di sicurezza e integrazioni con GitHub e altri servizi cloud. Chi sviluppa prodotti concorrenti può ora osservare da vicino scelte di architettura che normalmente richiederebbero mesi di reverse engineering.

Inoltre, alcune analisi tecniche hanno segnalato la presenza di meccanismi di controllo remoto, logiche di telemetria e sistemi di gestione delle impostazioni che mostrano quanto sia articolata la macchina interna di Claude Code. Questo significa che, oltre alla parte più visibile e utile del tool, è stata esposta anche la parte che regola monitoraggio, gestione delle funzioni e possibili interventi di emergenza. Per gli sviluppatori che usano strumenti di questo tipo, la vicenda è una finestra inattesa su ciò che davvero gira sulle loro macchine, con implicazioni concrete anche sul fronte della privacy e del controllo delle proprie pipeline di lavoro.

Una conseguenza già evidente è che il codice è stato rapidamente ricostruito o portato in altri linguaggi, in particolare in Python, per aggirare eventuali questioni di licenza e copyright legate al progetto originale. Nei forum e nei video tecnici pubblicati nelle ore successive, alcuni programmatori hanno mostrato come replicare concetti simili a quelli di Claude Code usando componenti open source, accelerando di fatto la nascita di alternative più aperte e meno dipendenti da stack proprietari.

Anthropic ha reagito rapidamente rimuovendo la versione incriminata del pacchetto, ma il danno in termini di reputazione e di esposizione tecnica era ormai fatto. L’azienda ha presentato l’incidente come un errore di rilascio e non come una violazione di sicurezza vera e propria, sottolineando che non sarebbero stati coinvolti dati sensibili dei clienti. Tuttavia, la ripetizione di un problema simile in meno di un anno mette sotto pressione la narrativa di un laboratorio sempre attento alla sicurezza e alla responsabilità.

Per la comunità sviluppatrice, l’episodio è allo stesso tempo un’opportunità e un avvertimento. Da un lato, avere accesso a un codice così complesso e avanzato permette di osservare da vicino pratiche di design, orchestrazione di agenti e integrazione dell’AI nei flussi di lavoro reali. Dall’altro, mostra quanto sia fragile il confine tra un prodotto sofisticato e una black box che può diventare fin troppo trasparente se i processi di rilascio non sono blindati. Questo leak potrebbe spingere molte aziende del settore a rivedere con più attenzione build, obfuscation e audit interni.

Cosa significa per il futuro dell’AI assistita allo sviluppo

Il leak di Claude Code arriva in un momento in cui il mercato degli AI coding assistant è già affollato da strumenti come GitHub Copilot, Cursor, Windsurf e altri agenti autonomi che promettono di automatizzare parte del lavoro dei programmatori. Con questo incidente, Anthropic ha probabilmente regalato a concorrenti e community open source una sorta di blueprint delle sue strategie più avanzate, accelerando la corsa verso strumenti più autonomi, persistenti e integrati nei workflow degli sviluppatori.

Per chi scrive codice, il messaggio è duplice: da un lato, la trasparenza involontaria offre una rara occasione per capire come sia costruito uno strumento di fascia alta; dall’altro, ricorda che affidarsi a un tool proprietario non significa avere una scatola sicura, ma solo una scatola che, se gestita male, può aprirsi nel momento meno opportuno. In un settore in cui la differenza tra vincitori e inseguitori si misura spesso in architetture, ottimizzazioni e capacità di integrazione, un leak di questa portata modifica la partita in modo profondo. Non sarà probabilmente l’ultimo caso in cui un errore di packaging trasforma un rilascio tecnico in una lezione globale di cybersecurity e di trasparenza indesiderata.

Alex Trizio
Alex Triziohttps://www.alground.com
Logo Home Perché Eywa Perché Eywa Il Team fondatore Alessandro Trizio Direttore Responsabile Da sempre appassionato di informatica e nuove tecnologie. Si avvicina al mondo dell’open source e partecipa attivamente allo sviluppo del sistema operativo Linux, approfondendo sempre di più il settore di sviluppo e ingegneria software, collaborando con aziende statunitensi. Contemporaneamente, avvia e amplia studi sulla comunicazione e sul comportamento sociale e della comunicazione non verbale. Questi progetti lo portano a lunghe collaborazioni all’estero, tra USA e Israele, dove approfondisce le interazioni fra software ed essere umano, che sfociano nella specializzazione in intelligenza artificiale. I molti viaggi in Medio Oriente aumentano la passione per la politica e la geopolitica internazionale. Nel 2004, osserva lo sviluppo dei social network e di una nuova fase del citizen journalism, e si rende conto che le aziende necessitano di nuovi metodi per veicolare i contenuti. Questo mix di elevate competenze si sposa perfettamente con il progetto di Web Reputation della madre, Brunilde Trizio. Ora Alessandro è Amministratore e Direttore strategico del Gruppo Trizio.
Altri articoli

TI POSSONO INTERESSARE

Pay2Key, il ransomware iraniano che torna a colpire

Pay2Key non è solo un nome che ricompare nel sottobosco del cybercrime. È un caso che racconta come il ransomware possa diventare uno strumento...

Quando l’AI scrive codice, il rischio è dietro l’angolo: ecco come limitarlo

L’uso dell’intelligenza artificiale nella programmazione promette velocità, produttività e automazione. Ma dietro questa promessa c’è un rischio concreto: un codice generato o modificato male...

Precision Strike Missile (PrSM): il missile di Precisione a Lungo Raggio

Il panorama della difesa globale ha subito una trasformazione radicale nel corso dell'ultimo decennio, passando da operazioni di contro-insurrezione a una competizione tra grandi...

Il Pentagono accelera su THAAD: la corsa per blindare il cuore dello scudo antimissile

Il Pentagono ha firmato un nuovo accordo con BAE Systems e Lockheed Martin per quadruplicare la produzione dei sensori di guida del sistema THAAD,...

L’ornitorinco di Tokyo: EC-2 Stand-Off Electronic Warfare Aircraft arma invisibile nella guerra elettronica

Il 17 marzo 2026, da una pista della base aerea di Gifu, in Giappone, un aereo dall'aspetto improbabile ha preso quota per la prima...

Opzione militare terrestre USA contro l’Iran: dossier operativo-tattico

A marzo 2026 il dispositivo militare statunitense nel Golfo Persico e nel teatro mediorientale ha completato l'accumulo delle forze necessarie per condurre operazioni di...

Referendum giustizia 2026: schiaffo politico al governo Meloni​

Il referendum costituzionale sulla giustizia del 22-23 marzo 2026 si avvia alla vittoria del No, con un’affluenza molto alta (circa il 59%), trasformandosi in...

Il Golfo sotto ricatto: l’ultimatum di Trump all’Iran

La guerra tra Stati Uniti, Israele e Iran è entrata in una fase in cui il campo di battaglia non è più solo il...

Umberto Bossi, l’addio al “senatur” nell’abbazia del “giuramento”

Nell’abbazia di San Giacomo a Pontida, nel cuore simbolico della Lega e della sua mitologia politica, si celebra l’ultimo saluto a Umberto Bossi, il...