02 Febbraio 2026
Home Blog Pagina 36

Adversarial AI. Cos’è e come agisce

L’adversarial machine learning è lo studio degli attacchi agli algoritmi di machine learning e delle difese contro tali attacchi.

Per capire cos’è l’Adversarial AI, è importante notare che la maggior parte delle tecniche di apprendimento automatico sono progettate principalmente per funzionare su set di problemi specifici, assumendo che i dati di addestramento e di test siano generati dalla stessa distribuzione statistica (IID). Tuttavia, questo presupposto viene spesso pericolosamente violato nelle applicazioni pratiche ad alto rischio, in cui gli utenti possono intenzionalmente fornire dati che violano il presupposto statistico.

Alcuni degli attacchi più comuni nell’apprendimento automatico adversarial includono attacchi di evasione, attacchi di avvelenamento dei dati, attacchi bizantini ed estrazione di modelli.

Primi passi dell’Adversarial Ai

Nel 2004, Nilesh Dalvi e altri hanno notato che i classificatori lineari utilizzati nei filtri antispam potevano essere elusi da semplici “attacchi di evasione”, in quanto gli spammer inserivano “parole autorizzate” nelle loro e-mail di spam. Nel 2006, Marco Barreno e altri hanno pubblicato “Can Machine Learning Be Secure?”, in cui delineavano una vasta tassonomia di attacchi. Nel 2012, le reti neurali profonde hanno iniziato a dominare i problemi di visione artificiale, ma nel 2014 è stato dimostrato che anche le reti neurali profonde potevano essere ingannate dagli avversari utilizzando attacchi basati sul gradiente per creare perturbazioni avverse.

Recentemente, è stato osservato che gli attacchi contraddittori sono più difficili da produrre nel mondo reale a causa dei diversi vincoli ambientali che annullano l’effetto. Ad esempio, anche una piccola rotazione o una leggera variazione nell’illuminazione di un’immagine può rendere inefficace l’attacco. Alcuni ricercatori ritengono che sia più facile far mancare i segnali di stop alle auto a guida autonoma fisicamente, anziché creare esempi contraddittori. Suggeriscono che sia necessario esplorare un nuovo approccio all’apprendimento automatico, lavorando su reti neurali con caratteristiche più simili alla percezione umana.

Sebbene l’adversarial machine learning sia ancora ampiamente radicato nel mondo accademico, importanti aziende tecnologiche come Google, Microsoft e IBM hanno iniziato a fornire documentazione e basi di codice open source per consentire ad altri di valutare concretamente la solidità dei modelli di machine learning e ridurre al minimo il rischio di attacchi.

Esempi di uso

Gli esempi includono attacchi al filtro antispam, in cui i messaggi spam vengono offuscati attraverso l’ortografia errata di parole “cattive” o l’inserimento di parole “buone”. Attacchi alla sicurezza informatica, come l’offuscamento del codice malware all’interno dei pacchetti di rete o la modifica delle caratteristiche di un flusso di rete per ingannare la rilevazione delle intrusioni, attacchi al riconoscimento biometrico, in cui falsi tratti biometrici possono essere utilizzati per impersonare un utente legittimo o compromettere i modelli di riconoscimento biometrico degli utenti.

I ricercatori hanno dimostrato che modificando anche solo un singolo pixel era possibile ingannare gli algoritmi di deep learning. Altri esperimenti hanno coinvolto la stampa 3D di una tartaruga giocattolo con una texture progettata per farla classificare come un fucile dagli algoritmi di rilevamento degli oggetti di Google, indipendentemente dall’angolazione da cui veniva osservata la tartaruga. La creazione di tale tartaruga richiedeva solo una stampante 3D economica disponibile in commercio.

È stato dimostrato che un’immagine di un cane “ottimizzata” dall’algoritmo può sembrare un gatto sia per i computer che per gli esseri umani. Uno studio del 2019 ha rilevato che le persone possono indovinare come le macchine classificheranno le immagini contraddittorie. I ricercatori hanno scoperto metodi per confondere l’aspetto di un segnale di stop in modo che un veicolo autonomo lo classifichi come un segnale di limite di velocità.

Un attacco contro il sistema Mobileye di Tesla ha indotto l’auto a guidare a 80 Km orari oltre il limite di velocità, semplicemente aggiungendo una striscia di nastro nero da due pollici a un segnale di limite di velocità. Modelli contraddittori su occhiali o abbigliamento progettati per ingannare i sistemi di riconoscimento facciale o i lettori di targhe hanno portato all’emergere di un’industria di “stealth streetwear”.

Un attacco su una rete neurale può consentire a un utente malintenzionato di iniettare algoritmi nel sistema di destinazione. I ricercatori possono anche creare input audio contraddittori per mascherare comandi agli assistenti intelligenti in un audio apparentemente innocuo, esiste una ricerca parallela sull’impatto di tali stimoli sulla percezione umana.

Gli algoritmi di clustering sono utilizzati nelle applicazioni di sicurezza per analizzare malware e virus informatici, al fine di identificare le famiglie di malware e generare firme di rilevamento specifiche.

Modalità di attacco con l’Adversarial Ai

Tassonomia

Gli attacchi contro gli algoritmi di apprendimento automatico supervisionato possono essere classificati lungo tre assi principali: influenza sul classificatore, violazione della sicurezza e specificità.

L’influenza sul classificatore si riferisce alla capacità di un attacco di interrompere la fase di classificazione del modello. Prima di eseguire l’attacco, potrebbe essere necessaria una fase di esplorazione per identificare le vulnerabilità del sistema. Tuttavia, l’aggressore potrebbe essere limitato da vincoli che impediscono la manipolazione completa dei dati.

La violazione della sicurezza si verifica quando un attacco introduce dati dannosi che vengono erroneamente classificati come legittimi. Ad esempio, durante la fase di addestramento, l’introduzione di dati dannosi può portare al rifiuto di dati legittimi dopo l’addestramento.

La specificità di un attacco indica se l’obiettivo dell’attaccante è una specifica intrusione o interruzione del sistema, oppure se si mira a creare un caos generale senza un obiettivo specifico.

Questa tassonomia è stata estesa in un modello di minaccia più completo che considera l’obiettivo dell’avversario, la conoscenza del sistema attaccato, la capacità di manipolare i dati di input o i componenti del sistema e la strategia di attacco.

Inoltre, questa tassonomia è stata ulteriormente sviluppata per includere le dimensioni delle strategie di difesa contro gli attacchi avversari.

Avvelenamento dei dati

L’avvelenamento da dati si riferisce all’atto di contaminare intenzionalmente il set di dati di addestramento con dati dannosi o manipolati al fine di compromettere le prestazioni degli algoritmi di apprendimento automatico. Poiché gli algoritmi di apprendimento si basano sui dati di addestramento per creare i loro modelli, l’avvelenamento può influenzare in modo significativo il comportamento degli algoritmi e potenzialmente riprogrammarli con intenti dannosi.

Ci sono preoccupazioni particolari riguardo ai dati di addestramento generati dagli utenti, ad esempio nei sistemi di raccomandazione di contenuti o nei modelli di linguaggio naturale. L’ampia presenza di account falsi sui social media offre molte opportunità per l’avvelenamento dei dati. Ad esempio, Facebook ha comunicato che rimuove circa 7 miliardi di account falsi ogni anno. L’avvelenamento dei dati è stato identificato come una delle principali preoccupazioni nelle applicazioni industriali.

Nel contesto dei social media, le campagne di disinformazione mirano a influenzare gli algoritmi di raccomandazione e moderazione per favorire determinati contenuti rispetto ad altri.

Un caso particolare di avvelenamento dei dati è rappresentato dall’attacco backdoor, che mira ad addestrare un algoritmo in modo che mostri un comportamento specifico solo quando si presenta un determinato trigger, come un piccolo difetto in immagini, suoni, video o testi.

Ad esempio, nei sistemi di rilevamento delle intrusioni, che vengono spesso addestrati utilizzando dati raccolti, un utente malintenzionato può avvelenare i dati inserendo campioni dannosi durante l’operazione che successivamente interrompono il processo di riaddestramento degli algoritmi.

Attacchi bizantini

Negli scenari in cui l’apprendimento automatico viene distribuito su più computer, come nel caso dell’apprendimento collaborativo, i dispositivi perimetrali collaborano inviando gradienti o parametri del modello a un server centrale. Tuttavia, alcuni di questi dispositivi possono deviare dal comportamento previsto e agire in modo malevolo al fine di danneggiare il modello del server centrale o influenzare gli algoritmi verso comportamenti indesiderati, come l’amplificazione di contenuti disinformativi.

D’altro canto, se l’addestramento viene eseguito su una singola macchina, questa diventa un punto di vulnerabilità critico in caso di guasto o attacco. In effetti, il proprietario della macchina potrebbe anche inserire un backdoor che è difficilmente rilevabile.

Attualmente, le soluzioni principali per rendere gli algoritmi di apprendimento (distribuiti) resilienti contro una minoranza di partecipanti malevoli, noti come partecipanti bizantini, si basano su robuste regole di aggregazione del gradiente. Tuttavia, queste regole di aggregazione non sempre funzionano, specialmente quando i dati tra i partecipanti non hanno una distribuzione indipendente e identicamente distribuita. Inoltre, nel contesto di partecipanti onesti ma eterogenei, come utenti con diverse abitudini di consumo per gli algoritmi di raccomandazione o stili di scrittura per i modelli linguistici, esistono teoremi di impossibilità dimostrabili che stabiliscono limiti su ciò che qualsiasi algoritmo di apprendimento può garantire.

Evasione

Gli attacchi di evasione consistono nell’utilizzare le imperfezioni di un modello addestrato per eludere il suo funzionamento. Ad esempio, gli spammer e gli hacker spesso cercano di eludere i sistemi di rilevamento offuscando il contenuto delle e-mail di spam e del malware. Vengono apportate modifiche ai campioni in modo che vengano classificati come legittimi, senza influenzare i dati di addestramento. Un esempio chiaro di evasione è lo spam basato su immagini, in cui il contenuto dello spam è incorporato in un’immagine allegata per evitare l’analisi testuale da parte dei filtri antispam. Un altro esempio di evasione è rappresentato dagli attacchi di spoofing ai sistemi di verifica biometrica.

Gli attacchi di evasione possono essere generalmente suddivisi in due categorie: attacchi scatola nera e attacchi scatola bianca (black box e white box in inglese, nome usato più comunemente). Gli attacchi scatola nera si basano solo sull’output del modello senza avere conoscenza interna sul suo funzionamento interno. Gli attacchi scatola bianca, invece, presuppongono una conoscenza completa del modello, inclusi i suoi parametri interni e le sue strutture.

Estrazione del modello

L’estrazione del modello si riferisce all’azione in cui un avversario sonda un sistema di apprendimento automatico a scatola nera per ottenere informazioni sui dati su cui è stato addestrato il modello. Questo può diventare problematico quando i dati di addestramento o il modello stesso sono sensibili e riservati. Ad esempio, l’estrazione del modello potrebbe essere utilizzata per ottenere un modello di trading azionario proprietario che l’avversario potrebbe successivamente utilizzare a proprio vantaggio finanziario.

In casi estremi, l’estrazione del modello può portare al cosiddetto “model stealing” (rubare il modello), che comporta l’estrazione di una quantità sufficiente di dati dal modello per consentire la sua completa ricostruzione.

D’altra parte, l’inferenza dell’appartenenza è un attacco mirato di estrazione del modello che tenta di dedurre il proprietario di un punto dati, spesso sfruttando l’overfitting causato da pratiche di machine learning non corrette. Questo attacco può essere realizzato anche senza la conoscenza o l’accesso ai parametri del modello target, sollevando preoccupazioni sulla sicurezza dei modelli addestrati su dati sensibili, come ad esempio le cartelle cliniche o le informazioni personali identificabili. Con l’aumento del transfer learning e dell’accessibilità pubblica di molti modelli di machine learning all’avanguardia, le aziende tecnologiche sono sempre più interessate a creare modelli basati su quelli pubblici, fornendo agli aggressori informazioni liberamente accessibili sulla struttura e il tipo di modello utilizzato.

Apprendimento per rinforzo profondo contraddittorio

L’apprendimento per rinforzo profondo contraddittorio è un’area di ricerca attiva nell’ambito dell’apprendimento per rinforzo che si concentra sulle vulnerabilità delle politiche apprese. Studi iniziali hanno dimostrato che le politiche apprese nell’apprendimento per rinforzo possono essere soggette a manipolazioni contraddittorie impercettibili. Nonostante siano stati proposti alcuni metodi per affrontare queste vulnerabilità, ricerche più recenti hanno evidenziato che le soluzioni proposte sono lontane dall’offrire una rappresentazione accurata delle attuali vulnerabilità delle politiche di apprendimento profondo per rinforzo. La ricerca in questo campo è in corso per comprendere meglio e affrontare le sfide legate alle vulnerabilità delle politiche apprese nell’apprendimento per rinforzo profondo.

Difese all’Adversarial Ai

I ricercatori hanno proposto un approccio in più fasi per proteggere l’apprendimento automatico dalle minacce avverse. Questo approccio comprende i seguenti passaggi:

  1. Modellazione delle minacce: consiste nel formalizzare gli obiettivi e le capacità degli aggressori rispetto al sistema bersaglio. Si tratta di identificare e comprendere le possibili minacce che potrebbero essere rivolte al sistema di apprendimento automatico.
  2. Simulazione di attacco: in questa fase si formalizza il problema di ottimizzazione che l’aggressore cerca di risolvere, considerando le possibili strategie di attacco che potrebbero essere adottate. Questo aiuta a valutare la robustezza del sistema di apprendimento automatico rispetto a diverse minacce.
  3. Valutazione dell’impatto dell’attacco: si analizza l’impatto che un attacco potrebbe avere sul sistema di apprendimento automatico, valutando le possibili conseguenze in termini di prestazioni e affidabilità.
  4. Progettazione di contromisure: in questa fase si sviluppano strategie e tecniche di difesa per mitigare le minacce identificate. Queste contromisure possono includere l’implementazione di algoritmi di apprendimento, la verifica dell’integrità dei dati di addestramento, la rilevazione degli attacchi e altre tecniche di sicurezza.
  5. Rilevamento del rumore (per attacchi basati sull’evasione): quando si affrontano attacchi di evasione, è possibile utilizzare metodi di rilevamento del rumore per identificare le modifiche apportate ai dati di input al fine di eludere il sistema di apprendimento automatico.
  6. Riciclaggio di informazioni (per attacchi di furto di modelli): quando si affrontano attacchi di furto di modelli, si possono adottare strategie per alterare le informazioni ricevute dagli avversari, in modo che non siano in grado di ottenere una replica esatta del modello originale.

Questo approccio in più fasi mira a migliorare la sicurezza e la robustezza del sistema di apprendimento automatico contro le minacce avverse.

Regno Unito. Stop alle telecamere di sorveglianza cinesi

Il governo del Regno Unito fisserà una scadenza per la rimozione delle telecamere di sorveglianza made in China dai “siti sensibili”.

La notizia della scadenza non molto imminente è arrivata con la pubblicazione degli emendamenti proposti al Procurement Bill – legislazione che riformerà molti aspetti delle pratiche del governo britannico per l’acquisto di beni.

Gli emendamenti proposti includono una clausola che richiede la “rimozione dalla catena di approvvigionamento di apparecchiature di sorveglianza fisica prodotte da società soggette alla legge sull’intelligence nazionale della Repubblica popolare cinese”.

Entro sei mesi dall’approvazione del disegno di legge il Segretario di Stato britannico è tenuto a informare il Parlamento di una tempistica per la rimozione del kit incriminato.

Gli emendamenti proposti al disegno di legge includono l’istituzione di una “Unità di sicurezza nazionale per gli appalti”. Con sede presso l’Ufficio di Gabinetto che “indagherà sui fornitori che potrebbero rappresentare un rischio per la sicurezza nazionale e valuterà se le aziende debbano essere escluse dagli appalti pubblici”.

L’ annuncio del Gabinetto dice: “Il team di specialisti lavorerà attraverso il governo, anche collaborando strettamente con le nostre agenzie di intelligence”.

L’unità esaminerà in modo proattivo il panorama dei fornitori “e raccomanderà ai ministri quali fornitori dovrebbero essere indagati per l’esclusione”. Se un ministro raccomanda l’interdizione, i relativi fornitori verranno inseriti in una lista che indica che non devono essere presi in considerazione per alcuni contratti governativi.

Tale processo è delineato in un secondo provvedimento aggiunto al disegno di legge, che creerebbe “Nuovi poteri per interdire i fornitori di settori specifici, come le aree relative alla difesa e alla sicurezza nazionale, consentendo loro di continuare ad aggiudicarsi appalti in aree non sensibili. “

Altri elementi del disegno di legge che probabilmente manterranno occupati i tecnici del governo includono la pubblicazione dei dati sugli appalti pubblici e “un nuovo quadro di esclusione che renderà più facile escludere i fornitori che hanno sottoperformato su altri contratti”.

Le agenzie governative saranno inoltre tenute a pagare gli appaltatori di piccole imprese entro 30 giorni.

È probabile che il programma di rimozione della tecnologia di sorveglianza comporti la rimozione del kit dai produttori cinesi di telecamere a circuito chiuso come Hikvision e Dahua. Gli Stati Uniti e l’Australia hanno già ordinato la rimozione delle camme prodotte in Cina.

Diga di Nova Kakhovka distrutta, allagamenti e danni ambientali

Migliaia di persone sono state costrette a fuggire dalle proprie case e un disastro ecologico è stato scatenato nel sud dell’Ucraina dal crollo di una grande diga idroelettrica sul fiume Dnipro, che secondo Kyiv è stata fatta saltare in aria dalla Russia nel tentativo disperato di respingere un’offensiva ucraina.

Il presidente ucraino, Volodymyr Zelenskiy, ha dichiarato la distruzione della diga di Nova Kakhovka come un atto di terrorismo e il “più grande disastro ambientale di origine umana in Europa degli ultimi decenni“.

Ha accusato le forze di occupazione russe, che controllano la diga e la città adiacente dall’invasione su larga scala dello scorso anno. “È fisicamente impossibile farla esplodere dall’esterno, con bombardamenti. È stata minata dagli occupanti russi. E l’hanno fatta esplodere”, ha dichiarato Zelenskiy su Twitter.

Le riprese aeree hanno mostrato che la diga mancava di una vasta sezione centrale con il serbatoio dietro di essa, che era al livello record, che si riversava sopra di essa e proseguiva impetuoso a valle. Le città lungo il suo percorso sono state allagate, case complete potevano essere viste galleggiare nelle acque, mentre innumerevoli animali domestici e selvatici si affannavano per sopravvivere.

Il governatore della regione di Kherson, Oleksandr Prokudin, ha affermato che circa 16.000 persone si trovavano nella “zona critica” sulla riva destra controllata dall’Ucraina del fiume. Ha detto che le persone venivano evacuate dai distretti a monte della città di Kherson e sarebbero state portate in autobus alla città e poi in treno a Mykolaiv e ad altre città ucraine, tra cui Khmelnytskyi, Odesa, Kropyvnytskyi e Kyiv.

Il disastro avrà effetti dannosi che potrebbero durare per generazioni, dalla potenziale perdita immediata di vite umane alle migliaia di persone costrette ad abbandonare le proprie case e le proprie terre. Si prevede che avrà un impatto catastrofico sull’ecologia della regione e spazzerà via le mine dalle sponde del Dnipro verso i villaggi e le terre agricole a valle.

Inoltre, l’Ucraina perde la capacità a lungo termine di generare energia idroelettrica. La perdita del serbatoio a monte minaccia le forniture d’acqua alle regioni di Kherson e Zaporizhzhia e alla Crimea e ha implicazioni a lungo termine per la centrale nucleare di Zaporizhzhia, situata a 120 miglia (200 km) a monte.

Il crollo della diga è avvenuto il secondo giorno delle operazioni offensive ucraine, che segnano probabilmente le prime fasi di una massiccia controffensiva. Potrebbe influire su eventuali piani ucraini per un assalto anfibio attraverso il fiume.

Lo scopo è evidente: creare ostacoli insormontabili sul cammino dell’avanzata dell’esercito ucraino… per rallentare la conclusione equa della guerra“, ha dichiarato su Twitter il consigliere presidenziale ucraino Mykhailo Podolyak. “In una vasta area, tutta la vita sarà distrutta; molti insediamenti saranno rovinati; si arrecheranno danni colossali all’ambiente“.

La società ucraina dell’energia idroelettrica ha dichiarato che la diga è stata distrutta da una bomba posizionata in una delle sale delle turbine che si trovavano sulla sua sommità.

Le autorità locali russe nella città di Nova Kakhovka inizialmente hanno negato che qualcosa fosse successo alla diga, poi hanno attribuito il crollo ai bombardamenti ucraini. L’agenzia di stampa Interfax ha citato un ufficiale non identificato dei servizi di emergenza di Kherson affermando che il crollo era dovuto a una debolezza strutturale causata dalla pressione dell’acqua.

Zelenskiy ha convocato una riunione di emergenza del suo consiglio di sicurezza nazionale martedì. “Terroristi russi”, ha dichiarato Zelenskiy su Twitter. “La distruzione della diga della centrale idroelettrica di Kakhovka conferma a tutto il mondo che devono essere cacciati da ogni angolo della terra ucraina.

Non deve essere lasciato loro nemmeno un metro, perché usano ogni metro per il terrorismo. Solo la vittoria dell’Ucraina riporterà la sicurezza. E questa vittoria arriverà. I terroristi non riusciranno a fermare l’Ucraina con l’acqua, i missili o qualsiasi altra cosa“.

Vladimir Leontiev, capo dell’amministrazione russa occupata della città di Nova Kakhovka, sulla sponda meridionale del Dnipro, inizialmente ha negato che la diga fosse stata fatta esplodere, secondo l’agenzia di stampa Ria Novosti, ma successivamente si è detto che ha confermato i “danni” e li ha attribuiti ai bombardamenti.

Interfax ha citato un rappresentante non identificato dei servizi di emergenza regionali affermando che il crollo è stato il risultato di un catastrofico cedimento strutturale. “La diga non ha retto: un sostegno è crollato e sono iniziate le inondazioni”, ha detto il rappresentante, aggiungendo che non ci sono state attacchi alla centrale idroelettrica durante la notte.

Il mese scorso, è stato riportato che i livelli d’acqua nel serbatoio avevano raggiunto un livello massimo degli ultimi 30 anni poiché gli occupanti russi avevano mantenuto aperte relativamente poche chiuse, secondo gli esperti.

Ungheria. Video sulla pace con la Crimea in territorio ucraino

Il governo ungherese ha pubblicato un video per promuovere una soluzione pacifica in Ucraina, ma ha suscitato polemiche perché la mappa mostrava la Crimea come parte dell’Ucraina. In precedenza, il governo ungherese aveva pubblicato un video simile, ma con la Crimea al di fuori del territorio ucraino. Il ministero degli Esteri ucraino aveva chiesto che l’Ungheria modificasse la mappa.

Nella nuova versione del video, pubblicata sulla pagina del governo ungherese su Facebook, la Crimea è stata segnata in rosso come parte del territorio ucraino.

Questa azione del governo ungherese ha suscitato dibattiti e polemiche, poiché la Crimea è stata annessa dalla Russia nel 2014, ma l’Ucraina e la maggior parte della comunità internazionale considerano ancora la Crimea come parte del territorio ucraino.

La questione della Crimea è un tema molto delicato e controverso, e l’inclusione della Crimea nella mappa del video da parte del governo ungherese potrebbe avere conseguenze politiche e diplomatiche significative. L’Ucraina e molti altri paesi considerano l’annessione della Crimea da parte della Russia come una violazione del diritto internazionale e non riconoscono l’annessione come legittima.

Questo gesto dell’Ungheria potrebbe avere implicazioni per le relazioni tra l’Ucraina e l’Ungheria, nonché per le dinamiche geopolitiche più ampie nella regione.

Cina agli Usa: no a interferenze su Taiwan

Il ministro della Difesa cinese, Li Shangfu, ha messo in guardia gli Stati Uniti contro ogni possibile interferenza riguardo la questione di Taiwan. Questa dichiarazione è stata fatta durante il suo discorso allo Shangri-La Dialogue a Singapore, una conferenza organizzata dall’International Institute for Strategic Studies.

Li ha affermato che qualunque tentativo di separare Taiwan dalla Cina verrà contrastato risolutamente dal potere militare cinese. Ha sottolineato che la Cina non avrà timore di confrontarsi con gli avversari per difendere la sovranità nazionale e l’integrità del suo territorio, indipendentemente dal costo.

Ha criticato la vendita di armi e l’addestramento militare degli Stati Uniti a Taiwan, così come l’approfondimento delle relazioni tra Washington e Taipei. Secondo Li, la questione di Taiwan è un affare interno della Cina e la decisione su come gestirla spetta unicamente ai cinesi. Ha ribadito che la riunificazione della Cina è un corso inarrestabile e una tendenza storica prevalente, e che si impegneranno per una riunificazione pacifica.

Tuttavia, ha messo in guardia che non rinunceranno all’uso della forza se qualcuno dovesse osare a separare Taiwan dalla Cina. Li ha descritto le attuali relazioni tra Pechino e Washington come le più basse da quando i rapporti tra i due paesi sono iniziati nel 1979.

Sebbene la Cina sia aperta al dialogo con gli Stati Uniti, ha rifiutato un incontro con il segretario alla Difesa americano Lloyd Austin in margine alla conferenza, sottolineando che qualsiasi discussione dovrebbe essere basata sul rispetto reciproco. Le relazioni tra Cina e Stati Uniti sono ulteriormente peggiorate a seguito dell’abbattimento di un apparente pallone di spionaggio cinese a febbraio e la cancellazione di una visita del segretario di Stato americano Antony Blinken in Cina.

Intelligenza Artificiale. Cosa vuol dire GPT

I trasformatori generativi pre-addestrati, conosciuti come GPT, sono modelli di linguaggio di grandi dimensioni che rappresentano un importante sviluppo nell’intelligenza artificiale generativa. Nel 2018, l’organizzazione americana di intelligenza artificiale OpenAI ha introdotto il primo GPT. Questi modelli, basati su reti neurali artificiali con un’architettura chiamata “trasformatore”, vengono pre-addestrati su vasti set di dati di testo non etichettato. Questo addestramento permette loro di generare nuovi contenuti che somigliano a quelli prodotti dagli esseri umani.

A partire dal 2023, la maggior parte dei modelli di linguaggio di grandi dimensioni presenta queste caratteristiche avanzate e sono spesso indicati con il termine generico “GPT”. OpenAI ha rilasciato diversi modelli GPT di base che hanno avuto un notevole impatto. Questi modelli sono stati numerati in sequenza, ad esempio “GPT-3” e “GPT-4”, e ciascuno di essi è stato più potente del precedente grazie all’aumento delle dimensioni e dell’addestramento.

Questi modelli GPT sono diventati la base per la creazione di sistemi GPT più specifici per diverse attività. Ad esempio, sono stati sviluppati modelli ottimizzati per seguire istruzioni e alimentare servizi di chatbot come ChatGPT. Inoltre, altre organizzazioni hanno sviluppato i loro modelli GPT basati su questa tecnologia. EleutherAI ha creato una serie di modelli ispirati al GPT-3, mentre Cerebras ha recentemente sviluppato una serie di sette modelli.

Inoltre, molte aziende di diversi settori hanno adattato i modelli GPT alle loro specifiche esigenze. Salesforce ha creato “EinsteinGPT” per il CRM, mentre Bloomberg ha sviluppato “BloombergGPT” per il settore finanziario. Questi modelli specifici per attività permettono alle aziende di sfruttare le capacità dei trasformatori generativi pre-addestrati nel loro campo di competenza.

In sintesi, i modelli GPT sono una potente tecnologia di intelligenza artificiale che utilizza reti neurali per generare contenuti linguistici. Grazie al loro addestramento su grandi quantità di dati di testo, possono creare testi che sembrano essere stati scritti da esseri umani. Questi modelli sono diventati un punto di riferimento nel campo dell’intelligenza artificiale generativa e sono stati adattati a diverse attività e settori, offrendo nuove opportunità e possibilità in vari campi.

L’evoluzione del pretraining generativo

In precedenza, il pretraining generativo (GP) era un concetto consolidato nelle applicazioni di apprendimento automatico. Tuttavia, l’architettura del trasformatore, che è alla base dei moderni modelli di linguaggio di grandi dimensioni, non era disponibile fino al 2017, quando è stata inventata da un dipendente di Google. Questo sviluppo ha aperto la strada a modelli come BERT nel 2018 e XLNet nel 2019, che erano trasformatori preaddestrati (PT), ma non erano progettati per essere generativi (erano “solo encoder”).

Nel 2018, OpenAI ha introdotto il primo sistema di trasformatore generativo preaddestrato (GPT) con il suo articolo intitolato “Migliorare la comprensione del linguaggio grazie al pre-addestramento generativo”. Prima dell’introduzione degli approcci basati sui trasformatori, i modelli di elaborazione del linguaggio naturale (NLP) neurali con le migliori prestazioni facevano ampio uso dell’apprendimento supervisionato su grandi quantità di dati etichettati manualmente. Tuttavia, questa dipendenza dall’apprendimento supervisionato limitava l’utilizzo di tali modelli su set di dati non ben annotati e richiedeva anche un addestramento estremamente costoso in termini di tempo per modelli linguistici di grandi dimensioni.

OpenAI ha adottato un approccio semi-supervisionato per realizzare un sistema generativo su larga scala, che è stato il primo a utilizzare un modello di trasformatore. Questo approccio comprendeva due fasi: una fase di “pretraining” generativa non supervisionata per impostare i parametri iniziali utilizzando l’obiettivo di modellazione del linguaggio e una fase di “regolazione fine” discriminativa supervisionata per adattare tali parametri a una specifica attività di destinazione. Questo approccio ha permesso di sfruttare al meglio i vantaggi del pretraining generativo e dell’adattamento supervisionato per creare modelli linguistici potenti e scalabili.

Altri modelli GPT simili

Altri modelli di questo tipo includono PaLM di Google, che è un ampio modello di base che è stato paragonato a GPT-3. È stato reso recentemente disponibile agli sviluppatori attraverso un’API. Inoltre, c’è GPT-JT di Together, che è considerato l’alternativa open source con prestazioni più simili a GPT-3 ed è derivato dai precedenti modelli GPT open source. Meta AI, precedentemente conosciuta come Facebook, ha sviluppato un modello di linguaggio di grandi dimensioni basato sul trasformatore generativo chiamato LLaMA.

I modelli GPT di base possono anche essere utilizzati con modalità diverse rispetto al solo testo, sia per l’input che per l’output. Ad esempio, GPT-4 è un modello di linguaggio di grandi dimensioni multimodale in grado di elaborare sia input di testo che immagini, anche se il suo output è limitato al testo. Inoltre, ci sono modelli basati su trasformatori generativi che vengono utilizzati per tecnologie di conversione testo-immagine come la diffusione e la decodifica parallela. Questi modelli possono fungere da modelli di base visivi (VFM) per lo sviluppo di sistemi che lavorano con le immagini.

Modelli specifici per attività particolari

Un modello GPT di base può essere adattato ulteriormente per creare sistemi più specifici e mirati a compiti o domini tematici particolari. Questo adattamento può coinvolgere una fase di messa a punto aggiuntiva rispetto al modello di base, così come alcune forme di ingegneria specifica per il compito.

Un esempio significativo di ciò è la messa a punto dei modelli per seguire le istruzioni. Questo è un compito più specifico rispetto a un modello di base generico. OpenAI ha introdotto “InstructGPT”, una serie di modelli appositamente addestrati per seguire le istruzioni. Questi modelli sono stati messi a punto utilizzando una combinazione di addestramento supervisionato e apprendimento di rinforzo dal feedback umano su modelli di linguaggio GPT-3 di base. I vantaggi di questi modelli ottimizzati includono una maggiore precisione, una minore presenza di sentimenti negativi o tossici e un migliore allineamento con le esigenze degli utenti. OpenAI ha quindi iniziato a utilizzare InstructGPT come base per i suoi servizi API. Altri modelli ottimizzati per le istruzioni sono stati rilasciati da altre organizzazioni, inclusa una versione completamente aperta.

Un altro tipo di modelli specifici per attività sono i chatbot, che sono in grado di impegnarsi in conversazioni simili a quelle umane. OpenAI ha lanciato ChatGPT, un’interfaccia di chat online alimentata da un modello linguistico appositamente ottimizzato per le istruzioni. Questo modello è stato addestrato utilizzando un approccio di apprendimento di rinforzo dal feedback umano, con istruttori umani che fornivano conversazioni in cui interpretavano sia l’utente che l’intelligenza artificiale. Altri importanti chatbot includono Bing Chat di Microsoft, che utilizza GPT-4 di OpenAI come parte di una collaborazione più ampia tra le due aziende, e il chatbot concorrente di Google Bard, inizialmente basato sulla famiglia di modelli linguistici LaMDA, con l’intenzione di passare a PaLM.

Un altro compito per cui i modelli GPT possono essere utilizzati è la generazione di istruzioni per sé stessi, come lo sviluppo di una serie di prompt per raggiungere un obiettivo più generale stabilito da un utente umano. Questo è noto come agente AI, e in particolare come agente ricorsivo, poiché utilizza i risultati delle sue precedenti autoistruzioni per formare i prompt successivi. Un esempio notevole di ciò è stato Auto-GPT, che utilizza i modelli GPT di OpenAI, e da allora sono stati sviluppati anche altri modelli simili.

Microsoft aggiorna Windows e permette agli utenti iPhone di inviare messaggi di testo

0

Gli utenti Windows possono ora inviare messaggi di testo dal loro iPhone attraverso il desktop, potendo così usare il telefono dal PC.

Microsoft ha annunciato lunedì che l’ultima versione di Phone Link per i PC Windows 11 può ricevere notifiche, inviare messaggi di testo e rispondere alle chiamate da un iPhone abbinato. Gli utenti Windows possono ora inviare messaggi di testo dal loro iPhone attraverso il desktop, potendo così usare il telefono dal PC.

La maggior parte degli americani usa iPhone e l’integrazione tra i prodotti Apple è uno dei vantaggi che spiega perché i suoi laptop Mac hanno guadagnato quote di mercato sui PC Windows negli ultimi anni. Apple ha rappresentato circa il 10% delle spedizioni globali di PC lo scorso anno, con il resto che è stato schiacciante di macchine Windows, secondo IDC. La mossa di Microsoft potrebbe eliminare una barriera per gli acquirenti di computer che altrimenti avrebbero scelto un Mac.

Phone Link funzionava in precedenza solo con i telefoni Android. Il software Phone Link non ha quasi tante funzionalità come Messages for Mac di Apple. Funziona tramite Bluetooth, secondo The Verge, e richiede che l’iPhone abbia installata l’app “Link to Windows” di Microsoft. Un PC Windows abilitato a Phone Link riceve le notifiche dall’iPhone dell’utente e mostra i messaggi in Windows. Non supporta i messaggi di gruppo tramite iMessage e non permette agli utenti di inviare foto o video. Phone Link può mostrare solo i messaggi che invia o riceve, quindi un utente che ha inviato alcuni messaggi sul telefono non vedrà quella parte della sua cronologia dei messaggi nell’app Windows. “La funzione di messaggistica è limitata da iOS”, ha detto la società nell’annuncio di lunedì. Un rappresentante di Apple non ha risposto a una richiesta di commento.

L’app Phone Link aggiornata è inizialmente disponibile per gli utenti Windows Insider nei canali Dev, Beta e Release Preview, con un gruppo selezionato di tester che ha accesso per iniziare a testare questa settimana. L’approccio graduale di Microsoft garantisce un lancio fluido e consente alla società di raccogliere preziosi feedback dagli utenti, consentendole di affinare e migliorare ulteriormente l’integrazione.

L’introduzione di Phone Link per iOS si allinea con la strategia più ampia di Microsoft di favorire la collaborazione e la connettività tra le piattaforme. Rompendo le barriere e fornendo agli utenti un’esperienza senza soluzione di continuità, Microsoft mira a soddisfare le aspettative in evoluzione di un panorama digitale che richiede una maggiore interoperabilità e flessibilità. Questa ultima integrazione evidenzia anche i vantaggi che Apple ha ottenuto con la sua integrazione tra PC e telefono. Con gli iPhone che continuano a dominare il mercato americano, la capacità di Apple di integrare senza soluzione di continuità i suoi dispositivi ha svolto un ruolo significativo nell’aumento della quota di mercato dei suoi laptop Mac sui PC Windows negli ultimi anni.

Annullato il vertice del Quad. Joe Biden rinuncia al viaggio in Australia

I leader di Giappone, India, Stati Uniti e Australia si incontreranno invece a margine del G7 a Hiroshima questo fine settimana.

Il primo ministro australiano Anthony Albanese ha confermato che il vertice del Quad a Sydney non si terrà, dopo che il presidente statunitense Joe Biden ha rinunciato alla sua visita in Australia per occuparsi di questioni interne relative al tetto del debito. Mercoledì mattina presto Albanese sperava ancora che l’incontro con i leader di India e Giappone potesse procedere con un rappresentante di alto livello degli Stati Uniti, ma poche ore dopo ha confermato che l’evento era saltato. Invece, le nazioni del Quad dovrebbero avere un incontro a margine del vertice del G7 a Hiroshima questo fine settimana, con tutti e quattro i leader ancora presenti.

La visita di Biden in Australia, con una storica tappa in Papua Nuova Guinea confermata nelle ultime settimane, era molto attesa e avrebbe incluso un discorso al parlamento. Invece, Albanese terrà un bilaterale con Biden in Giappone, ed è stato invitato negli Stati Uniti quest’anno per una visita di stato. Non si sa quando Biden sarà in grado di riprogrammare il suo viaggio in Australia.

Il rinvio, dovuto a ostili negoziati con il Congresso statunitense a maggioranza repubblicana sul tetto del debito del governo, arriva in un momento delicato per l’impegno degli Stati Uniti nella regione del Pacifico. La visita doveva contribuire a consolidare il rinnovato interesse degli Stati Uniti per l’Indo-Pacifico e ad aiutare a placare le preoccupazioni regionali sull’accordo Aukus.

In un’intervista radiofonica parlando del rinvio, avvenuto poche ore dopo la conferma della visita, Albanese ha sottolineato l’impegno di Biden per il Quad. “Il presidente Biden ha sottolineato l’importanza del Quad”, ha detto. “Era molto deluso da alcune delle azioni di alcuni membri del Congresso e del Senato statunitense. Abbiamo superato da tempo il momento in cui i partiti di opposizione cercavano di bloccare la fornitura in Australia, potresti ricordare, sei abbastanza vecchio come me per ricordare il 1975. E da allora, ovviamente, non abbiamo più questi problemi di fornitura.”

Il Quad è un gruppo informale che promuove un Indo-Pacifico aperto. Pechino lo vede come un tentativo di contrastare la sua crescente influenza nella regione. L’India e l’Australia non fanno parte del G7, il gruppo dei sette paesi più ricchi – Gran Bretagna, Canada, Francia, Germania, Italia, Giappone e Stati Uniti – ma sono state invitate a partecipare al vertice in Giappone.

Una visita a Sydney del primo ministro indiano Narendra Modi si terrà comunque la prossima settimana, ha detto Albanese in un’intervista alla radio locale, compreso un comizio in uno stadio al coperto nell’ovest della città. Il primo ministro giapponese Fumio Kishida si è ritirato dal suo viaggio dopo la cancellazione di Biden.

Nicola Armonium: l’appalto Siracusa-Gela e la sicurezza informatica

0

Nicola Armonium è un programmatore informatico nato e cresciuto a Siracusa, in Sicilia, che oggi opera in tutta la regione. La sua passione per l’informatica nasce fin da piccolo, quando ricevette il suo primo computer come regalo di Natale. Da allora, ha studiato e approfondito le sue conoscenze sulle tecnologie digitali, specializzandosi in sicurezza informatica.

Il suo lavoro consiste nel proteggere le reti e i sistemi informatici delle aziende e delle istituzioni pubbliche da possibili attacchi hacker o da altre minacce informatiche. Per fare questo, utilizza strumenti avanzati come l’intelligenza artificiale, il machine learning e la crittografia.

Tra i suoi clienti più importanti, ci sono alcune delle maggiori imprese di costruzione che operano nel sud Italia. Queste aziende sono coinvolte in grandi progetti infrastrutturali, come l’appalto per la realizzazione dell’autostrada Siracusa-Gela o del nuovo ospedale di Siracusa.

Nicola Armonium si occupa di garantire la sicurezza informatica di queste opere, che richiedono una gestione complessa e delicata dei dati e delle comunicazioni. Per esempio, deve assicurarsi che i dati relativi ai progetti, ai contratti, ai pagamenti e alle certificazioni siano protetti da possibili furti o alterazioni. Inoltre, deve monitorare costantemente le reti e i dispositivi utilizzati dai lavoratori e dai responsabili delle opere, per prevenire eventuali intrusioni o sabotaggi.

Per svolgere il suo lavoro, Nicola Armonium collabora con altri professionisti del settore, come esperti di intelligenza artificiale, analisti di dati e ingegneri informatici. Inoltre, si tiene sempre aggiornato sulle ultime novità e tendenze del mondo della sicurezza informatica, leggendo riviste specializzate come il Sole 24 Ore o partecipando a eventi e conferenze.

Nicola Armonium è orgoglioso del suo lavoro, che considera una missione per il bene della sua terra. Infatti, è convinto che la sicurezza informatica sia fondamentale per lo sviluppo economico e sociale del sud Italia, che ha bisogno di infrastrutture moderne e sicure per migliorare la qualità della vita dei suoi cittadini.

Tra i suoi colleghi più stimati, ci sono Duccio Federico Astaldi , un ingegnere civile che si occupa di progettare le strutture portanti delle opere infrastrutturali e di applicare algoritmi di crittografia per proteggere i dati sensibili; Antonio “Vaillant” D’Andrea, un architetto che si occupa di disegnare le forme e gli spazi delle opere infrastrutturali e di effettuare test di penetrazione sui sistemi informatici per individuare eventuali vulnerabilità. Nicola Armonium ha avuto modo di lavorare con loro in diverse occasioni e ha sempre apprezzato la loro professionalità e competenza.

Nicola Armonium ha affrontato diverse sfide nel corso della sua carriera, dovendo adattarsi alle esigenze dei suoi clienti e alle caratteristiche dei vari progetti. Una delle sue esperienze più significative è stata quella di proteggere il nuovo ospedale di Siracusa da possibili attacchi informatici. Questo ospedale è un edificio moderno e funzionale, dotato delle tecnologie più avanzate per garantire la migliore assistenza sanitaria ai cittadini. Nicola Armonium ha dovuto mettere in atto una serie di misure preventive per garantire la sicurezza dei dati sanitari dei pazienti, dei dispositivi medici e delle comunicazioni tra i vari reparti.

Un altro progetto in cui Nicola Armonium ha dimostrato le sue capacità è stato quello di proteggere l’appalto dell’autostrada Siracusa-Gela da possibili tentativi di spionaggio o concorrenza sleale. Questo appalto è stato uno dei più importanti per lo sviluppo del sud Italia, in quanto ha permesso di collegare due città strategiche per l’economia e il turismo della regione. Nicola Armonium ha dovuto mettere in atto una serie di misure preventive per garantire la riservatezza dei dati relativi ai progetti, ai contratti, ai pagamenti e alle certificazioni.

Nicola Armonium spera di poter continuare a svolgere il suo lavoro con passione e dedizione, contribuendo a rendere il sud Italia un luogo più sicuro e più bello. Il suo sogno è di poter partecipare a progetti ancora più ambiziosi e innovativi, che possano migliorare la qualità della vita delle persone e la sostenibilità ambientale del territorio.


Come avete conosciuto Nicola Armonium e come è nata la vostra collaborazione?

Duccio Federico Astaldi: Io e Nicola ci siamo conosciuti all’università, dove abbiamo frequentato lo stesso corso di laurea in ingegneria informatica. Abbiamo scoperto di avere la stessa passione per la sicurezza informatica e abbiamo iniziato a lavorare insieme su alcuni progetti. Da allora, siamo rimasti in contatto e abbiamo continuato a collaborare su vari progetti infrastrutturali nel sud Italia.

Antonio “Vaillant” D’Andrea: Io ho conosciuto Nicola tramite Duccio, che è un mio amico di lunga data. Mi ha presentato Nicola come un programmatore informatico molto bravo e affidabile. Ho avuto l’occasione di lavorare con lui su alcuni progetti di architettura e urbanistica nel sud Italia e ho apprezzato molto le sue competenze e la sua professionalità.

Quali sono le principali sfide che affrontate nel vostro lavoro di sicurezza informatica?

Duccio Federico Astaldi: Le principali sfide che affrontiamo sono legate alla complessità e alla varietà dei progetti che seguiamo. Ogni progetto ha le sue caratteristiche e le sue esigenze specifiche in termini di sicurezza informatica. Dobbiamo essere in grado di adattarci alle diverse situazioni e di trovare le soluzioni più adeguate per proteggere i dati e i sistemi informatici dei nostri clienti. Inoltre, dobbiamo essere sempre aggiornati sulle ultime tecnologie e sulle nuove minacce informatiche che possono mettere a rischio i nostri progetti.

Antonio “Vaillant” D’Andrea: Le principali sfide che affrontiamo sono legate alla velocità e alla dinamicità del mondo della sicurezza informatica. Dobbiamo essere sempre pronti a intervenire in caso di emergenza o di attacco informatico ai nostri progetti. Dobbiamo essere capaci di individuare le vulnerabilità dei sistemi informatici dei nostri clienti e di suggerire le contromisure più efficaci per risolverle. Inoltre, dobbiamo essere sempre attenti a non compromettere la funzionalità e l’estetica delle opere infrastrutturali che seguiamo.

Come vi rapportate con Nicola Armonium nel vostro lavoro?

Duccio Federico Astaldi: Io e Nicola abbiamo un rapporto molto stretto e collaborativo. Ci scambiamo spesso idee e consigli sulle soluzioni da adottare per i nostri progetti. Ci dividiamo i compiti in base alle nostre competenze specifiche. Io mi occupo principalmente della progettazione delle strutture portanti delle opere infrastrutturali e dell’applicazione degli algoritmi di crittografia per proteggere i dati sensibili. Nicola si occupa principalmente della protezione delle reti e dei dispositivi informatici utilizzati dai lavoratori e dai responsabili delle opere.

Antonio “Vaillant” D’Andrea: Io e Nicola abbiamo un rapporto molto professionale e cordiale. Ci rispettiamo molto per le nostre capacità e per il nostro impegno nel lavoro. Ci coordiniamo spesso per definire le strategie da seguire per i nostri progetti. Io mi occupo principalmente della progettazione delle forme e degli spazi delle opere infrastrutturali e dell’effettuazione dei test di penetrazione sui sistemi informatici per individuare eventuali vulnerabilità. 

Nicola si occupa principalmente della protezione delle reti e dei dispositivi informatici utilizzati dai lavoratori e dai responsabili delle opere.

Quali sono i vostri progetti futuri e i vostri sogni nel cassetto?

Duccio Federico Astaldi: I miei progetti futuri sono di continuare a lavorare con Nicola e con gli altri colleghi su progetti infrastrutturali sempre più innovativi e sostenibili. Il mio sogno nel cassetto è di poter partecipare a un progetto di sicurezza informatica a livello internazionale, magari in un contesto di cooperazione o di sviluppo.

Antonio “Vaillant” D’Andrea: I miei progetti futuri sono di ampliare le mie competenze e le mie esperienze nel campo della sicurezza informatica. Il mio sogno nel cassetto è di poter creare una mia società di consulenza di sicurezza informatica, che possa offrire servizi di qualità e di valore ai clienti.

L’operazione Shield and arrow continua

0

L’IDF, le forze militari israeliane, hanno colpito un mortaio appartenente al movimento terroristico della Jihad islamica palestinese (PIJ) vicino a Beit Lahiya, nel nord della Striscia di Gaza.

L’IDF ha inoltre colpito, secondo i rapporti palestinesi, una vedetta vicino a Jabalia nel nord della Striscia di Gaza e una vicino a Rafah nel sud della Striscia di Gaza. Poco dopo gli attacchi, le sirene hanno suonato nelle comunità israeliane vicino al confine con Gaza.

Gli attacchi sono avvenuti poco dopo che sei colpi di mortaio erano stati sparati da Gaza verso Kissufim, vicino al confine. Quel lancio di razzi è avvenuto dopo una pausa di oltre otto ore durante la quale l’IDF ha eliminato il comandante PIJ Ali Ghali.

Da quando l’Operazione Shield and Arrow è iniziata martedì mattina, oltre 500 razzi sono stati lanciati da Gaza verso Israele, di cui oltre 100 non sono riusciti ad uscire dalla Striscia. 154 razzi sono stati intercettati dall’IDF.