21 Marzo 2026
Home Blog Pagina 68

5 modi per proteggere il cloud della tua azienda

Il software moderno vive sempre più online, utilizzando interfacce di programmazione dell’applicazione o API, per importare ed esporre dati, rimanere aggiornati e in generale lavorare in modo più efficace. Le API sono grandi acceleratori di attività con migliaia di usi, dal disegno di un file di ricette per un sito Web di cucina, al collegamento di un sistema di pagamento sicuro a un rivenditore online, all’aggiunta di funzionalità all’infrastruttura IT esistente.

Man mano che crescono in popolarità, tuttavia, si spostano anche nel mirino dei cattivi attori, diventando un nuovo obiettivo per le minacce alla sicurezza.

Non è un problema quando sono gestiti e configurati correttamente (in realtà, sono una parte importante di un solido livello di sicurezza aziendale). Il problema è proprio che quasi tutte le aziende ora devono vivere online, utilizzando le API esistenti all’interno e all’esterno del firewall aziendale. Ciò significa che i vecchi tempi di mettere un perimetro sicuro attorno alle risorse IT sono finiti. Agire come se non lo fossero è la vera minaccia.

In che modo le organizzazioni possono utilizzare moderne tecniche di sviluppo basate su API per alimentare le proprie attività mantenendo al sicuro l’ambiente? Passando da un modello perimetrale di rete a qualcosa che applica sicurezza e protezione in ogni punto di interazione. Ecco cinque importanti tecniche per aiutare.

1. Equilibrare la protezione con facilità di accesso 

La migliore sicurezza è bloccare tutto senza dare alcun accesso. Tuttavia, affinché le API forniscano valore aziendale, devono accedere a informazioni e funzionalità utili, come i dati dei clienti, le informazioni di inventario e le applicazioni legacy. Ciò significa che ogni API è un potenziale punto di accesso che deve essere protetto.

Il trucco è mantenere le API sicure lasciando che le persone che costruiscono esperienze digitali con loro si muovano il più rapidamente possibile, evitando politiche pesanti e un accesso altamente restrittivo che possa far deragliare l’innovazione.

La risposta sono gli strumenti di gestione delle API, che possono mediare l’accesso alle API, monitorarne l’utilizzo e automatizzare l’iscrizione, l’onboarding, l’autenticazione e l’istruzione degli sviluppatori. Tuttavia, è ancora troppo comune per le aziende applicare queste precauzioni solo ad alcune delle loro API. Ciò può essere dovuto a una serie di motivi, tra cui la governance irregolare delle API, le scorciatoie adottate per raggiungere scadenze di sprint aggressive, la convinzione che le API su misura non destinate al riutilizzo non richiedano la gestione o una combinazione di molti altri scenari possibili. Sebbene comprensibile, è come mettere delle serrature su alcune finestre, lasciando le porte spalancate. Tutte le API dovrebbero essere protette, il che significa che tutte le API dovrebbero essere gestite.

2. Autenticare gli utenti giusti 

Le API adeguatamente protette dovrebbero fornire l’autenticazione sia per gli utenti finali che per le applicazioni. Lo standard aperto di fatto per la sicurezza API, chiamato OAuth, consente l’autenticazione e l’autorizzazione basate su token. Ciò consente agli utenti finali e alle applicazioni di ottenere il giusto livello di accesso a una risorsa protetta senza richiedere all’utente di rivelare le proprie credenziali di accesso. OAuth consente a un client che effettua una chiamata API di scambiare alcune credenziali per un token, il che consente al client di accedere all’API.

OAuth utilizza un token che identifica in modo univoco una singola applicazione o utente su un singolo dispositivo, mantenendo segrete le password. I token hanno portata; sono un meccanismo per limitare l’accesso di un’applicazione all’account di un utente. È molto meglio che usare una password con ampio accesso. Inoltre, l’ambito e la durata del token stesso possono essere facilmente limitati. È un’ottima soluzione, ma per essere sicuri, i team API devono avere familiarità con le capacità di OAuth e le migliori pratiche di autenticazione correnti.

Il monitoraggio delle API e altre funzionalità di gestione aiutano anche a proteggere le API. Ad esempio, alcune aziende applicano funzionalità come il controllo degli accessi in base al ruolo (RBAC), che assegna diversi livelli di accesso API e privilegi in base ai tipi di utenti integrati.

3. Mantenere il controllo con un’efficace gestione del traffico

Qualsiasi API potrebbe essere soggetta ad un attacco di brute force in qualsiasi momento. I cattivi potrebbero utilizzare un software automatizzato per generare un gran numero di ipotesi consecutive nel tentativo di ottenere l’accesso ai dati protetti o mettere a dura prova i back-end invocando le API a un throughput oltre a quello per cui sono state distribuite. Tali attacchi sono probabilmente inevitabili per le imprese digitali di successo: in un certo senso, sono i costi per fare affari. Pertanto, i team API dovrebbero sempre considerare l’utilizzo di limiti e quote per ulteriore sicurezza API.

Quando si verificano questi attacchi, i limiti di accesso e le quote ti aiutano a mantenere il controllo delle risorse digitali della tua organizzazione e proteggere le esperienze e la privacy dei tuoi clienti. Le piattaforme di gestione API che supportano i limiti di velocità consentono ai team API di stabilire soglie alle quali vengono attivati ​​gli spike arresti, contribuendo a evitare che i back-end vengano colpiti da attività impreviste. Ad esempio, un team API potrebbe stabilire che nessuno dovrebbe chiamare un’API più di 500 volte al secondo o che a un’applicazione è assegnato solo un determinato numero di chiamate API al giorno.

4. Generare approfondimenti tramite analisi e monitoraggio

Le esperienze connesse uniscono risorse digitali che potrebbero essere effettivamente distribuite in una vasta gamma di aree geografiche, cloud pubblici e privati ​​e provider di API. Un obiettivo di un’efficace gestione e sicurezza delle API è controllare questa architettura distribuita in modo unificato.

L’integrità di un programma API si basa spesso su effettivi handoff tra team di sicurezza e operativi. Se le capacità di reporting non possono essere chiaramente dimostrate quando una situazione richiede una squadra rispetto all’altra, può essere difficile facilitare un’efficace collaborazione di sicurezza.

Ciò rende importante valutare non solo se una piattaforma di gestione API fornisce funzionalità di monitoraggio e analisi, ma anche se l’integrazione di queste funzionalità acceleri effettivamente le soluzioni ai problemi aziendali.

A livello di funzionalità, ciò significa che report e dashboard efficaci dovrebbero fornire informazioni a colpo d’occhio, nonché la possibilità di eseguire il drill down per dettagli più dettagliati. Dovrebbe essere semplice vedere i cambiamenti nel traffico, anche di giorno in giorno, di settimana in settimana e così via; visualizzare gli schemi nei periodi di tempo scelti; accedere alle informazioni sulla gestione dei cambiamenti e sui dati di governance; e visualizzare i dati di configurazione dei criteri su base per API e per proxy.

5. Non dimenticare le basi

Proprio come nei giorni di sicurezza del firewall, condurre codice e revisioni della sicurezza aumenta la probabilità di trovare vulnerabilità prima che colpiscano i clienti. Aiuta anche a garantire che i difetti di sicurezza prodotti in una parte di un programma API siano documentati e non vengano ripetuti altrove. 

I professionisti IT dovrebbero anche essere consapevoli del fatto che molti utili utenti API hanno riscontrato molti problemi di sicurezza. Un’altra best practice, quindi, è quella di stabilire canali per gli utenti per segnalare problemi, disporre di un programma per sviluppare correzioni e portarle in produzione e verificare con la persona che ha presentato il bug per confermare che il problema è stato veramente risolto.

Andando avanti

Nel mondo complesso di oggi, i perimetri di rete non contengono più tutte le esperienze e le interazioni che guidano il business. Per tenere conto di questo cambiamento fondamentale, le aziende dovrebbero considerare ogni API come un potenziale punto di leva aziendale e un possibile punto di vulnerabilità. Fatto bene, un’azienda può diventare ancora più sicura di quanto non fosse quando si nascondeva dietro un firewall e sperava nel meglio. 

Modello di politica utilizzo per reti WiFi pubbliche

Le Politiche di utilizzo accettabile sono una componente essenziale per tutte le organizzazioni, società e altri enti che offrono accesso a Internet o Intranet.

Una politica di utilizzo accettabile dovrebbe definire con precisione quali sistemi di rete sono coperti dalla politica;
– proibire esplicitamente comportamenti, distribuzione e comunicazioni illeciti; stabilire linee guida sulla privacy;
– fornire una chiara descrizione dei rischi associati alla non conformità.

Le regole private di Internet includono società che stabiliscono gli standard per i loro dipendenti, istituzioni educative che applicano comportamenti appropriati tra gli studenti e organizzazioni governative che garantiscono sicurezza e riservatezza.

Un modello di politica di utilizzo accettabile pubblico, tuttavia, offre una serie unica di sfide dovute alla natura aperta e accessibile di Internet pubblico, come le reti WiFi ad accesso aperto.

Crescita del WiFi pubblico

La Wireless Broadband Alliance (WBA) ha pubblicato i risultati di un’ampia ricerca sulla crescita del WiFi pubblico nel suo documento del 2013 Global Trends in Public WiFi. Tra il 2012 e il 2013 i livelli di confidenza delle aziende e della banda larga in relazione agli investimenti nel WiFi pubblico sono aumentati del 20%. Il WBA prevede che “il traffico di dati complessivo aumenterà 12 volte tra il 2013 e il 2018”, con tassi ancora più elevati previsti per il traffico di dati mobili.

Il grande pubblico utilizza sempre più WiFi pubblico per servizi come giochi ad alta velocità e videoconferenza. Sebbene le organizzazioni odierne spesso limitino l’uso eccessivo delle risorse (inclusa la larghezza di banda), anche gli ospiti WiFi pubblici continueranno ad aspettarsi velocità più elevate e latenza minima. Coloro che offrono WiFi pubblico (ad esempio, aziende e organizzazioni pubbliche) stanno cercando di soddisfare le richieste di qualità del servizio piuttosto che limitare (e potenzialmente alienare) i visitatori.

Una maggiore mobilità significa che “la connettività a banda larga sempre attiva diventa vitale per molti modi di vivere e lavorare”. L’ubiquità del WiFi pubblico è diventata così diffusa che i fornitori di servizi mobili ora offrono le proprie reti di WiFi pubblico al fine di incoraggiare la fidelizzazione dei clienti. Le aree residenziali forniscono sempre più hotspot della comunità, o “homepots”, poiché gli individui richiedono un accesso wireless a Internet senza soluzione di continuità.

Tuttavia, l’aumento dell’utilizzo del WiFi pubblico sta anche sollevando problemi di sicurezza. Il WiFi pubblico è intrinsecamente aperto alle minacce alla sicurezza. Chi lo utilizza lo fa con la premessa che ogni sua attività è visibile a terzi che si collegano allo stesso hot spot. Di conseguenza, i provider WiFi devono seguire un modello di criteri di utilizzo accettabile aggiornato per garantire la sicurezza dalla loro parte.

Elaborazione di un modello di criteri di utilizzo accettabile per le reti WiFi pubbliche

Una politica dovrebbe essere chiara e facile da implementare, evitando un linguaggio aperto all’interpretazione come “ragionevole” e “appropriato”. L’AUP deve essere esecutivo e può comportare un sistema di monitoraggio di terze parti. Le politiche devono descrivere le aree di responsabilità per tutte le parti coinvolte (compresi sia il grande pubblico che l’organizzazione, l’individuo o l’azienda che fornisce accesso wireless a Internet).

Alla luce dei rapidi cambiamenti nel mondo della cibersicurezza e della tecnologia in generale, è essenziale che un AUP abbia la flessibilità di adattarsi ai cambiamenti delle infrastrutture e delle minacce alla sicurezza. Ciò include rivalutazioni periodiche dell’AUP per evitare che diventino obsolete.

Sebbene sia importante attuare quanto prima una politica di accesso, si raccomanda di valutare l’attività Internet generale per un breve periodo di tempo al fine di valutare correttamente l’ambito del comportamento pubblico di Internet. Ciò assicurerà un AUP più su misura e in definitiva più efficace.

Quando si personalizzano altri modelli di criteri di utilizzo, sarà necessario coinvolgere anche un avvocato che abbia familiarità con le normative locali e regionali.

Secondo l’esperto di wireless / networking Bradley Mitchell , “i migliori AUP incorporano scenari, che illustrano l’utilità della politica in termini reali“. Le politiche delle principali organizzazioni tendono anche a precludere il comportamento proibito con un elenco più positivo di migliori pratiche. Questi includono il rispetto della privacy, l’adesione alle leggi locali e regionali per quanto riguarda la sicurezza e la funzionalità dei computer pubblici. Questo pone le basi delle linee guida più specifiche da seguire e dà al lettore un’idea di cosa aspettarsi.

Esempi di argomenti comuni su criteri di utilizzo

Se esiste un limite di tempo (questo è comune negli spazi di attesa pubblici come aeroporti e stazioni ferroviarie), specifica in particolare per quanto tempo l’utente avrà accesso e il periodo di tempo fino a quando l’utente potrà riconnettersi. Nel caso del software di monitoraggio, spiega chiaramente quale livello di privacy le persone possono aspettarsi durante l’accesso a Internet wireless pubblico.

Gli argomenti in genere rientrano in categorie di sicurezza informatica, divieti legali e standard universali di etichetta della rete. La componente di sicurezza di un AUP dovrebbe discutere della trasmissione di dati privati ​​e sensibili e di un’efficace gestione delle password (ove applicabile).

I provider dovrebbero vietare agli utenti di utilizzare il WiFi pubblico per spam, distribuire malware o falsificare le intestazioni. Alcune organizzazioni estendono il divieto di spam per includere qualsiasi distribuzione di pubblicità indesiderata. Agli utenti dovrebbe inoltre essere vietato il tentativo di accesso non autorizzato a sistemi privati ​​(“hacking”), sia all’interno che all’esterno dei sistemi dell’organizzazione host.

L’AUP dovrebbe vietare l’uso di software o applicazioni che aiutano attivamente a eludere le linee guida sulle politiche. In generale, i download devono essere indirizzati in base alle leggi regionali, alle risorse di rete dell’organizzazione ospitante e ad eventuali problemi di sicurezza specifici della posizione (ad esempio, quelli che offrono computer pubblici desiderano evitare l’installazione di malware e possono richiedere l’autorizzazione prima di tutti i download).

Coloro che utilizzano uno spazio pubblico per accedere a materiale pornografico o osceno possono essere bloccati. Se alcuni siti Web sono inseriti nella lista nera del servizio pubblico, l’AUP dovrebbe anche vietare esplicitamente tutti i tentativi di eludere le misure di filtraggio. Le organizzazioni spesso mettono in guardia gli utenti contro le violazioni delle leggi locali e regionali, ma alcuni esempi legali includono l’uso del WiFi pubblico a fini di furto, frode o accesso a materiale illecito.

Gli standard comunemente applicati dell’etichetta di rete includono il divieto dell’uso del WiFi pubblico per molestare, minacciare o intimidire gli altri. L’organizzazione può prendere in considerazione casi passati di abuso della rete pubblica e utilizzare tali scenari durante la stesura di una politica di utilizzo.

Coloro che stanno redigendo la loro prima Politica sull’uso accettabile hanno il vantaggio di diversi modelli online da usare come fonte. Un AUP specifico per la clientela prevista dell’organizzazione è probabilmente il più efficace. È quindi utile cercare altre politiche da un settore simile (ad esempio, una biblioteca pubblica, un istituto di istruzione o un’azienda locale). Alcuni esempi specifici di città e industria includono: WiFi pubblico comunale a Fairfield, Ohio; WiFi pubblico aziendale presso Peet’s Coffee & Tea; WiFi pubblico della contea presso la Biblioteca pubblica di Indianapolis.

L’AUP dovrebbe essere sicuro di fornire un punto di contatto qualora l’utente abbia domande o dubbi e potrebbe riservarsi il diritto di contattare gli utenti o sospendere i privilegi a discrezione.

Rischi associati alla non conformità

Come affermato in precedenza, la politica dovrebbe innanzitutto delineare tutte le tecniche di monitoraggio e applicazione. In genere, qui è dove AUP dichiarerà che gli utenti potrebbero essere soggetti alla perdita dei privilegi di accesso. A seconda del contesto dell’organizzazione, può anche essere opportuno specificare un intervallo di tempo fino a quando l’individuo non può richiedere un accesso rinnovato. Gli utenti che utilizzano il WiFi pubblico per svolgere attività illecite possono essere soggetti a procedimenti civili e penali in base alle leggi locali.

Se applicabile, un AUP può delineare le diverse penalità di non conformità se il WiFi pubblico dell’organizzazione sarà accessibile da diverse categorie di utenti. Ad esempio, mentre un utente commerciale potrebbe semplicemente perdere i privilegi di WiFi, un dipendente di quella stessa azienda potrebbe subire ulteriori penali legate al lavoro per violazione della politica. La politica dovrebbe anche indicare direttamente se la non conformità può comportare la rimozione dalla sede o la negazione di altri servizi che l’organizzazione può offrire.

Con l’uso del WiFi pubblico che dovrebbe aumentare in modo esponenziale nei prossimi quattro o cinque anni, i clienti, i clienti aziendali e i membri dell’organizzazione si aspetteranno tutti e apprezzeranno l’accesso affidabile al servizio Internet wireless pubblico. Sfortunatamente, all’aumentare dell’accesso, aumenta anche il potenziale danno causato da attacchi malevoli e uso improprio involontario.

Conclusione

Seguire un modello di Politica sull’uso accettabile chiaro, dettagliato e adattabile è la prima linea di difesa tra un’organizzazione e i rischi per la sicurezza associati all’accesso WiFi pubblico.

A seconda del contesto del provider di servizi WiFi e delle esigenze del pubblico in generale, coloro che redigono un AUP dovrebbero consultare il dipartimento IT della propria organizzazione e i professionisti della sicurezza, oltre a cercare il consulente legale appropriato.

Un modello AUP efficace coinvolgerà il feedback dell’intera comunità e prenderà in considerazione le sfide, gli scenari e le esigenze particolari di ogni singolo fornitore.

172 app dannose sul Play Store

0

Google ha seriamente bisogno di rendere la sua piattaforma più sicura poiché sono state trovate 172 app dannose con oltre 335 milioni di download sul Play Store. Solo a settembre, i ricercatori hanno scoperto un totale di 172 app con contenuti dannosi con milioni di download disponibili sul Play Store e la parte peggiore è che quando queste app sono state scoperte da esperti di sicurezza avevano già oltre 335 milioni di installazioni.

Viviamo nell’era del mondo digitale e la maggior parte delle persone preferisce svolgere la maggior parte dei compiti tramite il proprio smartphone rispetto a andare fisicamente in più luoghi per svolgere i vari servizi. Quindi questa dipendenza degli utenti dalle app è ciò che rende facile agli hacker la creazione di app dannose mascherate da app che offrono servizi unici.

Secondo i dati raccolti dal ricercatore di malware ESET di nome Lukas Stefanko, l’adware è arrivato all’incredibile cifra di circa 300 milioni di installazioni. Una varietà di altri malware è stata trovata anche sul Play Store che includeva anche spam con abbonamento, pubblicità nascosta e software di abbonamento SMS premium. Secondo i ricercatori sulla sicurezza, nel Play Store sono disponibili più di 57 app con annunci nascosti che costituiscono meno del 5 percento delle installazioni totali di app malware. Non sono ancora chiari i dati sul numero di volte in cui queste app sono state installate nell’ultimo mese, ma l’enorme quantità di installazioni di queste app dannose è una grande preoccupazione per tutti noi.

La scoperta di queste app non è poi così male, la maggior parte delle app dannose trovate dai ricercatori sulla sicurezza sono già state rimosse da Google e se non tutte 172 app, ma la maggior parte delle app dannose non sono più disponibili su Google Play Store.

Google ha una brutta storia di hosting di app dannose

Questa non è la prima volta che Google Play Store viene accusato di ospitare app dannose. Il gigante della tecnologia ha ormai una brutta fama per consentire a migliaia di tali app sulla piattaforma. A luglio, Google ha ospitato un totale di 205 app dannose che sono state installate più di 32 milioni di volte sui dispositivi mobili secondo i dati rivelati da Stefanko.

Google deve affrontare i malware nel suo Play Store, ed è sicuramente giunto il momento per il team di sicurezza di Google di cercare alcune nuove strategie per fornire soluzioni alternative a questi problemi. Per ora, sembra chiaramente che Google non riesca a proteggere la piattaforma da queste app dannose e stiamo davvero aspettando una risposta ufficiale da parte di Google stessa in merito a questi nuovi risultati da parte dei team di sicurezza. Fino ad allora, cerca di guardare bene che permessi chiede l’app, quante volte è stata scaricata e le recensioni. Ma più di tutto, da quanto tempo è online. E controlla sempre chi l’ha sviluppato prima di fare clic sul pulsante di installazione.

Google: vulnerabilità in Android

0

Google ha rivelato oggi di aver trovato prove di una vulnerabilità senza patch in Android utilizzata per attacchi in questi giorni, un cosiddetto “zero-day”.

La vulnerabilità risiede nel codice del kernel del sistema operativo Android e può essere utilizzata per aiutare un utente malintenzionato ad ottenere l’accesso come root al dispositivo.

Ironia della sorte, la vulnerabilità è stata patchata a dicembre 2017 nelle versioni del kernel Android 3.18, 4.14, 4.4 e 4.9, ma le nuove versioni sono risultate vulnerabili.

I ricercatori di Google ritengono che la vulnerabilità influisca sui seguenti modelli di telefoni Android, con Android 8.x e versioni successive:

  • Pixel 2 con anteprima di Android 9 e Android 10
  • Huawei P20
  • Xiaomi Redmi 5A
  • Xiaomi Redmi Note 5
  • Xiaomi A1
  • Oppo A3
  • Moto Z3
  • Telefoni Oreo LG
  • Samsung S7, S8, S9

I ricercatori di Google hanno anche affermato che “l’exploit richiede una personalizzazione minima o nulla per dispositivo”, il che significa che dovrebbe essere in grado di funzionare su una vasta gamma di telefoni, anche se non lo hanno confermato con prove manuali, come hanno fatto per i dispositivi sopra elencati .

Zero day collegato al gruppo Nso

La vulnerabilità è stata scoperta dal team di Project Zero di Google e in seguito ha confermato di essere stata utilizzata in alcuni attacchi da parte del gruppo di analisi delle minacce (TAG) dell’azienda.

Tuttavia, il bug di Android e il bug di iOS sembrano non essere correlati. Mentre gli attacchi agli utenti iOS sono stati collegati a un gruppo collegato allo stato cinese che conduce operazioni di sorveglianza contro i propri cittadini, i dettagli sullo zero-day di Android sono attualmente limitati e non politicamente attivi.

Il gruppo TAG di Google ha dichiarato di ritenere che lo zero-day di Android sia opera di NSO Group, una nota società israeliana salita alle cronache per aver venduto exploit e strumenti di sorveglianza a Stati e gruppi militari.

La società è stata criticata per aver venduto strumenti di hacking a regimi oppressivi, ma di fronte a crescenti critiche, ha recentemente promesso di non fornire più i suoi strumenti a chi li usa per spiare innocenti o oppositori politici.

NSO non ha venduto e non venderà mai exploit o vulnerabilità“, ha detto un portavoce del gruppo NSO. “Questo exploit non ha nulla a che fare con NSO; il nostro lavoro è focalizzato sullo sviluppo di prodotti progettati per aiutare i servizi segreti e le forze dell’ordine a salvare vite“.

Non è molto pericoloso

La buona notizia è che lo zero-day di Android non è pericoloso come gli altri zero-day. Per cominciare, non è un RCE (esecuzione di codice remoto) che può essere sfruttato senza l’interazione dell’utente. Esistono alcune condizioni che devono essere soddisfatte prima che un utente malintenzionato possa sfruttare questa vulnerabilità.

Questo problema è classificato come severo su Android e di per sé richiede l’installazione di un’applicazione dannosa per un potenziale sfruttamento“, ha detto un portavoce del progetto Open Source Android. “Qualsiasi altro vettore, come ad esempio tramite browser Web, richiede il concatenamento con un exploit aggiuntivo.

Abbiamo informato i partner Android e la patch è disponibile sul kernel comune Android. I dispositivi Pixel 3 e 3a non sono vulnerabili mentre i dispositivi Pixel 1 e 2 riceveranno aggiornamenti per questo problema come parte dell’aggiornamento di ottobre“, ha detto il team di Android.

Come proteggere le stampanti aziendali

Il fatto che i criminali possano attaccare la tua rete aziendale attraverso le tue stampanti è sia noto che ben documentato. Ciò che è meno certo è quanto attivamente i dipartimenti IT si proteggano dalla minaccia, specialmente nelle piccole imprese. Ecco perché vale sempre la pena verificare di aver messo in atto le misure giuste.

Alcuni di questi passaggi saranno comuni a tutte le stampanti, mentre altri potrebbero essere rilevanti solo per le stampanti per gruppi di lavoro. Alcuni potrebbero essere supportati solo da stampanti e dispositivi multifunzione specifici, mentre altri potrebbero richiedere software o hardware aggiuntivo.

Passaggio 1: applicare gli ultimi aggiornamenti del firmware

Ogni produttore di stampanti aggiorna il suo firmware sulle stampanti a seguito di qualsiasi vulnerabilità rilevata, quindi assicurati di scaricare l’ultima versione dal sito Web del produttore. Può contenere correzioni per gravi problemi di sicurezza o nuove funzionalità che potrebbero rendere le tue stampanti più sicure.

Naturalmente, se hai molte stampanti, questo diventa una spesa, motivo per cui il passaggio 2 può essere utile.

Passaggio 2: strumenti di amministrazione per semplificare la sicurezza della stampante

Uno dei motivi per cui gli amministratori IT non aggiornano frequentemente i dati delle loro stampanti è che per ognuna va fatta una installazione a parte. Ma c’è una soluzione a tutto. Esistono molti tool, tra cui quello della Hp, che aiutano le imprese a gestire aggiornamenti di massa. E’ un ottimo punto di partenza.

Passaggio 3: controllare gli indirizzi IP delle stampanti

Per impostazione predefinita, è possibile che la stampante disponga di un indirizzo IP esterno; a meno che non ci sia un ottimo motivo per mantenerlo in questo modo, passa a un indirizzo IP interno. Per maggiore sicurezza, considerare la possibilità di limitare l’accesso a una LAN o sottorete specifica.

Passaggio 4: utilizzare il PIN o il badge

Utilizzare un pin per stampare
Utilizzare un pin per stampare

Molte moderne stampanti aziendali includono un sistema PIN e ti consigliamo di applicarlo. Consentendo ai dipendenti di inserire fisicamente un PIN sulla stampante per iniziare il loro lavoro di stampa, ti assicurerai immediatamente che i documenti riservati non vengano lasciati sul vassoio di uscita. Significa anche molte meno pagine sprecate, poiché gli utenti dimenticano di aver stampato qualcosa e lo hanno lasciato lì, oppure lo stampano una seconda volta per errore.

Se i tuoi dipendenti usano già i badge di sicurezza, allora una politica “solo badge” ha molto senso. È esattamente la stessa idea di richiedere un PIN, ma un utente deve scorrere il proprio badge su un pad dedicato situato sulla stampante per autorizzare il lavoro di stampa.

Passaggio 5: assicurarsi che il disco rigido della stampante sia crittografato

Questo è semplice ma spesso dimenticato. Significa che anche se qualcuno prende il disco, i tuoi dati sono al sicuro, ma è anche una buona protezione a lungo termine, nel caso in cui la stampante venga passata a un rivenditore e lasci accidentalmente informazioni riservate sull’unità. Il modo più semplice per mettere al sicuro il disco rigido della stampante? Semplice: verificare che sia crittografato al momento dell’acquisto. Come ultimo passo, assicurati di cancellare professionalmente il tuo disco rigido se vendi o rottami la stampante.

Passaggio 6: assicurarsi che la stampa remota sia sicura

È possibile che per impostazione predefinita siano attivi protocolli e servizi di accesso remoto poco sicuri. In tal caso, vanno disabilitati. Tutti desideriamo che i dipendenti o collaboratori possano stampare da telefoni, tablet e laptop, ma utilizzando formati sicuri come la stampa diretta wireless o il touch-to-print NFC. 

Passaggio 7: crittografare le linee di comunicazione

Se si desidera amministrare una stampante via Web, abilitare SSL per assicurarsi che tutte le comunicazioni avvengano tramite https. È anche una precauzione ragionevole evitare che ficcanaso intercettino lavori di stampa riservati crittografando i dati in transito. 

VUOI UN CONSIGLIO SU COME METTERE IN
SICUREZZA LE TUE STAMPANTI?

CONTATTACI

Passaggio 8: sostituire le stampanti meno recenti

Le stampanti hanno comunicazioni wireless ormai da tanti anni. Ma le prime versioni di ogni stampante esistente non aveva dentro di se nemmeno le possibilità tecniche di assicurare la riservatezza dei dati. Per questo motivo, aggiornare il parco stampanti di un ufficio è una cosa da non sottovalutare.

Nel frattempo, il rilevamento delle intrusioni in fase di runtime aiuta a proteggere le stampanti dagli attacchi quando vengono accese, cercando le anomalie nella memoria o nel firmware che sono le caratteristiche di una minaccia. In breve, più vecchia è la tua stampante, meno è probabile che sia sicura. Inoltre beneficerai di una stampante più silenziosa, più veloce e di migliore qualità se esegui l’aggiornamento.

Passaggio 9: applicare un criterio “svuota vassoio”

Cestino carta

È incredibile quanti documenti stampati siano abbandonati sul vassoio di uscita a volte con informazioni riservate, spesso sui propri dipendenti. Sottolineando una politica in base alla quale se lo stampi, lo raccogli, ridurrai questo rischio.

Un modo per farlo è abilitare la stampa pull, in questo modo i lavori di stampa vengono eseguiti solo se autenticati nella stampante. L’autenticazione potrebbe comportare solo la digitazione di un codice PIN (vedere il passaggio 4) o potrebbe implicare la sicurezza biometrica, una smart card o altri token fisici. Ciò garantisce che solo coloro che avviano e quindi autenticano un lavoro di stampa possano ritirarlo dal vassoio di uscita.

Passaggio 10: semplificare la distruzione dei documenti

Se è molto più facile per le persone mettere documenti sensibili nel cestino piuttosto che nel distruggi documenti, lo faranno. Anche se potresti non desiderare un distruggi documenti accanto a ogni stampante, assicurati che i dipendenti sappiano dove trovare la trinciatrice più vicina. E sappiamo poi che il fatto che ci sia una distruggi documenti non da come conseguenza il fatto che la usino, anzi. Quindi è possibile anche pensare di togliere fisicamente i cestini oppure di arrivare a creare delle sanzioni per chi butta documenti stampati nei cestini.

Passaggio 11: proteggere le porte

Molte stampanti consentono di inoltrare i lavori alla coda di stampa tramite porte SMTP, FTP, Telenet e USB. Sfortunatamente, gli stessi protocolli e le porte di rete utilizzate possono essere utilizzati dagli aggressori come mezzo per recuperare documenti e informazioni. Se non sono necessari, disabilitarli utilizzando l’interfaccia di gestione Web per ridurre il potenziale di attacco. 

VUOI UN CONSIGLIO SU COME METTERE IN
SICUREZZA LE TUE STAMPANTI?

CONTATTACI

Introduzione al buffer overflow

Quando si accetta un input esterno, un’applicazione deve allocare memoria per archiviare tale input. Molti linguaggi di programmazione di alto livello lo faranno dietro le quinte, ma alcuni linguaggi (come C / C ++) consentono al programmatore di allocare memoria direttamente tramite funzioni come malloc.

Si verifica una vulnerabilità di buffer overflow quando l’applicazione tenta di archiviare più dati nella memoria allocata di quanto non vi sia spazio disponibile. Ciò può verificarsi per vari motivi, tra cui:

  • Impossibilità a controllare la lunghezza dell’input durante la lettura
  • Essersi dimenticati di allocare spazio per il terminatore null
  • Lunghezze di input che causano un overflow di numeri interi

Indipendentemente dal motivo, se un’applicazione tenta di scrivere nella memoria oltre l’intervallo del buffer allocato significa che sta scrivendo nella memoria allocata per altri scopi all’interno dell’applicazione. A causa della struttura di come la memoria viene allocata all’interno di un computer, questo può essere estremamente utile per un utente malintenzionato poiché consente di controllare l’esecuzione del programma.

Sfruttamento del buffer overflow

Lo sfruttamento di una vulnerabilità di overflow del buffer è abbastanza semplice. Se un programma alloca in modo errato la memoria per l’input dell’utente o legge in modo non sicuro i dati in quello spazio di memoria, esiste una vulnerabilità. Questa vulnerabilità può essere sfruttata da un hacker semplicemente fornendo un input all’applicazione più grande di quanto il buffer allocato sia in grado di contenere.

Il travaso di un buffer con input insignificanti o casuali può causare semplicemente un errore di segmentazione o un errore nel programma. Tuttavia, la struttura dello stack porta a che un exploit buffer ben progettato può fare molto di più, consentendo a un utente malintenzionato di controllare il flusso di esecuzione ed eseguire codice dannoso sul sistema.

Lo stack

Un’applicazione può allocare memoria nello stack o nell’heap. Lo stack viene comunemente utilizzato per argomenti di funzione e variabili locali e l’heap memorizza la memoria dinamica (allocata utilizzando il nuovo comando in C ++). Sia lo stack che l’heap possono essere sfruttati da un attacco di buffer overflow, ma la struttura dello stack lo rende estremamente delicato.

Come suggerisce il nome, lo stack è organizzato come uno stack di memoria. Lo stack cresce da indirizzi di memoria elevati a indirizzi inferiori. La posizione corrente nello stack è indicata da una variabile (il puntatore dello stack) che punta alla parte superiore dello stack corrente. Man mano che i dati vengono aggiunti o rimossi dallo stack, anche il puntatore dello stack viene aggiornato.

Quando una funzione viene chiamata da un’altra funzione, le informazioni vengono inviate nello stack per fornire a quella funzione i dati che deve eseguire. Questi dati vengono inseriti nello stack nel seguente ordine:

  1. Argomenti della funzione chiamata (in ordine inverso)
  2. L’indirizzo dell’istruzione successiva dopo la funzione chiamata ritorna
  3. Variabili locali della funzione chiamata

In genere, l’input dell’utente a una funzione verrà archiviato in una variabile locale, il che significa che verrà inserito nello spazio di memoria direttamente sopra l’indirizzo di ritorno nello stack. Ciò è utile per un utente malintenzionato che esegue un buffer overflow, poiché la memoria che verrà sovrascritta da un buffer overflow è il puntatore all’istruzione successiva da eseguire.

Programmazione orientata al ritorno (ROP)

Il fatto che un utente malintenzionato possa sovrascrivere l’indirizzo di ritorno di una funzione nello stack è la base per la programmazione orientata al ritorno (ROP). In ROP, un utente malintenzionato tenta di sfruttare un overflow del buffer che causa il ritorno della funzione vulnerabile in un’area del programma sotto il controllo dell’attaccante.

Quest’area può essere lo stesso buffer riempito durante l’attacco o un’altra area controllata dall’utente. Se ha esito positivo, l’utente malintenzionato potrebbe essere in grado di guidare l’applicazione a interpretare l’input fornito come istruzioni del programma, consentendo all’utente malintenzionato di eseguire codice dannoso.

Una delle principali sfide di ROP è lo sviluppo di codice che fa ciò che l’attaccante vuole in uno spazio limitato. Per questo motivo, il codice generalmente cerca di chiamare funzioni di libreria che sono già all’interno dello spazio di memoria del processo per abbreviare il codice necessario. Alcune mitigazioni contro ROP si concentrano sul rendere questa funzionalità più difficile da localizzare ed eseguire per lo shellcode.

Mitigazioni del buffer overflow

Lo sfruttamento del buffer overflow può rappresentare una grave minaccia per la sicurezza poiché il codice ROP inserito ed eseguito dall’attaccante viene eseguito con gli stessi privilegi dell’applicazione sfruttata. Tuttavia, esistono diversi mezzi per prevenire o mitigare gli attacchi di buffer overflow.

Protezioni dello stack

L’obiettivo primario di un exploit buffer overflow è consentire all’attaccante di eseguire codice arbitrario tramite una programmazione orientata al ritorno. Diverse soluzioni sono state implementate per aiutare a proteggere contro il POR.

Stack canaries

Affinché ROP sia possibile nello stack, l’utente malintenzionato deve essere in grado di riscrivere un indirizzo di ritorno della funzione per puntare a una regione di memoria sotto il loro controllo. Il concetto è stato inventato per aiutare a rilevare e prevenire questo. 

Uno stack canary è un valore noto al programma che viene inserito prima dell’indirizzo di ritorno nello stack. Prima che ritorni una funzione, viene verificato il valore del canary e viene generato un errore se non è corretto (indicando che si è verificato un attacco di overflow del buffer).

Prevenzione dell’esecuzione dei dati

La programmazione orientata al ritorno si basa sull’input dell’utente interpretato dal programma per essere interpretato come dati da interpretare come codice. Ciò è possibile perché i dati e le informazioni di controllo sono spesso intrecciati nello stack senza confini chiari.

Data Execution Prevention (DEP) contrassegna alcune aree della memoria come non eseguibili. Questo aiuta a proteggere dal buffer overflow poiché, anche se l’attaccante può modificare un indirizzo di ritorno per puntare al proprio shellcode, non verrà eseguito dal programma. Tuttavia, DEP può essere aggirato da un attacco return-to-libc, rendendo necessaria la randomizzazione del layout dello spazio degli indirizzi (ALSR).

Randomizzazione del layout dello spazio degli indirizzi

La maggior parte delle applicazioni sono progettate per essere orientate agli oggetti, con applicazioni che fanno un uso pesante di librerie condivise che importano nel loro spazio di memoria. Mentre le funzioni di queste librerie condivise sono utili per legittimare il codice, sono utili anche per ROP.

La randomizzazione del layout dello spazio degli indirizzi (ASLR) è progettata per rendere più difficile per un utente malintenzionato trovare le funzioni di libreria di cui ha bisogno. Invece di importare le funzioni di libreria per impostare gli indirizzi in ogni applicazione, ASLR randomizza dove verrà importata una particolare libreria. Ciò rende il POR più difficile, poiché l’aggressore deve trovare una libreria in memoria prima di poter utilizzare le sue funzioni.

Convalida dell’input

Gli attacchi di buffer overflow sono causati quando un utente malintenzionato scrive più dati su un blocco di memoria rispetto allo spazio allocato dall’applicazione per tali dati. Ciò è possibile per una serie di motivi, ma il più comune è l’uso di letture illimitate che leggono fino a quando non viene trovato un terminatore nullo sull’input. Utilizzando letture a lunghezza fissa progettate per adattarsi allo spazio buffer allocato, un’applicazione può essere resa immune dagli attacchi di buffer overflow.

Controllo di overflow dell’intero

I buffer overflow possono anche essere abilitati da vulnerabilità di overflow dei numeri interi. Ciò si verifica quando la lunghezza del valore memorizzato in una variabile è maggiore di quella che la variabile può contenere, causando la caduta dei bit più significativi che non si adattano. Di conseguenza, un input molto grande può essere interpretato come avente una lunghezza più breve a causa di un overflow, causando il dimensionamento del buffer allocato. 

Il controllo degli overflow dei numeri interi nelle lunghezze di input è importante per la protezione dagli attacchi del buffer overflow.

Librerie standard

Mentre C ++ consente a uno sviluppatore di allocare manualmente la memoria per l’input dell’utente, ciò non significa che sia sempre una buona idea farlo. La libreria di modelli standard C ++ (STL) ha funzioni (come le stringhe) che gestiscono correttamente la gestione della memoria dietro le quinte. Il passaggio è un modo semplice per mitigare la minaccia di vulnerabilità di buffer overflow.

Buffer overflow per l’hacking etico

I buffer overflow sono una semplice vulnerabilità che può essere facilmente sfruttata ma anche risolta facilmente. Tuttavia, anche oggi, il software contiene vulnerabilità sfruttabili di buffer overflow. Nell’ottobre 2018, in Whatsapp è stata scoperta una vulnerabilità di buffer overflow che ha consentito l’uso della vulnerabilità se un utente aveva appena risposto a una chiamata o una videochiamata. 

Queste vulnerabilità meritano sicuramente una verifica quando si esegue un hack etico e devono essere corrette nel codice il più rapidamente possibile.

Google Maps su Android. Una nuova funzionalità dalla versione desktop

0

Google Maps ha sempre avuto un livello Street View abbastanza dettagliato e approfondito quando utilizzato su un desktop. Non solo ottieni più informazioni ma è semplicemente più facile da usare.

La versione Android ha ovviamente Street View, ma è sempre stato un po’ più difficile da consultare poiché l’app non dispone di un livello di filtro per vedere esattamente dove funziona Street View. Tuttavia, l’ultimo aggiornamento di Google Maps per dispositivi mobili sembra colmare questa lacuna.

Ora si sarà in grado di utilizzare il pulsante di azione per filtrare dove Street View è disponibile in Google Maps. Tale filtro evidenzierà le aree applicabili in blu che puoi toccare e farle diventare una vista stradale per vedere le aree circostanti. Ovviamente Google avrà scattato nuove foto e immagini a livello strada o del luogo in cui stai guardando, ma Google Maps è piuttosto sviluppato a questo punto, quindi dovrebbe comunque coprire i tuoi luoghi preferiti.

L’ultimo aggiornamento per Android sembra aver implementato questa nuova funzionalità praticamente in tutte le nazioni, non però su iOS che non l’ha ancora attivata.

Rootkit. Quali tipi esistono e come scoprirli

Un rootkit è semplicemente un insieme di strumenti in grado di procurare e mantenere l’accesso privilegiato di root a un sistema operativo. Un rootkit malware di solito trasporta un codice/software dannoso che viene distribuito segretamente nel sistema di destinazione.

Per mantenere l’accesso backdoor per il malware, i rootkit possono sfruttare i processi del sistema in background a vari livelli di privilegi. In un sistema Windows, questo di solito significa attaccare in modalità utente o kernel.

L’importanza di comprendere il vettore di attacco

Contrariamente alla percezione popolare, un rootkit non compromette la sicurezza del sistema da solo. La penetrazione delle difese di un sistema operativo è gestita dal metodo impiegato per infettare il sistema. Ci sono molti modi per farlo oggi:

  • Invio di un file infetto / Trojan come allegati di posta elettronica
  • Creazione di app malware mascherate da banner / pop-up innocui sui siti Web
  • L’uso di attacchi di phishing e altri malware come i keylogger offrono agli attacker l’accesso root, che può quindi essere utilizzato per iniettare il rootkit

Un rootkit inizia il suo lavoro una volta che il vettore ha compromesso con successo il sistema, dandogli la possibilità di entrare in modalità privilegiate di root all’interno del sistema operativo. Una volta ottenuto l’accesso, a seconda del luogo del suo attacco, un rootkit può cambiare il software installato o anche parti del sistema operativo stesso. Ciò può rendere difficile da rilevare un’infezione da rootkit o persino praticamente invisibile.

Comprensione della posizione di un rootkit nel sistema operativo

Windows ha due modalità per l’esecuzione del codice: la modalità utente e la modalità kernel. Di questi, la modalità kernel è la più importante, in quanto funge da collegamento diretto tra il codice hardware e software. Questa è la modalità con privilegi più alti , o “root” in un sistema Windows.

Ma non tutti i programmi e i processi richiedono l’accesso all’intera gamma di potenza di elaborazione e hardware di sistema. Queste funzioni di livello inferiore sono gestite in una modalità con privilegi inferiori: la modalità utente.

In modalità kernel, il sistema operativo esegue i codici direttamente per eseguire tutte le attività di alto livello di gestione del sistema. Al contrario, la modalità utente utilizza un’API (Application Programming Interface) per eseguire indirettamente i codici. Durante il normale funzionamento del sistema, l’API esegue chiamate di funzione al kernel e riceve informazioni in cambio.

Un rootkit di solito dirotta queste chiamate di funzione, sia in modalità utente che in modalità kernel, a seconda del suo design.

Rootkit in modalità utente e iniezione DLL

In Windows, l’aggancio delle API è una tecnica comunemente utilizzata per modificare o cambiare il flusso delle chiamate API. Un rootkit in modalità utente sfrutta questa tecnica per iniettare codice dannoso nella memoria di un programma rimanendo nascosto. 

Perché questo funzioni, il rootkit deve inserire il suo codice in un processo comunemente usato. In Windows, le librerie Dynamic Link (DLL) sono perfette per questo, poiché sono chiamate da molti programmi diversi installati nel sistema operativo. 

L’iniezione DLL è il metodo utilizzato dall’utente rootkit (hacker) per inserire codice dannoso in vari programmi che eseguono chiamate API nel sistema operativo. Esistono diversi modi per raggiungere questo obiettivo:

  • Modifica dei valori di registro per aggiungere una nuova DLL dannosa al sistema Windows
  • Utilizzo dell’aggancio globale in Windows per influire su tutte le chiamate API del programma
  • Creando un thread remoto per il processo di destinazione per aggiungere ad esso DLL infetta

Aggancio IAT contro aggancio in linea

Il principale punto debole di un rootkit a livello di utente è che manca l’accesso diretto al kernel del sistema operativo. Quindi usano API che aggancia un exploit. Ci sono due diverse tecniche spesso utilizzate qui: l’aggancio IAT e l’aggancio in linea.

In Windows, una IAT (Import Address Table) viene utilizzata per semplificare l’accesso alle DLL con i loro indirizzi di funzioni variabili. Lo IAT ospita i puntatori a funzione delle DLL quando vengono caricati dal caricatore di Windows durante una chiamata API.

Utilizzando l’aggancio IAT, un rootkit può apportare modifiche all’elenco delle chiamate delle funzioni DLL, sostituendo le funzioni esistenti con il proprio indirizzo. Quando un’applicazione effettua una chiamata API per quella funzione, il codice rootkit viene caricato invece nello spazio di memoria del programma vittima.

Al contrario, l’aggancio in linea modifica direttamente i codici funzione di programmi specifici. Questo è un approccio più mirato e ristretto rispetto all’aggancio IAT. Ma come l’aggancio IAT, l’obiettivo qui è quello di far caricare le chiamate API del programma dal codice dannoso dall’indirizzo rootkit.

Rootkit in modalità kernel e tecniche di aggancio

L’uso dell’iniezione DLL rende relativamente più facile rilevare un’infezione da rootkit in modalità utente. Ma i rootkit in modalità kernel sono del tutto diversi. Si trova allo stesso livello della maggior parte dei software di rilevamento malware e può eludere il rilevamento alterando parti del codice del kernel stesso.

Un rootkit in modalità kernel può apportare modifiche al sistema usando diverse tecniche di aggancio. Questi includono:

Aggancio SSDT

In Windows, le chiamate di sistema al kernel sono gestite secondo la tabella di invio del servizio di sistema o SSDT. Questa tabella contiene gli indirizzi di memoria importanti delle funzioni principali chiamate. Se un rootkit ottiene l’accesso al kernel, può apportare modifiche all’SSDT, con risultati simili a quelli dell’aggancio IAT. 

Aggancio IDT

La modalità kernel di Windows contiene anche una tabella descrittore di interrupt (IDT) per gestire eventuali interruzioni causate da un software o hardware. Un semplice esempio potrebbe essere un interrupt di processo causato dalla tastiera. Un rootkit può utilizzare l’hook IDT per raccogliere informazioni importanti, compresi i dati della tastiera. 

Aggancio della funzione in linea

I rootkit del kernel possono anche usare hook non correlati alle tabelle di sistema. Nell’aggancio in linea, il codice dannoso attacca parti specifiche di una funzione di destinazione nel kernel, costringendolo a passare a un’area specifica nella memoria di sistema contenente il codice rootkit. 

Key takeaway

  • I rootkit usano molti diversi vettori e tecniche di attacco per compromettere la sicurezza di un sistema e infettarlo
  • I rootkit funzionano dirottando o collegando le chiamate di funzione API in un sistema operativo
  • In Windows, possono farlo a Ring-3 (livello utente) e Ring-0 (livello kernel)
  • I rootkit a livello di utente spesso usano l’iniezione DLL per aggiungere codice dannoso alle applicazioni
  • A livello di kernel, abusano delle chiamate di funzione SSDT e IDT per apportare modifiche

Meccanismi di rilevazione

Il rilevamento di rootkit è considerato un problema complicato nella sicurezza dei computer, ma dipende anche dal livello di programmazione in ciascun caso particolare. Come in altri meccanismi di rilevamento del malware, vengono utilizzate tecniche basate su firma e comportamento. Altre tecniche utilizzate per il rilevamento dei rootkit sono l’analisi basata sulla diff e i controlli di integrità. Non esiste un’unica applicazione in grado di rilevare e rimuovere tutti i tipi di rootkit in quanto l’area in cui potrebbero risiedere potrebbe essere completamente diversa, software o hardware. Nella maggior parte dei casi, un rootkit può essere rimosso solo ricostruendo il sistema compromesso.

• Basato su firma

Questa è la tecnica più comune per il rilevamento di malware. Tuttavia, è il meno efficiente in quanto è efficace solo per rootkit già rilevati e diffusi. Le firme dei rootkit noti vengono utilizzate per rilevare se ne esiste una su un sistema.

• Basato sul comportamento

Questi rilevatori identificano un comportamento anomalo su un sistema informatico basato su euristica e schemi comportamentali. Questi schemi sono derivati ​​da alcune attività che si trovano tipicamente nei rootkit. Il vantaggio della tecnica basata sul comportamento rispetto alla precedente è che può rilevare rootkit precedentemente sconosciuti.

• Visualizzazione basata su diff / croce

L’approccio Diff-Based o Cross view viene utilizzato principalmente per rilevare rootkit in modalità kernel confrontando due diverse visualizzazioni del sistema per le stesse informazioni attraversando le strutture di dati. In questo caso, il rilevatore di rootkit otterrà una vista del sistema e una vista ottenuta dalle utilità di sistema e quindi li confronterà. Una differenza nei risultati restituiti dai due approcci segnala la presenza di un rootkit.

• Verifica dell’integrità

I controlli di integrità possono essere eseguiti in un sistema per verificare l’alterazione del codice non autorizzata nei file di sistema. Innanzitutto, è necessario eseguire una funzione unidirezionale per calcolare un hash per ogni file di sistema quando il sistema è ancora pulito e quindi utilizzarlo come base. Quando sorge la necessità, viene eseguito un confronto hash tra gli hash di base e gli hash della versione corrente.

Cloud. I rischi di sicurezza più comuni

Il cloud computing si sta evolvendo da un’opzione praticabile per fornire servizi IT allo standard di fatto. Secondo il rapporto “Public Cloud Trends” del 2019 , dell’Enterprise Strategy Group (ESG), l’utilizzo di ambienti infrastrutturali come servizio è aumentato negli ultimi otto anni, dal 17% delle organizzazioni al 58%, e il 39% delle organizzazioni afferma di avere una mentalità cloud-first per tutte le loro implementazioni tecnologiche.

È sicuramente un vantaggio per l’innovazione, ma le organizzazioni di sicurezza continuano a lottare per stare al passo con i costanti cambiamenti nella tecnologia cloud, nell’architettura e nei casi d’uso. Molte delle maggiori sfide che devono affrontare hanno a che fare con la visibilità. In un recente rapporto di Cloud Security Alliance, tre quarti delle aziende con risorse nel cloud pubblico hanno indicato la mancanza di visibilità come una grande sfida.

Ecco alcuni dei più grandi punti critici di sicurezza del cloud.

Servizi IT gestito dall’azienda

Dimentica “shadow IT” o “rogue IT”. I modelli di acquisto di tecnologia che hanno parti interessate della linea di business che acquistano e gestiscono risorse cloud sono ora indicati in modo incondizionato come “IT gestito dal business” da molte organizzazioni che lo vedono come un motore per l’innovazione. Otre i due terzi delle aziende incoraggiano o consentono l’IT gestito dall’azienda. Questo perché le aziende che lo fanno hanno il 52% in più di probabilità di battere i concorrenti sul mercato e il 38% in più di fornire un’esperienza positiva ai dipendenti.

Il problema è che senza la collaborazione dei professionisti IT e della sicurezza informatica, questi silos di tecnologia cloud possono diventare enormi punti ciechi di sicurezza per le organizzazioni. Queste stesse organizzazioni innovano più rapidamente, ma hanno il doppio delle probabilità di avere più aree di esposizione al rischio di sicurezza.

Errata configurazione del cloud

La configurazione errata di Internet-as-a-service (IaaS) e degli archivi di dati cloud è la causa principale di alcune delle violazioni del cloud e dei furti di dati più dannose. Che si tratti di disattivare le impostazioni di sicurezza predefinite standardizzate dai provider cloud, utilizzare password predefinite, consentire l’accesso illimitato a determinati servizi o qualcos’altro, i problemi di configurazione errata introducono una serie di rischi nascosti che vengono spesso scoperti solo dopo aver subito un furto. Circa il 40% delle organizzazioni afferma che l’errata configurazione delle piattaforme cloud è la principale preoccupazione per la sicurezza informatica.

Architettura ibrida

Secondo un recente rapporto della Cloud Security Alliance, circa il 55% delle organizzazioni gestisce ambienti di cloud computing complessi che operano con un’architettura ibrida. Tale configurazione offre un ottimo modo per le grandi organizzazioni di passare gradualmente al cloud, ma introduce sfide di sicurezza proprio mentre le aziende lottano per tenere traccia delle risorse nell’intera architettura e monitorare l’attività attraverso una complessa miriade di connessioni cloud ibride. In effetti, un rapporto pubblicato all’inizio di quest’anno da Firemon mostra che l’80% delle organizzazioni ha gravi problemi data la complessità degli strumenti utilizzati per monitorare e gestire la sicurezza in ambienti ibridi.

Acquisti multicloud

Le aziende sono impegnate in acquisti multicloud, utilizzando ambienti cloud da numerosi fornitori. Circa il 66% delle organizzazioni ha un ambiente multicloud e circa il 36% fa affidamento su una combinazione di tecnologie multicloud e ibride.

Ciò confonde ulteriormente le cose per i professionisti della sicurezza. “Il problema per i professionisti della sicurezza è che i modelli e i controlli di sicurezza variano ampiamente tra i fornitori, sono spesso scarsamente documentati e sono completamente incompatibili“, ha scritto Rich Mogull, analista di Securosis e vicepresidente di cloud DisruptOps. “Chiunque ti dica di poter cogliere queste sfumature in poche settimane o mesi con un paio di lezioni di formazione sta mentendo o ignorando. Ci vogliono anni di esperienza pratica per capire davvero i dettagli della sicurezza di un fornitore di cloud.

Dark Data

I dati non classificati e non gestiti – noti anche come “dati oscuri” – rappresentano oggi un grosso problema per la maggior parte delle aziende, che si tratti di dati locali o nel cloud. Le aziende fanno fatica a proteggere i dati non classificati a causa del fatto che non possono proteggere risorse di cui non sono a conoscenza. Secondo un recente sondaggio condotto da Vanson Bourne per Veritas, i dark data sono particolarmente pericolosi negli ambienti di cloud pubblico, in cui tre aziende su cinque affermano di aver classificato meno della metà dei loro dati di cloud pubblico.

Telemetria forense e ricerca delle minacce

Alcuni dei più grandi punti ciechi che i team di sicurezza stanno combattendo oggi sono legati alla telemetria forense e la ricerca delle minacce. Le organizzazioni non solo lottano per ottenere le giuste informazioni da tutte le loro diverse risorse cloud, ma anche quando riescono a farlo affrontano una dura battaglia. Il solo consolidamento di tali dati e la correlazione con la telemetria locale diventa il suo incubo, una forma di cecità multidashboard per la risposta agli incidenti e alle minacce.

Secondo il SANS Institute, oltre la metà delle pmi ha riscontrato problemi nel reperire registri e informazioni di sistema di basso livello per i servizi forensi dai propri fornitori di servizi cloud e meno di una organizzazione su tre è stata in grado di integrare gli strumenti forensi e di risposta agli incidenti che usano all’interno con i loro ambienti cloud pubblici.

Come cancellare in modo sicuro il tuo disco rigido

0

Cancellare il proprio disco rigido è una necessità a cui tutti prima o poi devono far fronte. Farlo in modo sicuro è necessario soprattutto se il Pc lo dobbiamo rivendere.

Per prima cosa devi pulire i dati dalle tue vecchie unità in modo da non diventare vittima di un furto di identità. La semplice eliminazione dei dati dal disco rigido in realtà non li elimina; fondamentalmente lo nasconde dalla vista. Per cancellare veramente i dati sul tuo dispositivo di archiviazione e proteggerti dal furto di identità, devi prendere misure molto più drastiche (e che richiedono tempo) che sovrascrivono il tuo spazio su disco con uno e zero. Ecco dove entra in gioco questa guida.

Diverse tecnologie e scenari richiedono strumenti diversi. Identificheremo la migliore utility di cancellazione sicura per ogni lavoro, indipendentemente dal tipo di unità che stai utilizzando, anche dalle unità flash USB. Se vuoi cancellare solo file specifici, ti mostreremo anche come farlo. Soprattutto, ogni soluzione discussa è gratuita.

Cancellare il disco rigido. Prima di iniziare

Esegui il backup dei tuoi dati. Una volta che questi programmi hanno iniziato a lavorare sull’unità, non è possibile tornare indietro. E se hai intenzione di cancellare il disco rigido di un laptop, assicurati di collegare il notebook alla rete elettrica prima di iniziare. Se il computer si spegnesse nel mezzo di una pulizia del disco, potrebbe portare gravi danni per l’unità.

Le utility Drive-wipe specificano il numero di “passaggi” effettuati dal software. Ogni passaggio indica una sovrascrittura completa dei dati, quindi un’utilità che esegue tre passaggi sovrascrive i dati tre volte separate. Più volte sovrascrivi i tuoi dati, meno è probabile che vengano recuperati. Alcune utility supportano la protezione di livello “Gutmann” con 35 passaggi, ma tre passaggi sono sufficienti per le specifiche di qualsiasi computer di ripristino.

Crittografare il disco rigido

Ricorda, hai anche la possibilità di crittografare semplicemente l’intera unità e gettare via le chiavi (di crittografia) anziché cancellare in modo sicuro tutto dall’unità. La crittografia del disco è piuttosto solida e questo metodo dovrebbe essere sufficiente in circostanze generali, ma perché rischiare? La crittografia delle unità e la cancellazione delle unità richiedono molto tempo, quindi è più sicuro e conveniente cancellare completamente i dati.

Se scegli di cancellare i tuoi dati con uno di questi metodi, lo fai a tuo rischio e pericolo, motivo per cui ti consigliamo di fare un backup prima di iniziare. Tuttavia, abbiamo usato tutti questi metodi con successo in passato.

Cancella in modo sicuro file specifici con Eraser

Se devi eliminare solo file e cartelle specifiche anziché intere unità, Eraser open source è lo strumento che fa per te. Basta avviare il programma, fare clic sulla freccia accanto all’opzione “Cancella programma” nella parte superiore dello schermo e selezionare Nuova attività. Da lì, si apre una finestra con le attività e le opzioni di pianificazione del tempo. Fai clic su Aggiungi dati per selezionare i file da cancellare e scegli un metodo di cancellazione. (Di solito funziona bene con l’opzione DoD a tre passaggi.)

Un’opzione di Eraser viene visualizzata anche quando si fa clic con il pulsante destro del mouse su un file in Esplora risorse, consentendo di eliminare definitivamente e rapidamente il file.

Eraser ha moltissime opzioni di pianificazione e file avanzate se si desidera cancellare in modo sicuro file o settori specifici del disco rigido su base regolare. Fai attenzione mentre armeggi con le impostazioni più particolari, però, qualsiasi “svista” è irrecuperabile. Si noti inoltre che Eraser funziona solo con dischi rigidi meccanici, poiché gli algoritmi di livellamento dell’usura nelle unità a stato solido (SSD) annullano la capacità dell’utilità di cancellare in modo sicuro le informazioni.

Cancella in modo sicuro la tua chiavetta USB

Pensavi che usare Erase fosse semplice? La pulizia del disco tramite Roadkil è ancora più semplice e funziona perfettamente su unità flash USB e dischi rigidi tradizionali. Basta scaricare, decomprimere e avviare l’applicazione, quindi selezionare un’unità e digitare il numero di passaggi che si desidera vengano eseguiti dal programma. Scegli di cancellare il disco o riempirlo di dati files, fai clic su Cancella e il gioco è fatto. Disk Wipe di Roadkil non è stato aggiornato da anni, ma non è stato necessario: funziona e basta. Assicurati di selezionare il tuo sistema operativo quando scarichi l’utilità.

Una nota sul software di pulizia dell’intero disco: la pulizia di intere unità richiede soluzioni leggermente più complicate rispetto alle app facili da usare menzionate in precedenza. Poiché eliminerai i dati dall’unità che probabilmente contiene il sistema operativo del tuo PC, la maggior parte degli strumenti che cancellano intere unità richiedono di spostare il programma su un’unità flash o creare un disco di avvio da un file .iso.

Per assicurarti che tutto funzioni senza intoppi, dovresti anche controllare nelle impostazioni del BIOS e assicurarti che le tue unità siano impostate sulla modalità IDE.

Cancella in modo sicuro un disco rigido meccanico con DBAN

Scarica DBAN: un’opzione testata nel tempo per la cancellazione di HDD amata dai geek di tutto il mondo, nonostante non sia stata aggiornata da anni. Dopo averlo scaricato e masterizzato .iso su un disco, inserire il disco nel PC e dire al computer di eseguire l’avvio sull’unità ottica anziché sul disco rigido. Se speri di cancellare un disco rigido abilitato per RAID, dovrai anche disassemblare il volume RAID e impostare ogni disco in modalità JBOD prima di iniziare.

Una volta che DBAN è attivo e funzionante in tutto il suo splendore bianco e blu, è sufficiente selezionare il disco da cancellare e premere il tasto M sulla tastiera per selezionare un metodo di cancellazione. Il “DoD Short” a tre passaggi è il metodo preferito, sebbene siano disponibili opzioni più robuste. Premi F10 per iniziare la pulizia una volta che tutto sembra a posto. A seconda del metodo scelto e delle dimensioni del disco, la cancellazione dei dati può richiedere ore o addirittura giorni.

Cancella in modo sicuro un’unità ibrida o SSD con Secure Erase o Parted Magic

La cancellazione dei dati da un SSD è leggermente diversa dalla cancellazione dei dati da un HDD grazie agli algoritmi di livellamento dell’usura utilizzati per scrivere i dati in modo uniforme su un SSD. Per cancellare in modo sicuro tutti i dati su un SSD, si utilizza un comando, chiamato Secure Erase, abbastanza appropriato, integrato nel firmware di tutte le moderne unità SATA e unità PATA / IDE precedenti. Alcuni SSD vengono forniti con la possibilità di avviare la cancellazione sicura, ma se l’unità non lo fa, due programmi di terze parti principali che possono attivare il comando e cancellare gli SSD sono lo strumento di cancellazione sicura del Centro per la ricerca magnetica e Parted Magic.

Per eseguire lo strumento di cancellazione sicura del CMRR, è necessario scaricare l’utilità, quindi trasferire il file su un’unità flash o CD e avviarlo direttamente. Digitare hdderase nel prompt di DOS e premere Invio per avviare la cancellazione. L’utilità funziona sia su SSD che su hard disk meccanici, il che la rende perfetta per l’uso con unità ibride.

Conclusione

La cancellazione sicura è possibile anche a costo zero. Ci sono anche altre soluzioni più professionali o che possono gestire cancellazioni continue (agendo direttamente ogni volta che si mette qualcosa nel cestino) oppure per grandi aziende. Nel sito trattiamo anche questi metodi.