Categorie
Information Technology Networking Virtualizzazione Windows

Storage

NAS, SAN, iSCSI e FCP

La rivoluzione tecnologica prima e l’arrivo di nuove risorse digitali poi hanno portato con loro una lunga serie di termini informatici, vocaboli dei quali spesso si ignora completamente il significato. Eppure dietro questi termini si nascondono sofisticati sistemi, prodotti altamente innovativi utilizzati soprattutto da enti pubblici, piccole, medie e grandi imprese. Oggi il giro di affari dell’Information Technology è enorme, intorno a questo mondo girano miliardi e miliardi. A dispetto di investimenti, guadagni e dell’uso quotidiano delle nuove tecnologie non sempre però si conoscono bene caratteristiche e funzionalità delle risorse digitali. In un certo senso un vero e proprio peccato perché, anche per i singoli utenti, la conoscenza di una determinata materia aiuta a migliorare i risultati. Proviamo allora nei seguenti paragrafi a spiegare alcuni termini di carattere informatico: NAS, SAN, iSCSI e FCP, ecco cosa significano e perché sono importanti. Chiaramente tutti termini conosciuti dagli esperti della materia, ma poco noti a buona parte di utenti.

Cominciamo con il primo argomento da trattare: NAS.

Un NAS è un dispositivo elettronico che consente di condividere e memorizzare le informazioni tramite una rete. L’acronimo NAS letteralmente sta per Network Attached Storage, archiviazione collegata alla rete. Grazie a una rete creata dal NAS oppure attraverso un router, è possibile per i dispositivi elettronici collegati fare accesso alle informazioni memorizzate negli hard disk. In buona sostanza, per capirci ancora meglio, un NAS somiglia a un computer con specifiche componenti e un sistema operativo che gli consentono determinate funzioni. In modo particolare, permettono di archiviare e condividere i dati. I Network Attached Storage migliori presentano alcune caratteristiche di fondamentale importanza:

  • impostazione della condivisione dei file a vari livelli;
  • accesso rigorosamente protetto a determinate cartelle;
  • dotazione ai file di una crittografia.

Visto che alla fine parliamo di un computer, ogni Network Attached Storage sarà dotato di alimentatore, di moduli di rete per connessioni, di una cpu della ram, di una memoria per il sistema operativo e principalmente di alloggiamenti per i dischi rigidi.

Ora passiamo al secondo argomento in elenco: SAN.

Dal punto di vista informatico una SAN (Storage Area Network) è una rete o, solo una parte di essa, a grande velocità di trasmissione, composta solamente da dispositivi di memorizzazione di massa. Lo scopo di una SAN è quello di rendere disponibili le risorse digitali di immagazzinamento (storage) per ogni computer connesso. Una rete che come fine principale si pone il compito di trasferire i dati tra sistemi di PC e tra elementi di storage. Trattasi di un’infrastruttura di comunicazione in grado di garantire connessioni fisiche per la trasmissione dei dati in maniera sicura ed efficace. I protocolli maggiormente diffusi utilizzati per la comunicazione all’interno di una Storage Area Network sono iSCSI (Internet SCSI) e FCP (Fibre Channel Protocol).

Una SAN è quindi un’infrastruttura di comunicazione per fare accesso alle informazioni in modo veloce e sicuro, capace di integrare adeguatamente i requisiti dei classici sistemi di memorizzazione: grandi prestazioni, disponibilità e semplicità di gestione. Inoltre, una rete Storage Area Network, assicura una connettività any-to-any tra server e dispositivi elettronici storage, così da spalancare la via al trasferimento diretto delle informazioni tra le periferiche di memorizzazione, ottimizzando in tale maniera lo spostamento di processi e dati. Una rete di enorme efficienza e sicurezza per la funzionalità delle aziende.

Descrizione del termine “Storage”, titolo dell’articolo.

Spesso finora in questa guida abbiamo utilizzato il termine storage, vediamo allora qual è il suo reale significato. Si tratta di un termine per identificare i dispositivi hardware, le infrastrutture e i software destinati alla memorizzazione di grosse quantità di dati in formato digitale. Il settore di storage si interessa quindi delle necessità derivanti dalla memorizzazione di elevate quantità di informazioni, memorizzazioni possibili grazie all’utilizzo di supporti di registrazione per custodire informazioni usando computer o altri dispositivi elettronici. Le forme più conosciute di storage sono lo storage a oggetti, lo storage di file e lo storage a blocchi.

Con lo storage a oggetto i dati vengono memorizzati come oggetti con univoci identificatori. Un metodo indicato in modo particolare per le informazioni che non richiedono modifiche. Invece con lo storage dei file, i dati vengono opportunamente salvati in cartelle o file. Generalmente si trovano su dischi rigidi, ciò vuol dire che compaiono per gli utenti in un identico modo e sul disco rigido. Infine, lo storage a blocchi prevede un sistema con cui i dati sono memorizzati in blocchi di uniformi dimensioni. Un sistema di memorizzazione magari più complicato degli altri, ma in perfetta sintonia con i dati da consultare e modificare frequentemente. Insomma lo storage è un altro termine il cui significato andrebbe conosciuto per bene, anche per sapere effettuare alcune scelte strategiche.

Passiamo a trattare il terzo argomento: iSCSI.

Quando si parla di iSCSI (Internet Small Computer System Interface), è bene sapere che si fa riferimento a un protocollo di comunicazione che consente di inviare comandi ai dispositivi di memoria SCSI collegati fisicamente a server oppure ad altri dispositivi digitali (es: NAS o SAN). Un protocollo usato prevalentemente in ambienti SAN, in quanto è utile per l’archiviazione delle informazioni su dischi virtuali collegati tramite rete. In questo modo è come avere la disponibilità localmente di dischi fisici che in realtà si trovano però su dispositivi di archiviazione remoti. Dunque, se un sistema procede all’invio di comandi iSCSI via rete, può trattare i dischi remoti come se si trattasse di unità locali. Di conseguenza, i limiti tipici di uno storage remoto sono superati in quanto a tutti gli effetti lo storage è trattato come se fosse locale dal sistema operativo. Sintetizzando ecco alcuni dei principali vantaggi di Internet Small Computer System Interface:

  • backup molto rapidi;
  • possibilità di memorizzazioni contestuali di più backup per immagini.

Concludiamo con il quarto e ultimo argomento: FCP.

Una volta compreso il significato di termini informatici come NAS, SAN e iSCSI, passiamo a capire cosa si intende per FCP (Fibre Channel Protocol). Quest’ultima, una tecnologia per rete dati, utilizzata soprattutto per implementazioni in SAN (Storage Area Network). Oggi, infatti, Fibre Channel è diventata una tipologia di connessione standard per le SAN nell’enterprise storage. Il suo segnale può andare sia su cavi a fibra ottica che su quelli di rame UTP. Il Fibre Channel Protocol è il protocollo sul Fibre Channel di interfaccia dello SCSI. Alla tecnologia per rete dati Fibre Channel va riconosciuto il grande pregio di aver spalancato la via per realizzare infrastrutture di rete affidabili e veloci che hanno posto le basi per la definitiva affermazione del concetto di SAN (Storage Area Network).

Considerazioni finali.

Dall’analisi di tutti questi concetti si capisce ancora di più l’importanza di certi meccanismi tecnologici. Sistemi digitali pronti a garantire agli utenti finali un’estrema sicurezza e molteplici funzioni. Oggi senza l’apporto di una tecnologia così avanzata raggiungere determinati risultati sarebbe molto più complesso. Lo sanno bene soprattutto le aziende, disposte a investire montagne di euro per dotarsi di apparecchiature sempre più innovative. Un discorso valido per le imprese italiane e per quelle sparse un po’ in tutte le parti del mondo.

Categorie
Information Technology Networking

IPSec

Internet Protocol Security

La tematica della sicurezza dei dati e delle informazioni digitali è costantemente al centro delle attenzioni degli esperti del settore, pronti a garantire agli utenti standard sempre più elevati. Spesso abbiamo sentito e sentiamo ancora parlare di dati rubati o persi, un serio problema per tutti e soprattutto per le organizzazioni di lavoro che basano le loro attività proprio su importanti informazioni. Per un’azienda, una complicanza del genere potrebbe portare a ingenti danni economici e alla perdita di buona parte di reputazione, gravi ripercussioni da evitare a ogni costo. Per questo la rivoluzione digitale non solo ha garantito alle strutture organizzative di lavoro servizi innovativi e funzionali alla causa, ma anche sistemi di sicurezza all’altezza della situazione. Una maniera opportuna per permettere alle imprese e alle Pubbliche amministrazioni di ottimizzare la produttività e i servizi in totale sicurezza. Perciò, anche se naturalmente per tali finalità esistono i tecnici specializzati in materia, conoscere in linea generale alcuni meccanismi che garantiscono la sicurezza informatica è in assoluto una buona regola. D’altronde l’Information Technology (IT) fa parte ormai della nostra quotidianità, un altro motivo fondamentale per approfondire la materia. Proveremo a farlo con l’aiuto di questa guida per comprendere nello specifico l’IPSec (Internet Protocol Security), per capire di cosa si stratta, come funziona e perché è così importante.

Per i non esperti della materia il termine IPSec non è proprio di uso comune, molti ne ignorano completamente la sua natura e la sua necessità. In realtà, in informatica quando si parla di Internet Protocol Security ci si riferisce a un protocollo nato con lo scopo di garantire connessioni sicure su reti IP. Una sicurezza assicurata da funzioni in termini di autenticazione, cifratura e monitoraggio di integrità dei pacchetti IP. Quindi trattasi di una sicurezza fornita a livello di rete. Proprio a livello di rete è possibile impiegare IPSec come standard, senza cambiare le applicazioni. Una volta effettuata la connessione, le varie forme di traffico dei dati, trasferimento di file, email, etc. si svolgono senza bisogno di installare specifici tool per il programma. Tuttavia, la completa autonomia dalle applicazioni, potrebbe risultare un problema al momento di indesiderati accessi non bloccati da firewall centralizzati. Relativamente all’affidabilità e alle prestazioni, Internet Protocol Security costituisce comunque una soluzione ottimale per proteggere le informazioni sensibili in virtù di alti livelli di sicurezza. Un protocollo particolarmente indicato per le reti aziendali, in quanto allontana i rischi di accessi anonimi.

Internet Protocol Security definisce le infrastrutture al fine della fornitura di numerosi servizi e algoritmi. Una delle caratteristiche dell’IPSec è riconducibile al fatto che la disponibilità di diversi servizi avviene su richiesta, questo per non rendere disponibili alcuni servizi non utili per tutti. Servizi che, se non necessari, andrebbero solamente ad appesantire i calcoli computazionali. I principali servizi offerti dall’Internet Protocol Security sono senza dubbio l’integrità e la segretezza dei dati e delle informazioni. Servizi importanti fondati sul principio di crittografia a chiave simmetrica. Inoltre tale protocollo è aperto a numerosi algoritmi, questo perché un algoritmo che in un determinato momento appare sicuro in futuro potrebbe essere forzato e, di conseguenza, non più sicuro. Un’altra caratteristica dell’Internet Protocol Security è relativa proprio alla sua indipendenza dall’algoritmo, in modo tale da permettere all’infrastruttura di sopravvivere anche in tutti quei casi in cui un algoritmo subisce una forzatura. Servizi e algoritmi quindi creati per assicurare agli utenti la massima sicurezza possibile.

Comprese la natura e le caratteristiche, ora passiamo a vedere di seguito come funziona Internet Protocol Security. Tanto per cominciare, è bene sapere come alla base ci siano differenti protocolli di crittografia degli indirizzi IP e dei dati. Nel momento in cui due PC vogliono instaurare una privata connessione, innanzitutto dovranno “accordarsi” su quale crittografia utilizzare e sullo scambio delle relative chiavi di sicurezza per decriptare le informazioni. Ecco, la gestione di questo processo compete proprio a IPSec. A tal fine, per prima cosa, Internet Protocol Security procede all’autenticazione dei dati per assicurare l’autenticità degli stessi, cioè per garantire che durante lo scambio di informazioni non ci siano state manomissioni esterne. Effettuata l’autenticazione il processo continua con la crittografia di tutto il traffico di dati, per scongiurare la visibilità del traffico in chiaro senza l’uso della corretta chiave. IPSec è capace pure di proteggere le connessioni dagli “replay attack”, vale a dire da quegli attacchi provenienti da coloro che sono riusciti a impossessarsi delle credenziali utili per autenticarsi. Inoltre, Internet Protocol Security garantisce la sicurezza della chiave della crittografia utilizzata tra i due PC. Sono due le modalità di funzionamento: transport e tunnel. Con la modalità transport ad essere crittografate sono esclusivamente le informazioni scambiate, mentre con la modalità tunnel vengono crittografati gli interi pacchetti dei dati, compresi gli indirizzi IP.

Per eseguire tutte le operazioni citate e per farlo in modo sicuro e funzionale, Internet Protocol Security si serve di protocolli differenti. I principali protocolli utilizzati sono IPSec Authentication Header (AH) e Encapsulating Security Payload (ESP). Il primo viene usato a protezione degli indirizzi IP dei PC interessati dalla trasmissione, per tutelare i dati da perdite, danneggiamenti o modifiche e verifica l’invio effettivo delle informazioni proteggendo la trasmissione da malintenzionati. Invece, il secondo protocollo (ESP), è incaricato alla gestione della crittografia di Internet Protocol Security, assicurando la segretezza del traffico delle informazioni tra computer. Encapsulating Security Payload è utile pure per nascondere il traffico Internet, per non consentire a chi guarda il “tunnel” di comprendere le informazioni realmente scambiate. Per finire abbiamo analizzato un altro prodotto di grande valore per la sicurezza informatica e quindi per la tutela delle attività delle organizzazioni di lavoro.

Categorie
Information Technology Networking Virtualizzazione Windows

Disaster Recovery

Disaster Recovery (RPO e RTO)

La terminologia informatica sta diventando sempre più di uso comune, una logica conseguenza della grande rivoluzione digitale che ha coinvolto praticamente tutte le categorie di utenti: dalla Pubblica Amministrazione alle imprese private, passando per i singoli cittadini. Oggi sentire parlare di Information Technology, server, software, desktop, account, banner, email, backup e di altri molti termini riconducibili alle tecnologie informatiche è ormai un’abitudine giornaliera.

Terminologia a parte, conoscere a grandi linee la funzionalità degli strumenti tecnologici è una buona regola per approcciarsi al mondo della rete con maggiore coscienza e per essere pronti a rispondere in tempo a eventuali problematiche. Molto probabilmente in tanti hanno sentito parlare anche di Disaster Recovery, ma non tutti sanno in realtà di cosa si tratta. Con questa guida proveremo ad approfondire questo argomento proprio per comprendere la reale importanza del Disaster Recovery ai fini della sicurezza informatica: di cosa si tratta, perché è importante per un’organizzazione di lavoro e reali finalità.

Per Disaster Recovery (Recupero del Disastro) in informatica e, particolarmente in ambito della sicurezza informatica, ci si riferisce alle misure tecnologiche propedeutiche al ripristino di sistemi, delle infrastrutture e dei dati funzionali alle organizzazioni di lavoro. Un ripristino necessario in tutti quei casi in cui si manifestano emergenze gravi che possono seriamente compromettere le attività delle organizzazioni di lavoro. Praticamente il Disaster Recovery consiste nell’approccio adottato da una qualsiasi organizzazione al fine di rispristinare l’accesso e le funzioni dell’infrastruttura tecnologica, in seguito a fatti disastrosi provocati dall’uomo, come attacchi informatici o guasti, oppure in seguito a eventi naturali. Appare chiaro da queste prime righe che trattasi di una tematica molto delicata, in quanto alcune circostanze potrebbero mettere a serio rischio il regolare svolgimento di un’intera attività lavorativa. Il Disaster Recovery è quindi una misura di primaria importanza per un’unità organizzativa di lavoro, anche perché i rischi per i sistemi e le infrastrutture informatiche non mancano mai.

La serie di eventi dannosi che può causare un disastro è davvero lunga e preoccupante. In tale logica è sufficiente ricordare alluvioni, terremoti, incendi, attacchi informatici, disservizi dei sistemi e furti. Quindi stiamo parlando di eventi di carattere naturale e riconducibili a responsabilità dell’uomo. Eventi naturali, ma soprattutto gli errori umani sono la causa della stragrande maggioranza di disastri aziendali. Situazioni per un’impresa molto gravose e responsabili di ingenti danni economici. Oggi buona parte di un’attività di un’organizzazione di lavoro viene portata avanti con il supporto dei sistemi informatici, quando questi ultimi vengono compromessi bisogna intervenire al più presto. L’interruzione di un’attività lavorativa e la perdita di importanti dati aziendali comportano negative conseguenze economiche e anche la perdita della reputazione aziendale. Non riuscire a fornire in tempo un cliente a causa dell’interruzione del settore produttivo non aiuta sicuramente a migliorare la reputazione di un’impresa. La continuità del flusso dei dati di un’azienda riveste un ruolo di primo piano, in quanto anche un’interruzione di breve tempo potrebbe portare a ingenti perdite in termini di produttività e vendite. Un discorso che vale per le piccole organizzazioni di lavoro come per le grandi imprese.

Per prevenire e contrastare efficacemente situazioni del genere è opportuno un piano adeguato di Disaster Recovery, molto indicato al fine di proteggere l’operatività di un’azienda. Stiamo parlando della stesura di un piano particolarmente dettagliato, nel quale definire i probabili livelli di disastro e individuare le possibili criticità per tutelare al massimo l’attività e il volume di affari di un’impresa. Un progetto strutturato in maniera tale da prevedere le misure di sicurezza da intraprendere in tutti quei casi in cui le circostanze lo richiedano. Un progetto di Disaster Recovery è articolato e complicato perché comprensivo di azioni preventive per allontanare determinati rischi e di misure correttive da mettere in campo al momento di ripristinare i sistemi informatici. Un piano inclusivo di punto di ripristino (RPO) e di tempo di ripristino (RTO). Dove il valore RPO sta ad indicare la frequenza dei backup dei dati richiesta, mentre il valore RTO specifica la massima durata di down time che un’organizzazione è capace di gestire. Non dare la giusta importanza a un piano simile significherebbe commettere una grave leggerezza e non tutelarsi adeguatamente.

Abbiamo visto prima come per difendere un’attività lavorativa è importante stabilire un efficace progetto di Disaster Recovery, ma quali sono gli obiettivi di un piano del genere? Di seguito ecco un elenco delle finalità che un piano strutturato correttamente deve prevedere:

  • identificazione dei sistemi e dei dati critici e importanti per l’operatività di un’organizzazione di lavoro;
  • classificazione dei sistemi e dei dati critici a seconda dei livelli di importanza;
  • prevedere un grado di accettabilità della perdita dei dati sopportabile per un’impresa, un livello noto come Recovery Point Objective.

Il Disaster Recovery è assolutamente fondamentale per qualunque tipo di organizzazione di lavoro e personalizzabile secondo le peculiarità di ogni azienda. A dimostrare la riconosciuta valenza del Disaster Recovery sono i crescenti investimenti fatti negli ultimi anni in tale direzione, investimenti destinati in futuro a crescere ancora. I dati del mercato del Disaster Recovery sono inequivocabili e descrivono una crescita consistente e veloce. Il giro di affari di questi servizi nel giro di qualche anno ha raggiunto livelli impensabili. Un volume di affari in aumento giustificato dal fatto che di questi tempi privarsi dei sistemi informatici per un buon andamento dell’operatività di un’azienda è impossibile, come impossibile è non tutelare tali infrastrutture con un appropriato piano di Disaster Discovery.

La garanzia della continuità per un’attività lavorativa e la capacità di rispondere, da parte dei sistemi informatici, in maniera corretta ed efficace a situazioni di disastro sono aspetti vitali per le organizzazioni di lavoro. Il Disaster Recovery risponde proprio a queste necessità perché comprende una serie di misure utile per tutelare gli apparati di Information Technology da eventuali eventi critici. Il fine è quindi quello di scongiurare il pericolo che un incidente possa mettere a repentaglio le funzioni delle strutture organizzative. In particolare, il Disaster Recovery, prevede il ripristino dei dati e delle funzioni operative dopo un disastro, di qualunque natura esso sia. Come visto, però, le procedure da mettere in atto con un buon piano non sono mirate solamente a garantire il recupero dei dati in tempi compatibilmente brevi, ma anche ad evitare il verificarsi di certe situazioni con la prevenzione dei fattori rischiosi. In un contesto di lavoro affidabile e funzionale il Disaster Recovery è assolutamente indispensabile.

Lo stretto legame che intercede tra l’organizzazione di una attività e i sistemi informatici ha inizio nel XX secolo, allorché i responsabili dei centri di calcolo ne presero conoscenza. Da quel momento in poi si è compreso quanto fosse indispensabile attuare delle procedure atte a preservare i dati successivamente a un imprevisto o a un danno improvviso e a renderli nuovamente disponibili in breve tempo, sino alla formulazione delle Disaster Recovery. È da queste misure tecnologiche di reazione agli imprevisti, che spiegheremo i concetti di RPO e RTO.

RPO (Recovery Point Objective)

RPO è l’acronimo di Recovery Point Objective, traducibile con Obiettivo del Punto di Ripristino. Per comprendere appieno il contenuto di questa sigla dobbiamo conoscere il significato della parola ripristino nel campo dell’Information Technology, concetto che nello specifico indica il recupero di determinate informazioni che un utente digitale ha voluto preservare. Ogni dispositivo come computer e cellulare è dotato di un sistema di backup e ripristino, che consiste per l’appunto nel salvataggio di sicurezza dei dati e delle informazioni appartenenti all’utente per renderle successivamente disponibili in caso di danni e imprevisti. Inoltre, esistono altri metodi per il salvataggio dei dati: un esempio potrebbe consistere nelle piattaforme online gratuite o a pagamento messe a disposizione sulla rete, oppure nelle semplici applicazioni cloud installate di default sul proprio telefono cellulare; tuttavia sono presenti diversi livelli di importanza di salvataggio di dati e, nello specifico, le informazioni e i file gestiti dalle aziende potrebbero possedere un valore elevato tanto da richiedere un sistema atto a mantenere continuativamente il loro accesso anche in caso di grossi disastri. Il funzionamento di una piattaforma e-commerce, ad esempio, deve prescindere dal funzionamento di un singolo server, deve garantire l’accesso e l’acquisto online da parte dei clienti che utilizzano tale piattaforma, pena la perdita di ricavi che avrebbero dovuto esigersi attraverso il pagamento del cliente o del cliente stesso, che avrà deciso di non riporre più fiducia in quell’azienda.

Ed ecco che comprendiamo quanto sia importante il concetto di RPO, che può essere spiegato con le seguenti accezioni:

  • rappresenta un parametro di misura del tempo che intercorre tra l’ultimo salvataggio compiuto dal sistema (in cui tutto è correttamente utilizzabile) e il danno;
  • si spiega anche come il numero di volte cui è necessario compiere il backup dei dati affinché non vi sia una perdita ingente per il sistema;
  • è significativo della massima consistenza di dati cui si è disposti a perdere a causa di un problema (che sia esso esterno alla tecnologia, naturale o antropico, oppure interno ad essa, come un guasto o un hackeraggio).

Questo punto di backup e ripristino viene quindi regolato sulla base delle necessità che l’operatore ha, pertanto esso potrebbe essere innescato a distanza di giorni, ore o secondi, in stretta relazione all’importanza dei dati da preservare, sino ad un tempo nullo per garantire il completo funzionamento. Ovviamente, più corto è il tempo di RPO, più sono indispensabili politiche e sistemi altamente performanti e costosi.

Impostare un tempo di ripristino di 24 ore significa rischiare di perdere al massimo i dati prodotti nelle ultime 24 ore, e dunque il massimo che ci si aspetterebbe di perdere è proprio relazionato al tempo intercorrente tra un punto di recovery e l’altro, all’interno del quale può verificarsi il danno.

Implementare degli RPO è solitamente più semplice rispetto a quella degli RTO per via delle poche variabili disponibili, ma bisogna considerare l’alta variabilità del tempo di ripristino: infatti, tale tempo può dipendere dall’orario del giorno o da un particolare giorno nella settimana in cui avviene un disastro. Inoltre, il rispristino non è riferito solo ai dati, ma all’intera operazione. Per spiegare meglio, può accadere che il disastro imprevisto avvenga durante l’operazione di recovery, così interrompendola e causando una perdita di informazioni e operatività doppia rispetto a quello che si aspetta.

A tal proposito si è nominato anche il RTO, acronimo il cui significato è Recovery Time Objective, ovvero il tempo necessario affinché l’utente possa tornare effettivamente operativo, inclusivo dell’operazione di ripristino. Dunque, azzerare questo tempo significa permettere al sistema di non perdere neanche un secondo di disservizio. Anche in questo caso sono diverse le politiche di Disaster Recovery, tanto più costose e specifiche quanto più il tempo di ripristino desiderato è ridotto.

Qual è la differenza tra RPO ed RTO? Semplicemente l’oggetto cui fanno riferimento: mentre gli RPO hanno come oggetto i dati, e dunque la frequenza con la quale è necessario proteggerli affinché se ne perdano il meno possibile, gli RTO si basano sul tempo, essenziale per ritornare operativi sul sistema. Queste due soluzioni rappresentano in concreto una risoluzione delle due problematiche principali, ovvero l’interruzione dell’attività dell’utente/dell’azienda e la perdita di dati essenziali, causate dall’avvento di un danno al sistema.

Ma come si possono calcolare i tempi dell’RPO e dell’RTO massimi sui quali è necessario investire?

Un primo passo consiste nella elencazione di tutte le attività, le applicazioni, i sistemi sfruttati dall’azienda, così come degli utenti che le utilizzano, sino a comprenderne la reale utilità e importanza di ciascuna rispetto alle altre, giungendo così a stilare una lista di priorità, sulle quali indirizzare la maggior parte delle risorse. Effettuata questa prima operazione si deve provvedere a studiare i rischi incombenti, o meglio, annoverare tutte le perdite probabili e calcolare quelle massime che si è disposti a rinunciare. Durante il calcolo bisogna mettere in conto il periodo dell’anno o del mese in cui può avvenire il disastro imprevisto ed anche la singola applicazione come ne risentirebbe; questo permette di considerare tutte le probabili combinazioni fattori interferenti. Se tutte le applicazioni del sistema sono ugualmente influenti, allora il tempo di RPO e di RTO da attuare rappresenta la media tra tutti quelli calcolati, altrimenti ad incidere è il tempo riferito all’applicazione più influente (in percentuale). Terminate queste operazioni è possibile indagare sulla natura del business, dipendente dal sistema; dunque porsi delle domande in riferimento ai clienti, alla produzione, alla predisposizione e all’utilizzo di piattaforme che mettono in contatto azienda e cliente. In sostanza, è necessario comprendere il legame di causa effetto tra il danno e la propria utilità e per farlo può essere d’aiuto anche un corretto e costante svolgimento di simulazioni per testare le proprie soluzioni e prepararsi alle eventualità.

Per tirare le somme, è assolutamente importante essere a conoscenza delle politiche di Disaster Recovery al fine di poter preservare i propri dati e garantirsi un tempo adeguato di operatività successivamente ad un danno. La scelta studiata delle informazioni da proteggere influisce sulla corretta selezione dei tempi di RPO e di RTO e di conseguenza degli investimenti da compiersi per il conseguimento di degli obiettivi prefissati.

RTO (Recovery Time Objective)

RTO è l’acronimo di Recovery Time Objective, traducibile con Obiettivo del Tempo di Ripristino, ovvero uno dei parametri più importanti qualora si ponga l’esigenza di effettuare un ripristino di emergenza dei dati. Le aziende, per tale motivo, devono sempre affidarsi a specialisti e piani di backup che possano intervenire nel migliore dei modi per il recupero. Nello specifico si parla di RTO per indicare il tempo per il recupero dell’operatività di un sistema, quindi in sostanza del downtime.

A livello pratico si indica il Recovery Time Objective come la tempistica per la scrittura del backup effettuato su un disco. Per capire concretamente di cosa si parla, basti pensare che tale parametro risponde alla domanda: in quanto tempo possiamo tornare operativi? Ogni azienda ha un valore che si determina tenendo conto di tutti i passaggi che servono per l’IT. Può quindi essere un numero che interpreta pochi secondi o un investimento di margine più elevato. La differenza spesso è connessa alla tipologia di azienda e al tipo di reparto IT che lavora al problema. Ci sono priorità e rischi differenti ma l’obiettivo è ridurre questo tempo al minimo poiché è direttamente proporzionale alla perdita di denaro, soprattutto per le grandi aziende.

Per determinare il valore di RTO si tiene conto dell’esigenza reale dell’azienda e si studia quanto tempo questa può effettivamente sopravvivere in caso di down. Ovviamente è importante che vi sia un allineamento con chi si occupa di IT per determinare la velocità e confrontare la fattibilità dell’intervento. Se ad esempio c’è un problema che richiede un ripristino di due ore non è possibile chiedere al comparto IT di effettuarlo in un’ora.

Gli RTO sono molto complessi e impegnativi, l’obiettivo di tutti coloro che lavorano a livello professionale è ottenere un valore che sia zero o che si avvicini il più possibile. Cosa può creare un’emergenza e quindi un ripristino? In realtà, qualunque cosa. Da un blackout del sistema ad un furto, ad un danneggiamento del server fino ad attacchi informatici. La lista è veramente lunga e bisogna essere preparati al peggio per intervenire al meglio. I problemi sono inevitabili, la grandezza di un professionista che lavora bene nel suo business è sapere come fronteggiarli.

Si parla spesso di Recovery Point Objective ovvero il punto finale, prima della perdita dei dati. In pratica, quello che comunemente viene definito come ultimo backup. Questi solitamente sono periodici per le aziende e per gli enti e determinanti per la salvaguardia dei dati. Per strutturare un piano di Disaster Recovery in modo opportuno bisogna valutare una perfetta sinergia e pianificazione, prima ancora di intervenire sulle tempistiche di risoluzione.

La sicurezza in ambito informatico permette di preservare i sistemi, i dati e le infrastrutture e quindi di rendere funzionali e attivi business, imprese, associazioni. Negli anni l’idea di dover avere un piano di supporto e comunque delle dinamiche di risposta al problema molto basse ha acquisito un nuovo valore. Dagli anni Ottanta la consapevolezza e il valore del cloud computing è cambiata. Al punto che si è giunti a classificare la tipologia di problemi che può decretare la necessità di un intervento: da una parte casistiche naturali (tornado, inondazioni e simili), dall’altra guasti, bug informatici, cambiamenti improvvisi. Per lavorare bene bisogna avere la consapevolezza dei livelli del proprio disastro (qualora questo avvenga) e la criticità dei sistemi.

Da un punto di vista tecnico, per arrivare a comprendere l’impatto del Recovery Rime Objective bisogna controllare i meccanismi e le procedure da includere in un piano di Disaster Recovery. L’impresa pianifica in questo modo tutte le applicazioni da compiere in caso di problemi. A questo bisogna poi affiancare un Business Continuity Plan che permette di individuare tutti quegli aspetti legati all’IT (la parte che interviene e che determina appunto il valore RTO). Le misure che è possibile adottare, variare e migliorare per portare il livello di RTO vicino allo zero sono:

  • Misure di tipo preventivo: avere un’ottima struttura che permetta di evitare attacchi di tipo informatico, danni ai sistemi, blackout e comunque ogni tipologia di falla tecnica. Questa è l’unica modalità, dal momento che problemi derivanti da cause naturali non si possono prevedere.
  • Misure di tipo investigativo: controlli costanti dei sistemi, verifiche, relazioni su possibili eventi indesiderati, funzionalità del comparto IT.
  • Misure di tipo correttivo: sono tutte quelle che andranno compiute per ripristinare il sistema, è quindi fondamentale che vi sia massima cooperazione da parte dell’IT e soprattutto capacità di azione molto rapide.

Questi tre controlli devono lavorare in sincronia per ottimizzare al meglio gli interventi dell’IT e soprattutto ridurne i tempi.

Perché in caso di emergenza è importante che il valore RTO sia pari a zero o molto vicino? Basti pensare al valore che le aziende danno al comparto IT. Questo assorbe nei business che lavorano al meglio, almeno il 2% della spesa globale. Le imprese non possono permettersi la perdita dei dati, un disastro pesante, come dimostra il passato, può costare una perdita rilevante non solo in termini economici. Le stime ci dicono infatti che il 43% delle imprese che ha subito una notevole perdita di dati non ha mai più ripreso la sua attività, che il 51% ha chiuso entro i due anni e che solo il 6% è riuscita a sopravvivere.

Oggi sono tante le possibilità per coloro che vogliono affrontare e valutare le soluzioni di Disaster Recovery per portare i valori RTO al minimo. Un valore elevato può essere la causa della distruzione del piano stesso e di perdite ingenti. La metrica deve essere chiara e definita e soprattutto mappata all’interno dell’infrastruttura IT per definire strategie di intervento mirate come:

  • backup su dispositivi locali e su dispositivi da inviare fuori dalla sede fisica (Backup Remoto Delocalizzato);
  • sistema di archiviazione ad alta disponibilità per il mantenimento dei dati.
  • replica dei dati su apposite tecnologie che permettano facilmente di ripristinare i dati in caso di perdita;
  • Data center interni ed esterni per eseguire nell’immediato un failover sul sistema locale;

RTO è un valore che richiama sicuramente in campo RPO. Anche questo è un parametro molto importante, tuttavia è connesso ma indipendente da esso. RTO riflette in modo concreto le esigenze dell’azienda e quindi la sua sopravvivenza, è pertanto molto diverso da RPO che misura solo un insieme di dati. Esso ha un costo impegnativo ma è comunque fondamentale perché coinvolge tutta l’infrastruttura e non esclusivamente i dati. Valori bassi sono difficili da raggiungere, soprattutto se si vuole lavorare in modo esclusivamente automatizzato. Resta chiaro che è importante affidarsi a professionisti con esperienza per allineare tale valore alla fattibilità di ripristino in tempi stretti. Per lavorare al meglio bisogna implementare un’azione che consenta di risparmiare denaro e investire su RPO e RTO, gestendo in modo ottimale le risorse e le tempistiche.

Le tecnologie e le conoscenze moderne in realtà forniscono un’ancora di salvezza importante per le strategie di ripristino. Ciò vuol dire che con un buon lavoro è possibile diminuire i tempi RTO e quindi di inattività del sistema. La preparazione al problema è proprio la prima fase di navigazione, tuttavia questo è un concetto orchestrale, che ha valore solo nell’insieme di misure atte a prevenire e poi contrastare eventuali problemi. Non si può quindi pensare di massimizzare solo i livelli di intervento se non ci si adopera correttamente per la manutenzione e prevenzione su ogni livello di servizio.

Categorie
Information Technology

Sicurezza Informatica

Sicurezza Informatica

Con la rivoluzione digitale uno dei primi problemi sollevato da più parti è riconducibile alla sicurezza informatica. Il tema della protezione dei dati e delle informazioni che viaggiano telematicamente è sempre caldo e costantemente sotto la lente di ingrandimento. La tutela dell’operatività delle Pubbliche Amministrazioni, delle aziende private, dei liberi professionisti e dei singoli utenti è un argomento su cui si dibatte molto, proprio per condividere livelli di sicurezza sempre più elevati. Al centro dell’attenzione ci sono milioni e milioni di informazioni che, se non sistematicamente protette, mettono a serio rischio la funzionalità di intere organizzazioni lavorative. Per questo, nonostante gli enormi passi in avanti fatti in termini di sicurezza informatica, la tematica resta attuale e in continua evoluzione. In fondo, i malintenzionati non mancano e sono tanti anche in rete. Ora, una volta premessa la grande valenza della sicurezza informatica, nei paragrafi successivi entriamo nei particolari per approfondire la tematica in questione: cos’è la sicurezza informatica, quali sono i rischi degli attacchi in rete, i cambiamenti normativi e l’importanza della sicurezza dei dati per le organizzazioni di lavoro.

Per sicurezza informatica, in inglese information security, si intende l’insieme di mezzi e tecnologie utili per la protezione dei sistemi informatici. Mezzi e tecnologie rivolti alla salvaguardia della riservatezza, all’integrità e alla disponibilità di dati e informazioni gestiti da un’organizzazione. Una tutela mirata non solo alla difesa da attacchi diretti, ma anche alla protezione delle informazioni nei casi di calamità naturali o di problematiche accidentali. Nella sicurezza informatica vengono coinvolti elementi umani, organizzativi e tecnici. Ai fini della valutazione della sicurezza è generalmente opportuna l’individuazione delle minacce e dei rischi associati agli asset informatici, con lo scopo di difenderli da possibili attacchi che potrebbero causare enormi danni a una specifica organizzazione.

La sicurezza informatica interessa tante differenti attività: il livello applicativo, i dati, la rete e ancora altro. A confermare la delicatezza della tematica ci sono le grandi risorse finanziare destinate proprio alla sicurezza delle informazioni e dei dati. Investimenti di miliardi di euro, in cui sono impegnati numerosi Paesi per garantire agli utenti la massima tutela. In uno scenario del genere, il nostro Paese non fa eccezione, visto che di anno in anno aumentano anche in Italia gli investimenti in questa direzione. A spendere la maggior parte delle risorse destinate al campo della sicurezza informatica sono le grandi aziende, molto spaventate dai possibili attacchi in rete e dall’esigenza di conformarsi alle nuove norme europee sulla privacy. Investimenti facilmente comprensibili perché oggi tutti devono attenersi ai dettati internazionali in termini di privacy e contestualmente tutelarsi contro eventuali attacchi, specie le grandi imprese che senza un’opportuna protezione metterebbero a serio rischio infiniti carichi di lavoro e di informazioni. Soldi ben spesi, alla luce della delicatezza dell’argomento trasversale a tutte le attività lavorative e non solo.

La stragrande maggioranza degli attacchi in rete sono compiuti con metodi ormai conosciuti dagli operatori del settore: il malware (letteralmente software malintenzionato) resta uno dei principali vettori di attacco. In questi ultimi anni le imprese sono state interessate soprattutto da attacchi derivanti dal ransomware, un tipo di malware che non consente alcune funzioni del PC infettato e complesso da rimuovere. Naturalmente con tutti i passi in avanti fatti dalla sicurezza informatica, esistono alcune buone abitudini per limitare i rischi di cadere nella trappola del ransomware. In buona sostanza, tali regole comportano un’elevata attenzione verso gli aggiornamenti di software e applicazioni. I malware, infatti, sono pronti a sfruttare i difetti in termini di sicurezza presenti nei software ormai obsoleti. Per arginare i rischi è opportuno aggiornare i software e dotarsi di un antivirus all’altezza della situazione. Porre molta attenzione anche all’utilizzo della posta elettronica, rigettando senza aprire allegati sospetti. In linea di massima, anche l’effettuazione regolare di backup è una prassi da seguire costantemente. Per contrastare adeguatamente i cosiddetti cyber criminali esistono quindi i mezzi e le tecniche adatti, la cosa importante è conoscerli e metterli in pratica con frequenza. In questa logica, come vedremo più avanti, un aiuto importante arriva dalle specifiche figure professionali.

Come detto precedentemente, molti investimenti fatti dalle imprese negli ultimi anni sono giustificati dall’entrata in vigore del Regolamento Generale sulla Protezione dei Dati, il regolamento dell’Unione Europea in materia di trattamento dei dati personali e di privacy. Infatti, con tale regolamento, la normativa europea pone l’attenzione sulla sicurezza delle informazioni per tutelare i diritti delle persone in fatto di privacy. Diritti che non possono prescindere da adeguate misure in termini di sicurezza. Con l’introduzione del GDPR, al titolare competono alcune importanti responsabilità e ad egli spettano i compiti di valutare nell’ambito del suo contesto le misure opportune per la tutela delle informazioni. Un altro rilevante aspetto è legato alla corretta valutazione dei rischi ai quali i dati sono soggetti, con livelli di complessità diversi in base all’organizzazione lavorativa. In pratica, il Regolamento Generale sulla Protezione dei Dati, ha ulteriormente alzato il livello di attenzione sulla sicurezza e la privacy dei dati e le informazioni.

Se da una parte la gestione della sicurezza dei dati cambia in base alle dimensioni delle aziende, dall’altra è vero anche che è possibile fare riferimento ad alcuni principi basilari per meglio comprendere come ci si può proteggere. Una buona pratica di sicurezza informatica comunque non può prescindere dalle seguenti fasi:

  • individuazione degli asset da difendere;
  • misure adeguate per proteggere le informazioni (es: installazione firewall);
  • rilevazione del negativo evento;
  • stabilire le difese per contenere i danni fatti dall’attacco;
  • recover, per ristabilire le originarie condizioni (es. disaster recovery).

Procedure assolutamente necessarie da approntare per meglio rispondere ad eventuali problematiche. Per un’azienda stabilire un piano di sicurezza informatica adeguato alle circostanze è fondamentale per la sua operatività, per allontanare i rischi di attacchi o per risanare puntualmente situazioni gravose. Detto questo, i comportamenti interni all’azienda da parte dei lavoratori devono allontanare ogni forma di leggerezza. Ciò vuol dire che è completamente inutile installare appropriate misure di sicurezza informatica quando gli addetti cliccano su ogni cosa presente sulle email (es: link sospetti). Solo con le dovute accortezze da parte del personale, con un ottimo sistema di protezione e regolari scansioni si possono contenere i rischi di perdita delle informazioni a causa di informatici criminali. Altra buona consuetudine è quella di provvedere a regolari backup, un altro aspetto rilevante ai fini della sicurezza. La sicurezza informatica oggi per tutte le aziende e, per le organizzazioni di lavoro in genere, è diventata più che mai una strategica priorità. Per questo, il ricorso a veri e propri professionisti specializzati nell’information security, è sempre più frequente. Si tratta di specialisti in grado di assicurare il necessario sostegno, con tutte le competenze e l’esperienza del caso. Consulenti ai quali spetta il delicato compito di prevenire e contrastare adeguatamente eventuali attacchi degli hacker, con sistemi di sicurezza compatibili con le esigenze e le dimensioni di ogni realtà di lavoro.

Da questo punto di vista le imprese possono stare tranquille, in giro sul mercato di settore ci sono tanti bravi professionisti capaci di fare un ottimo lavoro a protezione dei dati informatici. Persone qualificate con una grande preparazione di base per confrontarsi con problematiche di diversa natura: gestione dei rischi, dei sistemi, sicurezza dei software, etc. Una preparazione generalmente acquisita durante specifici corsi di studi (laurea in informatica), spesso integrati da corsi di specializzazione e master, e con la pratica di qualche anno direttamente sul campo. Figure professionali sempre più richieste per la crescente dipendenza delle organizzazioni di lavoro dai sistemi informatici e a causa dei cambiamenti normativi (vedi GDPR). La grande domanda favorisce per questi esperti del settore uno scenario vantaggioso non solo dal punto di vista professionale ma anche in termini strettamente economici, anche se raramente i professionisti della sicurezza informatica vengono assunti dalle aziende con contratti di lavoro a lungo termine. La stragrande maggioranza di questi esperti, infatti, lavora in qualità di freelance. Chiaramente la concorrenza non manca, quindi per affermarsi come professionista della sicurezza servono professionalità, sacrifici e tanta buona volontà.

Categorie
Information Technology

Smart Working

Smart Working

Gli enormi progressi fatti anno dopo anno dalle nuove tecnologie informatiche hanno favorito di gran lunga lo sviluppo dello Smart Working, il lavoro agile particolarmente indicato per fronteggiare situazioni di emergenza. In Italia un termine diventato di uso comune con lo scoppio dell’epidemia del Coronavirus, a oggi pandemia, con la quasi totalità delle attività pubbliche e private costrette alla chiusura per causa di forza maggiore. Scelta o obbligo la pratica dello Smart Working è comunque in larga diffusione, specie in alcuni settori del mondo del lavoro. Un lavoro agile possibile anche e soprattutto grazie al costante potenziamento delle infrastrutture informatiche e all’implementazione dei servizi telematici. Senza tali presupposti praticare il lavoro agile sarebbe molto complicato se non impossibile. Ora scendiamo nei dettagli per meglio comprendere il concetto di Smart Working e l’importante funzione del lavoro agile per dare continuità all’operatività di fondamentali attività pubbliche e private. Una grande risorsa per Pubbliche Amministrazioni e aziende private.

Oggi tutti parlano di Smart Working, ma qual è il suo reale significato? Capirlo probabilmente non è una cosa così immediata né molto intuitiva. Secondo la definizione contenuta nella Legge 81/2017, lo Smart Working è incentrato sulla flessibilità organizzativa e sull’uso di strumenti tecnologici che permettono il lavoro da remoto. Si tratta di strumentazioni varie come PC portatili, tablet, smartphone che consentono di lavorare in maniera molto funzionale ed efficace anche a distanza. Un lavoro agile possibile in seguito ad accordi individuali di Smart Working, per tale ragione il Ministero del Lavoro e delle Politiche Sociali ha messo a disposizione delle aziende una specifica piattaforma informatica dove inviare tali accordi. Una pratica nel nostro Paese ancora in via di diffusione, un nuovo modello organizzativo che interviene tra l’azienda e i lavoratori dipendenti, fondata sulla flessibilità e autonomia nella scelta di spazi, orari e mezzi da usare per una maggiore responsabilizzazione dei risultati da perseguire. Una modalità di lavoro che punta dritto a rimuovere alcuni vincoli e vecchi modelli organizzativi di lavoro riconducibili a postazioni di lavoro fisse e a singoli uffici, principi che non si coniugano bene con flessibilità e virtualità.

Un approccio al mondo del lavoro sensibilmente differente, per una maggiore responsabilizzazione di tutte le figure appartenenti a un’organizzazione al fine del conseguimento dei risultati nei modi e nei tempi concordati. Alla luce di quanto visto finora, è quindi possibile riassumere le caratteristiche su cui principalmente si fonda lo Smart Working:

  • autonomia;
  • responsabilizzazione;
  • flessibilità;
  • fiducia;
  • collaborazione;
  • massimizzazione di strumenti e tecnologie moderne.

Con il lavoro agile, inoltre, tra l’azienda e i lavoratori dipendenti vengono previste misure organizzative e tecniche necessarie anche per garantire ai lavoratori la disconnessione dalle strumentazioni tecnologiche. Una pratica che ha favorito pure l’assunzione di particolari categorie di lavoratori con necessità di flessibilità oraria per esigenze personali, di famiglia o per motivi di salute (studenti lavoratori, neo genitori, etc.). Per terminare con il concetto di Smart Working, è opportuno sottolineare come il lavoro agile non sia una semplice misura di welfare aziendale, in quanto con questa pratica si innesca un vero e proprio percorso di cambiamento che necessita di modelli organizzativi nuovi. Un progetto che coinvolge, ognuno per le sue competenze, tutti gli attori dell’organizzazione lavorativa.

Analizzato profondamente il concetto di Smart Working, un processo di cambiamento che richiede di agire in diverse direzioni per modelli di lavoro diversi delle classiche organizzazioni, passiamo a vedere come funziona il lavoro agile. In tale logica, per un’ottimale organizzazione aziendale, oltre ovviamente alle risorse umane, occorre un sapiente utilizzo dell’innovazione digitale proprio per sostenere al meglio la collaborazione tra persone e organizzazioni lavorative. In un contesto del genere la tecnologia riveste un ruolo determinante, perché quando si parla di Digital Transformation ci si riferisce alla corretta applicazione di tecnologie all’avanguardia per la connessione di persone e spazi, al fine di far crescere la produttività e di garantire il coinvolgimento di gruppi di lavoro. Quindi lo Smart Working non significa solamente lavorare da casa e usare i sistemi informatici, ma sposare una causa finalizzata all’ottimizzazione di un modello organizzativo anche mirato al rafforzamento della collaborazione e alla condivisione degli spazi.

Nell’idea del lavoro agile l’ufficio di lavoro diventa “aperto”, lo spazio di lavoro è sostanzialmente quello che facilita la creatività dei lavoratori, favorisce idee innovative e contribuisce a generare relazioni che superano i confini aziendali tradizionali. Per un’organizzazione perfettamente funzionale basata sullo Smart Working è importante:

  • stabilire linee guida inerenti alla flessibilità oraria e all’opportunità di scegliere gli strumenti di lavoro;
  • fruire al meglio delle tecnologie informatiche, per ampliare e rendere virtuali gli spazi di lavoro, per sostenere modalità di lavoro più innovative e per semplificare le comunicazioni e le collaborazioni tra colleghi di lavoro e soggetti esterni. Un ruolo delle tecnologie digitali fondamentale per massimizzare i risultati stabiliti con un piano di Smart Working e per la qualità delle attività dei lavoratori nel contesto di lavoro;
  • una collaborazione costante tra i responsabili dell’organizzazione aziendale e i lavoratori dipendenti per favorire comportamenti che meglio si sposano con il lavoro agile.

Da qualche anno le istituzioni italiane sono consapevoli della possibilità del lavoro agile, di permettere ai lavoratori di operare in maniera flessibile rispetto a orari e luoghi tramite l’utilizzo di tecnologie informatiche. Una consapevolezza nata dai risultati positivi registrati negli ultimi anni in termini di qualità del lavoro. A confermare la convinzione delle istituzioni del nostro Paese, la Legge 81/2017, che ha previsto misure volte a facilitare una flessibile articolazione nei tempi e nei luoghi del lavoro subordinato. In virtù delle nuove misure e dei nuovi orientamenti, in Italia si stanno aprendo prospettive diverse in relazione alla gestione dei lavoratori, alle comunicazioni e ai flussi di lavoro. Un quadro normativo di riferimento implementato anche dalla Legge di Bilancio 2019, che ha previsto per i datori di lavoro che stipulano accordi per l’esecuzione delle prestazioni di lavoro in maniera agile, di dare priorità allo Smart Working in seguito alle domande di particolari categorie di lavoratori (es. lavoratori con figli in condizioni di disabilità). Chiari orientamenti che facilitano l’adozione di modelli organizzativi di lavoro in ottica Smart Working. Oggi dunque non è molto difficile immaginare un futuro molto più orientato, rispetto al passato, verso il lavoro agile. Uno scenario diverso, rispetto ai classici modelli organizzativi di lavoro, facilitato dall’Information Technology, da risorse digitali in continua evoluzione pronte a garantire agli utenti massima efficacia, velocità e sicurezza. Una logica conseguenza di una rivoluzione digitale in atto da anni nel nostro Paese come in altre parti del mondo.

Come facilmente comprensibile, lo Smart Working è dunque un concetto che interessa le organizzazioni lavorative e non il singolo professionista freelance. Quest’ultimo, un soggetto già abituato a lavorare fruendo della flessibilità oraria, in autonomia e con uso di applicazioni e software che gli permettono di lavorare in mobilità. Con il lavoro agile si tratta di modificare alcune consolidate abitudini lavorative per creare modelli organizzativi innovativi e funzionali alla causa. Una maniera anche per responsabilizzare maggiormente i lavoratori, per renderli più autonomi, coscienti dei risultati da conseguire e più consapevoli del lavoro in gruppo. Il tutto con il notevole apporto delle risorse informatiche, indispensabili per ottimizzare il lavoro e per le comunicazioni a distanza tra tutti gli attori coinvolti.

Categorie
Information Technology Virtualizzazione Windows

Hyper-V

Hyper-V

In un mondo come quello attuale, sempre più votato all’informatica, conoscere almeno in linea generale, alcuni concetti e meccanismi delle nuove tecnologie, è molto opportuno per meglio confrontarsi con i servizi telematici. Ignorare totalmente i concetti di base non impedisce la navigazione, le ricerche e gli studi in rete ma sicuramente non migliora l’utilizzo dei servizi telematici e molte volte non aiuta a risolvere alcuni semplici problemi. Negli ultimi tempi la virtualizzazione dei server si è evoluta parecchio, fino a diventare un’importante caratteristica del panorama IT. Le imprese di ogni dimensione hanno iniziato a fruire di determinati benefit per fronteggiare adeguatamente i continui cambiamenti del loro business. Le aziende virtualizzando i carichi di lavoro possono efficacemente verificare e contenere le spese e, contestualmente, migliorare la potenza e la flessibilità dei sistemi IT. Con Hyper-V, Microsoft ha oggi un ruolo di primo piano nello sviluppo delle tecnologie riconducibili alle tecniche di virtualizzazione. Informarsi su alcuni importanti meccanismi è dunque una buona regola per ottimizzare l’uso dei servizi telematici per massimizzare i risultati. Con questa guida nei paragrafi seguenti cercheremo di spiegare cos’è Hyper-V, come funziona e le sue principali caratteristiche.

Stiamo parlando di un prodotto Microsoft, utile per consentire la creazione e l’esecuzione di ambienti virtuali (software) su macchine fisiche (hardware). Con Hyper-V si ha la possibilità di creare delle macchine virtuali su sistemi che eseguono Windows. Un native hypervisor nato in sostituzione di Windows Virtual PC, in qualità di componente hardware virtualization. È possibile configurare un server utilizzato per l’esecuzione di Hyper-V per esporre individualmente macchine virtuali verso una o più reti. Con Hyper-V è possibile definire un ambiente cloud privato, consolidare server e mole di lavoro in computer fisici di maggiore potenza, ridurre i tempi di operatività, definire una Virtual Desktop Infrastructure (VDI) e riprodurre differenti ambienti di elaborazione senza la necessità di comprare o gestire tutto l’hardware in caso di utilizzo esclusivo di sistemi fisici.

Quindi un prodotto come Hyper-V è particolarmente indicato per la creazione di macchine virtuali. Ma cosa sono esattamente le macchine virtuali? Le virtual machine (macchine virtuali) sono software installati all’interno di sistemi operativi che simulano totalmente il funzionamento dei computer, consentendo parallelamente di installare un secondo sistema operativo. Per essere ancora più chiari e utilizzare parole più semplici, le macchine virtuali sono software utilizzati per la creazione di ambienti nei quali installare un secondo sistema operativo, differente dal sistema generalmente usato (comunemente chiamato sistema ospitante), in cui installare le applicazioni e i programmi desiderati. Ulteriori spazi a disposizioni da sfruttare a piacimento grazie a prodotti interessanti come Hyper-V.

Come ampiamente detto precedentemente, i software virtualizzanti simulano in pieno le funzioni dei computer fisici, con la mole di lavoro che ricade sull’hardware del computer utilizzato. Le gestioni delle risorse e, le diverse richieste per l’accesso a tali risorse fatte da programmi installati all’interno delle macchine virtuali, sono prese in carico dalla stessa macchina. Le comunicazioni tra i sistemi operativi ospitanti e i sistemi operativi ospitati si hanno tramite layer di virtualizzazioni. Layer di virtualizzazioni che consentono la traduzione dei comandi in arrivo alle e dalle macchine virtuali nel linguaggio dei sistemi ospitanti. L’installazione di una macchina virtuale su un computer comporta la preventiva conoscenza di alcune fondamentali informazioni informatiche. In tale logica è di primaria importanza appurare la sufficienza dello spazio sull’hard disk e avere una buona dimensione di memoria RAM da destinare al carico di lavoro della macchina virtuale. Presupposti indispensabili per l’installazione corretta su un computer di una macchina virtuale.

Le tecniche di virtualizzazione sono un ausilio importante per ridurre i costi e per garantire un’economia maggiore di scala e agilità. Hyper-V è una parte integrante di Windows Server, la piattaforma principale di virtualizzazione per le necessità attuali e per le possibilità di passaggio verso il cloud computing. Con Hyper-V è più semplice per le imprese fruire dei benefit della virtualizzazione per contenere le spese ottimizzando l’uso dell’hardware, consolidando su un solo host fisico, diversi ruoli server attivi in contemporanea. Un prodotto in grado di gestire in maniera efficace diversi sistemi operativi tra i quali Windows e Linux, in esecuzione parallela su un solo server.

Le caratteristiche garantite da Hyper-V sono diverse e importanti. Vediamo di seguito di raggruppare le principali funzionalità di questo prodotto:

  • dotazione di componenti virtuali di base come per un computer fisico (processore, memoria, rete, archiviazione, etc);
  • migrazione dell’archiviazione, importazione ed esportazione per facilitare lo spostamento o la distribuzione delle macchine virtuali;
  • creazione di copie delle macchine virtuali per gestire ripristini di emergenza;
  • massima affidabilità in termini di sicurezza delle macchine virtuali.

Sono tanti oggi i sistemi operativi regolarmente eseguiti su delle macchine virtuali, naturalmente per entrare nei dettagli di un prodotto efficace e sofisticato come Hype-V è buona regola conoscere almeno i concetti basilari e le sue caratteristiche principali.

Categorie
Information Technology

IT

Information Technology

L’implementazione, la sicurezza, la velocità e la facilità di accesso ai servizi di rete passano per metodi e strumenti informatici sofisticati e in continuo aggiornamento. Senza l’impegno, la competenza e l’esperienza di chi quotidianamente spende risorse e tempo per la buona pratica dei servizi informatici nulla di tutto questo sarebbe possibile. I passi in avanti fatti continuamente dalla tecnologia dell’informazione (Information Technology) sono sotto gli occhi di tutti e i risultati derivanti dall’applicazione delle nuove tecniche informatiche non sono minimamente in discussione. Oggi non esiste pubblica amministrazione, azienda o privato che non abbia beneficiato degli enormi progressi dell’Information Technology, sempre più presente nella nostra quotidianità. Nel nostro Paese, come in ogni altra parte del mondo, ai giorni nostri fare a meno dei servizi di rete e dell’automazione è praticamente impossibile. Allora passiamo di seguito a vedere cos’è l’IT (Information Technology), quali sono i settori interessati e i riflessi sulle nostre vite e sul mondo del lavoro.

Con il termine inglese Information Technology si fa riferimento all’insieme di metodi e tecnologie utilizzati in ambito privato, aziendale o pubblico ai fini dell’elaborazione, della trasmissione e dell’archiviazione delle informazioni e dei dati con il supporto di reti, PC, server e strumenti di telecomunicazioni come router, tablet, smartphone, datacenter, etc. In linea di massima, sui settori della comunicazione digitale, hardware e software si sviluppano le tecnologie IT. Tecnologie all’avanguardia oggi utilizzate diffusamente e su vasta scala nei contesti economici e sociali italiani ed esteri. Una rivoluzione digitale che ha praticamente coinvolto tutti i settori pubblici e privati, passando per ogni singolo cittadino e, naturalmente, cambiando radicalmente le nostre abitudini giornaliere e lavorative.

Comunemente il termine IT viene usato principalmente per fare riferimento a reti di computer e computer, in realtà comprende diverse altre tecnologie dell’informazione quali telefono, televisione e internet. Oggi il numero delle industrie riconducibili all’Information Technology non si contano, proprio per il veloce e capillare sviluppo in tutto il mondo della tecnologia dell’informazione. Tra le industrie maggiormente coinvolte è sufficiente ricordare quelle dei settori dell’elettronica, degli strumenti per la telecomunicazione, del commercio elettronico e del web design. Questi appena citati sono ovviamente solo alcuni esempi perché la lista delle industrie strettamente legate all’Information Technology è davvero lunga.

Nel corso dell’ultimo decennio Big Data, Internet, Intelligenza Artificiale, Cloud e Mobile Computing sono quindi tutte tendenze rapidamente affermate nell’ambito dell’Information Technology. Quest’ultimo, un termine che, a distanza di una cinquantina di anni, è più che mai attuale e rispettoso dei cambiamenti registrati negli ultimi decenni. Per meglio esprimere il concetto e per sintetizzare, l’Information Technology indica l’uso di elaboratori e mezzi di telecomunicazioni per lavorare, memorizzare, trasmettere e recuperare dati e informazioni.

Da quanto finora emerso non è difficile comprendere come l’Information Technology sia un settore trasversale a ogni attività, in quanto comprensivo di prodotti e servizi per comunicare, elaborare, connettere e condividere dati e informazioni. Un settore in continua espansione nonostante gli enormi progressi già fatti e riconosciuti in ogni campo. Un settore che comprende soprattutto:

  • tecnologie informatiche (sistemi operativi, software, portatili, telefono, applicativi);
  • connessione Internet per lo scambio di informazioni, grazie a sistemi particolarmente evoluti come la rete 5G, ideata proprio per velocizzare lo scambio di dati;
  • cloud computing e intelligenza artificiale per automatizzare i processi, anni fa svolti esclusivamente in maniera manuale.

Nell’ambito dell’Information Technology proprio il cloud computing e l’intelligenza artificiale sono tra i settori maggiormente coinvolti dagli investimenti e da un grande processo innovativo. Un processo innovativo destinato a continuare senza sosta anche in futuro e su cui continuare a investire milioni di euro.

Nel guidare le aziende lungo il cammino verso l’innovazione tecnologica e la manutenzione sono anni che l’Information Technology svolge un compito di primissimo piano. Nel campo aziendale gli addetti IT sono impegnati assiduamente nella scelta e la gestione di applicazioni, di tool digitali e in interventi per risolvere le criticità legate a siti web, ad account email e a tanto altro ancora. Figure indispensabili per un’azienda perché oggi non è possibile ottimizzare i lavori, migliorare la produzione e massimizzare le vendite senza l’ausilio delle nuove tecnologie e, di conseguenza, senza un ufficio capace di organizzare la struttura aziendale IT in maniera adeguata. Una risposta adeguata alla domanda di mercato è possibile solo attraverso alcune tecniche sofisticate e moderne.

Tra l’altro, i compiti dei dipartimenti IT delle aziende continuano a crescere, per questo le stesse aziende si vedono costrette a una rivalutazione dei loro ruoli. Detto questo oggi grazie, ad esempio, all’avvento del cloud computing (letteralmente in italiano nuvola informatica), in pratica l’erogazione di servizi offerti on demand tramite Internet, diversi servizi sono affidati direttamente a soggetti terzi. Soggetti terzi che garantiscono alle aziende strumenti di data management da remoto molto efficaci. Dipartimenti IT o soggetti terzi comunque la morale cambia poco o nulla, in quanto l’Information Technology resta alla base dell’operatività e della massima funzionalità di un’impresa. In fondo, mantenere aggiornati i dati e le informazioni sui clienti per migliorare la comunicazione tra aziende e utenti, sarebbe un compito piuttosto complesso prescindendo dalle nuove tecniche informatiche. La sfida delle aziende è dunque quella di restare al passo con i tempi, cosa possibile solo con un’informazione corretta sulle innovazioni, un modo assolutamente opportuno per rispondere adeguatamente ai cambiamenti di mercato e comprendere se e come applicare le moderne tecnologie alle proprie attività commerciali.

Categorie
Information Technology Networking Windows

DNS

Domain Name System

Oggi per la stragrande maggioranza delle persone il confronto con l’informatica è diventato un appuntamento quasi quotidiano. Per un approccio migliore con il mondo dell’informatica, più coscienzioso e con vera e propria cognizione di causa è opportuno conoscere almeno i concetti basilari. Collegarsi a Internet per navigare in rete per reperire notizie, per giocare online o, semplicemente per divertimento, è sicuramente possibile anche ignorando alcuni meccanismi ma, soprattutto per un’ottimale organizzazione aziendale e per massimizzare l’operatività di un’attività, alcune dinamiche non si possono affatto ignorare. Si tratta di conoscere, almeno a grandi linee, alcuni sofisticati sistemi che permettono la navigazione in rete in maniera veloce e sicura e facilitano di gran lunga l’accesso ai vari siti web. Con questa guida proveremo a spiegare il Domain Name System (DNS), per fare maggiore chiarezza su questo interessante argomento. Una volta fatte quindi le doverose premesse del caso, entriamo di seguito nei particolari per conoscere cos’è e quali sono le caratteristiche del DNS. Un meccanismo che, insieme ad altri, regola il funzionamento di Internet e permette agli utenti di visitare i siti e di beneficiare dei servizi collegati agli stessi.

In informatica, con il termine DNS, ci si riferisce al sistema dei nomi di dominio, un sistema usato per assegnare i nomi ai nodi della rete (host). Tali nomi possono essere usati attraverso una traduzione, comunemente chiamata risoluzione, al posto degli originali indirizzi IP. Un meccanismo informatico realizzato grazie a un database distribuito, costituito appunto dai server Domain Name System. Oggi quasi tutti sappiamo cos’è un dominio, quotidianamente scriviamo i domini sul browser ai fini della consultazione dei siti web, ma è fondamentale conoscere che in realtà, per i router, i server e, generalmente, per l’intera architettura di rete, il dato più rilevante è l’IP, il noto numero formato da 4 terzette divise dal punto. In parole molto semplici, la reale funzione del DNS, sistema degli indirizzi dei domini, è proprio quella di evitare di essere costretti a memorizzare l’indirizzo IP di ciascun sito web che si vuole consultare. Il Domain Name System è dunque un grosso archivio distribuito e gerarchico nel quale sono presenti la corrispondenza tra indirizzi IP e domini. Un sistema paragonabile per la natura della sua struttura gerarchica agli indirizzi postali (nazione, provincia, città, via e numero). L’organizzazione gerarchica del Domain Name System si sviluppa da destra verso sinistra, dove il valore primario viene chiamato top level domain. Dalla sua definizione e dalle sue caratteristiche si capisce quindi l’importanza del sistema DNS, estremamente utile per una veloce consultazione dei siti web di interesse e per evitare di dover ricordare gli indirizzi IP a memoria, cosa abbastanza complicata. Per capirci ancora meglio, i DNS e i loro server liberano gli utenti dal dover ricordare a uno a uno tutti gli IP dei siti web da visitare e parallelamente permettono alla rete di funzionare in base ai criteri del protocollo TCP/IP.

Chiarito il concetto di base, vediamo di comprendere la meccanica del Domain Name System, partendo sempre dal fatto che con i DNS si ha la possibilità di associare un host a un determinato indirizzo IP. Infatti, sappiamo che ciascun Personal Computer connesso alla rete ha il suo IP, un indirizzo paragonabile per semplificare a un numero telefonico: con la digitalizzazione di quel determinato numero è possibile raggiungere il PC al quale è stato assegnato. Proprio con lo scopo di facilitare la procedura di connessione ai server web è nato il sistema Domain Name System. Un sistema in virtù del quale si può consultare un computer remoto senza sapere l’IP ma tramite una stringa più semplice da memorizzare. La meccanica del DNS si basa su una sorta di registro (database distribuito) nel quale i nomi di dominio sono associati a specifici indirizzi IP. Molto praticamente: gli utenti digitano una URL nel browser, quest’ultimo a sua volta, interpella il Domain Name System, con lo scopo di instradare la connessione verso l’indirizzo del server remoto. Il tutto grazie alla struttura particolare del sistema: gerarchica e distribuita. Singolari caratteristiche che fanno del Domain Name System un sistema sicuro, con i dati non centralizzati in un solo punto, e capace di reggere più facilmente la grande mole di lavoro. Un sistema informatico organizzato ad albero con un punto di origine, al di sotto del quale ci sono i Top Level Domains: es. it, org, net, com, eu.

Solitamente, al momento di comprare un dominio, all’acquirente viene fornito un pannello per gestire il DNS (Domain Name System). Numerosi Hosting Provider comunque assicurano un servizio con un sistema DNS precompilato, ciò non toglie affatto che sapersi muovere per inserire particolari configurazioni non sarebbe male. In buona sostanza, il fornitore presso il quale comprare il dominio permette di fare delle operazioni dentro l’infrastruttura Domain Name System, che fa parte dell’organizzazione gerarchica e ad albero dei DNS mondiali. Una volta all’interno della propria porzione DNS, è possibile fare delle operazioni come, a titolo di esempio, prevedere l’IP primario al quale è associato il nome a dominio e stabilire dei sotto domini. Operazioni ovviamente effettuabili solo da parte di chi ha una buona conoscenza delle tematiche in questione e, sicuramente, non da chi ha una scarsa visione di questi strumenti informatici. Infatti si tratta di operazioni che richiedono di una certa competenza ed esperienza.

Può sembrare superfluo, invece gestire correttamente un Domain Name System dei domini è una cosa importante, chiaramente soprattutto per coloro intenzionati a lavorare nel settore riconducibile ai servizi di rete. Questo perché le configurazioni di default possono tranquillamente bastare per gli usi semplici, mentre per delle ambiziose progettualità è necessario conoscere bene il funzionamento e le caratteristiche del Domain Name System. Principi, in quest’ultimo caso, da cui non si può prescindere per una migliore ottimizzazione dei servizi di rete. Per concludere, come altri strumenti informatici di pari importanza, il Domain Name System riveste un ruolo fondamentale per la funzionalità dei servizi di rete e per un utilizzo più semplice e veloce degli stessi.

Categorie
Information Technology Networking Windows

DHCP

Dynamic Host Configuration Protocol

Per massimizzare il lavoro di qualunque attività oggi è pressoché impossibile rinunciare ai servizi telematici, un errore quasi imperdonabile da non commettere assolutamente. Servizi altamente affidabili, veloci e che garantiscono livelli di sicurezza ottimali. Conoscere bene i sofisticati sistemi informatici che rendono efficaci tali servizi è sicuramente una buona regola. Al contrario, ignorarli potrebbe compromettere i buoni propositi di partenza e i risultati sperati. Spesso infatti sentiamo parlare di termini informatici dei quali non conosciamo minimamente il significato, quando invece sarebbe opportuno approfondire l’argomento perché riconducibili a sistemi con molteplici funzionalità importanti. Con questa guida proveremo a spiegare nei seguenti paragrafi esattamente cos’è il Dynamic Host Configuration Protocol (DHCP), per capirne l’esatto significato, comprenderne le funzionalità, le principali caratteristiche e i numerosi benefit garantiti da questo protocollo informatico.

Prima di entrare nel dettaglio, vedere quali sono le sue funzionalità e a cosa serve il DHCP, cerchiamo di capire di cosa esattamente si tratta. Il Dynamic Host Configuration Protocol non è altro che un protocollo usato per la fornitura di un sistema di gestione centrale per la distribuzione di indirizzi IP all’interno di una determinata rete. Dunque trattasi di un protocollo alla base dell’uso giornaliero di Internet da qualsiasi device: Personal Computer, smartphone, smart TV, tablet e altro ancora. Con una smart home, proprio grazie al DCHP, è possibile la connessione a internet dei singoli device. Il protocollo Dynamic Host Configuration Protocol è dunque generalmente usato per l’assegnazione degli indirizzi IP ai dispositivi elettronici da connettere con la rete. Da queste poche righe si capisce già l’importanza di tale protocollo, il ruolo che riveste ai fini di una corretta assegnazione degli indirizzi IP. Una volta spiegata la natura del DHCP passiamo a vedere come funziona questo protocollo.

Ogni dispositivo elettronico, ai fini della connessione a una rete, necessita di un regolare indirizzo IP per l’identificazione. Agli inizi questo processo era addirittura manuale, nel senso che gli utenti interessati alla connessione dovevano direttamente assegnare un indirizzo IP al computer. Con lo sviluppo di reti sempre più complesse e sofisticate, in riferimento soprattutto alle reti aziendali, si cominciò a pensare di assegnare automaticamente gli indirizzi IP attraverso un apposito sistema. In parole semplici, si iniziarono a gettare le basi di quello che poi sarebbe diventato il Dynamic Host Configuration Protocol. Ai giorni nostri i router e i server DHCP infatti sono totalmente automatizzati e sono vincolati a un processo standardizzato per l’assegnazione degli indirizzi IP ai dispositivi da connettere alla rete. In pratica, nel momento in cui un client (Personal Computer, smart TV, tablet, smartphone, etc.) si collega alla rete, invia un segnale al server Dynamic Host Configuration Protocol che, a sua volta, risponde assicurando un indirizzo IP e spiegando le regole per l’accesso. Il client fa sue le informazioni e chiede al server l’autorizzazione all’utilizzo dell’IP offerto precedentemente. Arrivati a questo punto del processo, il server Dynamic Host Configuration Protocol accetta la richiesta e il client può tranquillamente effettuare la connessione con l’indirizzo IP assegnatogli. Passaggi automatici e veloci, ma allo stesso tempo sicuri, affidabili e necessari.

Gli indirizzi IP contrattati tra server e client non durano in eterno. Infatti, una volta accettati dal client, hanno una durata pari a un numero di giorni preciso, scaduto tale termine c’è bisogno della negoziazione di indirizzi IP nuovi. Se a richiedere il nuovo IP è il medesimo client, generalmente riceve lo stesso indirizzo utilizzato precedentemente, chiaramente da usare sempre per un numero di giorni prestabilito. Invece, di fronte all’assenza di una richiesta di rinnovo, il server è completamente libero di assegnare quell’indirizzo IP a un altro client. Per tale ragione questo protocollo è detto dinamico.

Oltre agli indirizzi IP dinamici, in giro esistono anche gli IP statici. Indirizzi che per la loro natura non cambiano mai e sicuramente maggiormente indicati in alcuni casi. Le stampanti di rete, giusto per fare un esempio, sono rintracciabili più facilmente se dotate sempre dello stesso IP. Il processo ai fini dell’assegnazione di un IP statico comunque cambia a seconda del router, anche se resta legato all’indirizzo MAC del dispositivo elettronico, in maniera tale che l’indirizzo statico possa essere sempre riconducibile a quel determinato client.

La stragrande maggioranza dei benefici riservati dall’utilizzo del DHCP è direttamente legata alla principale funzione. Vediamo di seguito quindi quali sono i vantaggi garantiti da questo protocollo:

  • configurazione automatica alla rete, per questo il DHCP è usato universalmente nella quasi totalità dei dispositivi elettronici;
  • con un DHCP la gestione della rete è più semplice, in quanto ciascun dispositivo può ricevere un IP usando le configurazioni di rete predefinite;
  • con il protocollo DHCP è possibile proteggere la propria rete WIFI, per evitare che qualcuno acceda alla rete senza alcuna autorizzazione;
  • opportunità di stabilire le configurazioni TCP/IP direttamente da una posizione centrale;
  • gestione di modifiche agli indirizzi IP efficace per tutti quei client che necessitano un frequente aggiornamento: i portatili che si spostano continuamente in diversi percorsi nell’ambito di una rete wireless.

Questi sono solo alcuni dei principali vantaggi garantiti dal protocollo Dynamic Host Configuration Protocol, naturalmente ce ne sono altri.

Ciascun dispositivo elettronico per connettersi correttamente a una rete e accedere alle risorse relative deve avere il suo indirizzo. Senza il Dynamic Host Configuration Protocol, per i nuovi PC è necessario configurare manualmente l’indirizzo IP. Un’operazione sconsigliabile viste le grandi risorse informatiche del protocollo DHCP. Infatti, come già precedentemente sottolineato a chiare lettere, con il DHCP l’intero procedimento di assegnazione dell’IP avviene in maniera del tutto automatica. Alla luce di questa opportunità appare anacronistico effettuare alcune operazioni ancora manualmente, quando esistono soluzioni tecnologicamente avanzate e affidabili. Sarebbe solo un modo per perdere più tempo e per complicarsi ulteriormente la vita. Per dirla in breve e per concludere: con i tempi che corrono non utilizzare un protocollo come Dynamic Host Configuration Protocol sarebbe un tuffo sbagliato nel passato.

Categorie
Information Technology Windows

AD DS

Active Directory Domain Services

Privacy, sicurezza e archiviazione delle informazioni online sono temi molto dibattuti perché si tratta di tematiche delicate e di grande importanza. Temi assolutamente mai passati di moda in quanto i servizi telematici sono in continua evoluzione, interessano milioni di utenti tra aziende e privati cittadini e meritano tutte le attenzioni del caso. In questa guida, nello specifico, ci occuperemo di spiegare cos’è AD DS (Active Directory Domain Services). Un argomento sicuramente interessante e da conoscere da parte di chi vuole utilizzare i servizi online con maggiore coscienza e sicurezza.

Partiamo dal principio che una directory è una struttura gerarchica destinata a archiviare i dati sugli oggetti sulla rete. In tale logica, un servizio come Active Directory Domain Services fornisce specifici metodi per archiviare le informazioni della directory e renderli disponibili agli amministratori e agli utenti della rete. I servizi di dominio AD archiviano i dati sugli account degli utenti: password, nomi, numeri di telefono, etc. e permettono ad altri utenti, regolarmente autorizzati dalla rete stessa, di effettuare l’accesso a questo genere di fondamentali informazioni. In buona sostanza, AD (Active Directory) archivia i dati relativi agli oggetti sulla rete e facilita le ricerche e l’utilizzo di tali dati da parte di utenti e amministratori. Per farlo, utilizza una struttura di archivio dati come base per una logica e gerarchica organizzazione delle informazioni di directory.

L’archivio dati usato da Active Directory, anche conosciuto quale directory, contiene dati sugli oggetti. Generalmente tali oggetti sono comprensivi di risorse condivise, come ad esempio server, computer di rete, stampanti, account utenti e altro ancora. La sicurezza è volutamente integrata con Active Directory attraverso un sistema di autenticazione di accesso e di controllo di accesso agli oggetti. Livelli di sicurezza altissimi per garantire i dati agli utenti con la massima privacy. Con un accesso unico alla rete, gli amministratori hanno la possibilità di gestire le informazioni e l’organizzazione della directory in rete mentre gli utenti regolarmente autorizzati possono effettuare l’accesso alle risorse disponibili in qualunque punto della rete stessa. L’amministrazione fondata su logici criteri facilita la gestione pure in tutti quei casi di reti molto complesse. Un’amministrazione è quindi in grado di soddisfare piccole reti ma anche reti di un’elevata complessità. Si tratta di sistemi altamente tecnologici e funzionali per ogni contesto, chiaramente sistemi da adeguare a ciascuna circostanza in modo logico per ottimizzare i risultati.

L’Active Directory include pure:

  • uno schema per definire le classi degli oggetti compresi nella directory, i limiti per le richieste di tali oggetti e i formati dei relativi nomi;
  • un catalogo comprensivo dei dati su ogni oggetto nella directory. Gli amministratori e gli utenti, in questa maniera, possono individuare i dati relativi alla directory a prescindere dal dominio nella directory che comprende realmente le informazioni. I server detentori dell’importante ruolo di catalogo globale vengono destinati a facilitatori per query extradominio;
  • un meccanismo di indice e query, in maniera tale che gli oggetti possano essere individuati e pubblicati dalle applicazioni di reti oppure dagli utenti;
  • un servizio di replica, quest’ultimo utile per distribuite le informazioni di directory nella rete. In un dominio, ogni controller di dominio, partecipa alla replica e contiene una completa copia dei dati di directory per il relativo dominio. Qualsiasi modifica alle informazioni è replicata così in ogni controller di dominio del dominio.

Alla luce di quanto visto finora, il servizio di dominio Active Directory può di molto facilitare la gestione di reti semplici, ma anche di reti di grande complessità. Naturalmente è una buona regola riuscire a trovare l’equilibrio giusto per semplificare le operazioni da fare. A titolo puramente esemplificativo: in caso di una ventina di postazioni in una sola sede, per facilitare la gestione è possibile la creazione di un dominio singolo e magari diverse unità organizzative. Diversamente, di fronte alla presenza di numerose sedi, la cosa migliore da fare per semplificare la gestione è riconducibile alla creazione di un numero di sottodomini pari al numero di sedi. Tutte strategie utili a ottimizzare i lavori e per sfruttare al meglio le tecnologie messe a disposizione dagli strumenti online. Active Directory Domain Services è funzionale per qualsiasi realtà, basta usare gli strumenti opportuni contestualizzandoli alle architetture in questione. Lavorare online con la consapevolezza di beneficiare di servizi telematici efficienti, funzionali, veloci e sicuri è possibile solo grazie a sofisticati sistemi come AD DS (Active Directory Domain Services). Senza tali sistemi e le funzionalità offerte dagli stessi la privacy, la sicurezza e l’archiviazione dei dati degli utenti sarebbero seriamente compromesse. Oggi specialmente per un’azienda fare a meno di questi fondamentali sistemi è pressoché impossibile.

Categorie
Information Technology Windows

DC

Domain Controller

Con i milioni di utenti collegati ogni giorno alla rete da tutte le parti del mondo e tutte le informazioni che circolano quotidianamente online, la protezione dei dati è di fondamentale importanza per qualsiasi tipo di attività. La protezione delle informazioni è un tema ricorrente quando si parla di servizi telematici, molto discusso e sempre attuale proprio per la delicatezza e la rilevanza della sua natura. La perdita dei dati infatti potrebbe comportare un’enormità di problemi dal punto di vista operativo, un rischio da non correre assolutamente per non compromettere il lavoro fatto.

Discorso identico nel caso in cui le informazioni finiscono in brutte mani, cioè nella disponibilità di qualche malintenzionato. In questa logica, prevenire è molto meglio che curare, ecco perché per la sicurezza informatica un Domain Controller ricopre un ruolo di primo piano. Un’efficiente forma di tutela per non essere costretti a gestire situazioni spiacevoli e difficili da sanare. Passiamo allora a vedere insieme di seguito cos’è realmente un Domain Controller, la sua funzionalità e le sue caratteristiche principali.

In informatica con il termine Domain Controller ci si riferisce a uno specifico server, che nell’ambito di un determinato dominio, ha la funzione di gestire le richieste degli utenti desiderosi di accedere a precise informazioni o ad aree del dominio in questione. In origine, con tale termine, si faceva riferimento a un sistema funzionante solamente nelle reti sotto la gestione dei sistemi operativi server di Microsoft Windows. A differenza del passato, oggi invece il concetto di DC (Domain Controller) è riconducibile anche a sistemi con funzioni simili appartenenti a tecnologie diverse da Microsoft. Viste le particolari e delicate funzioni portate avanti dal Domain Controller, implementare tale sistema è molto utile per allontanare alcuni rischi che metterebbero in difficoltà l’operatività di un’attività: copia non autorizzata delle informazioni.

Per riepilogare, nel campo informatico, nelle reti la cui gestione dipende dall’Administrator, un Domain Controller non è altro che un server che, all’interno di un dominio, tramite Active Directory (AD), gestisce le richieste di autenticazione: verifica dei permessi, login, etc. Stiamo parlando di controlli indispensabili in termini di protezione dei dati.

Una volta chiarito il concetto, ora passiamo a vedere come funziona un Domain Controller. Partiamo quindi dal presupposto che un DC, nello specifico, organizza la struttura di un determinato dominio in utenti, gruppi e risorse di reti. Per effettuare l’accesso alle differenti sezioni oppure, generalmente, per fare accesso a specifiche informazioni presenti su un sito web, gli utenti devono svolgere alcuni obbligatori passaggi. Passi necessari, senza i quali i dati sono preclusi e dunque non possono essere visti in alcun altro modo. Ecco, il Domain Controller ha il compito di gestire le richieste di accesso tramite un sistema di autenticazione fondato su delle login e delle password. Una funzione enormemente importante perché il DC assicura la sicurezza di chi effettua l’accesso ai dati.

In questa specifica logica, a ciascun utente corrisponde un preciso account e a ciascun account sono collegati dei precisi livelli di profilazione. Vale a dire, livelli privilegiati per accedere a determinate aree e per compiere le operazioni consentite dall’account. In parole semplici, ciascun utente ha l’opportunità di entrare in queste aree senza sconfinare, senza alcuna possibilità di effettuare operazioni non previste dal suo account.

Come visto in precedenza, la gestione delle richieste di autenticazione da parte di un Domain Controller, nelle reti gestite dall’Administrator, avviene tramite Active Directory (AD). Creato con l’arrivo di Windows 2000 Server, l’Active Directory serve per avere un database con tutti i dati riconducibili agli oggetti dell’infrastruttura: gruppi, utenti, computer e altro ancora. Una maniera per facilitarne l’accesso e lo scambio delle informazioni in modo del tutto sicuro. Tra le caratteristiche principali di Active Directory è da segnalare la possibilità di estendere il singolo schema per aggiungere valori, colonne e proprietà. Inoltre, diverse applicazioni, usano Active Directory con lo scopo di aggiungere le loro funzionalità e i loro elementi.

Categorie
Information Technology Networking Windows

VPN

Virtual Private Network

Con la larga e veloce diffusione dei servizi telematici e con milioni di utenti quotidianamente collegati alla rete per intere ore, la privacy e la sicurezza dei dati sono messe a dura prova. Per rispondere efficacemente alla tutela delle informazioni esiste la VPN (Virtual Private Network), una rete privata che assicura anonimato e sicurezza tramite un riservato canale di comunicazione: tunnel VPN. Ma vediamo nei paragrafi successivi cos’è realmente una VPN, come funziona e perché è importante.

La VPN è dunque una rete privata virtuale, in quanto i dispositivi appartenenti alla rete possono essere dislocati in qualunque posto e non per forza essere direttamente collegati a una stessa LAN locale. Un servizio di rete utilizzabile per criptare il traffico e per tutelare le identità online. In campo aziendale, una Virtual Private Network, è paragonabile a una estensione della LAN e consente il collegamento dei siti della stessa azienda dislocati sul territorio in modo assolutamente sicuro. L’uso delle VPN è riconducibile principalmente agli ambiti aziendali e alle pubbliche amministrazioni, specie per l’opportunità di contenere i costi al momento di realizzare una propria rete fruendo regolarmente dell’infrastruttura di una rete pubblica. Un utilizzo comunque non affatto esclusivo perché la Virtual Private Network viene preferita anche da diversi utenti privati, coscienti in questo modo di scambiare dati online senza restrizioni e in modo totalmente sicuro. Diversi provider, tra i servizi disponibili, danno la possibilità di fare una scelta dei protocolli da usare per la connessione: server VPN allestito all’interno della rete privata/aziendale o invece collegandone uno gestito da terzi. In ogni caso, indipendentemente dalla scelta del protocollo da utilizzare, una VPN è importante in quanto le informazioni che girano su Internet, senza un’ottimale protezione, possono essere intercettate attraverso le tecniche di sniffing da chiunque e per fini differenti, anche cioè per scopi di natura fraudolenta.

Le reti virtuali VPN si distinguono in reti ad accesso remoto e in reti site-to-site. Con la connessione ad accesso remoto gli utenti possono accedere, attraverso la rete internet, a un server su una rete privata. È il caso, ad esempio, dello smart working. Una tipologia di connessione paragonabile a un collegamento tra il server di un’azienda e un Personal Computer client VPN. Invece la connessione site-to-site viene usata per la connessione in una rete privata, con l’apporto sempre di una rete pubblica, di uffici dislocati in varie sedi, permettendo il routing e garantendo comunicazioni sicure. In un contesto del genere, tutte le sedi avranno un router dedicato, permettendo la condivisione dei dati con le sedi remote in maniera sicura e trasparente.

È possibile differenziare la rete VPN site-to-site in due sotto categorie:

  • Virtual Private Network-Intranet:
    quando c’è l’unione di più sedi di una medesima azienda;
  • Virtual Private Network-Extranet:
    quando ad essere unite all’organizzazione sono aziende esterne.

Visto che l’infrastruttura di rete usata dalle Virtual Private Network è Internet, naturalmente servono gli accorgimenti per il superamento dei limiti che caratterizzano una pubblica rete priva di protezione: tunneling, autenticazione e crittografia. Misure indispensabili ai fini della protezione e della sicurezza dei dati. Con il meccanismo del tunneling è prevista l’instaurazione di un sicuro tunnel tra due remote entità, abilitate alla realizzazione di una VPN. A loro volta, le estremità del tunnel, nel corso del logico procedimento, diventano adiacenti virtualmente. Le informazioni, una volta arrivate all’entrata del tunnel, anche se facenti parte di diversi protocolli, vengono imbustate ulteriormente dal protocollo di tunneling e poi inviate sulla rete verso l’uscita, dove raggiungono la destinazione, una volta rimosso l’imbustamento.

Dalla tipologia di protocollo dipende invece il procedimento di autenticazione. Un processo utile ai fini dell’autorizzazione all’accesso e per garantire la trasmissione delle informazioni. Al di là del tipo di Virtual Private Network utilizzato, per connettere un client e il server ci sono diversi passaggi da fare. Fasi che possono essere così riassunte:

  • il server viene contattato dal client;
  • il server dà notifica della presenza;
  • al server viene richiesta l’identificazione da parte del client;
  • il server controlla la corretta autorizzazione in seguito alla prova di connessione;
  • il server, una volta effettuato il controllo, concede l’autorizzazione alla comunicazione con il client;
  • comincia così la comunicazione tra le parti.

Tutti passaggi necessari ai fini di una corretta autenticazione.

Per la riservatezza dei dati e, per la trasformazione delle informazioni leggibili tramite un algoritmo digitale in informazioni codificate, è invece indispensabile la crittografia. Dal protocollo utilizzato dai fornitori dei servizi dipende la tipologia di cifratura. Per quanto riguarda gli algoritmi necessari per la cifratura, essi si differenziano in asimmetrici e simmetrici.

Riassumendo, una VPN è molto indicata per una connessione sicura tra gli utenti e internet. Con la Virtual Private Network, il traffico delle informazioni passa tramite un tunnel criptato. Per effetto di tale meccanismo gli utenti beneficiano dell’anonimato, in quanto gli indirizzi IP e le posizioni non sono più visibili, il tunnel allontana gli hacker e rende i dispositivi meno vulnerabili. Inoltre, usando i differenti indirizzi IP, è possibile l’accesso a siti e servizi altrimenti bloccati. A caratterizzare una VPN sono dunque tre elementi principali: privacy, sicurezza e libertà. Una VPN assicura la massima sicurezza di navigazione in quanto cripta totalmente il traffico online. Questo perché, prima che il traffico dati arrivi al server, viene instradato in un tunnel con livelli di sicurezza altissimi. Difficile in questo modo per i malintenzionati intercettare le informazioni degli utenti. Parallelamente gli indirizzi IP degli utenti vengono nascosti al momento della connessione con il server Virtual Private Network, e si tramutano nell’IP del server. Per finire, la maggiore libertà assicurata da una VPN è riconducibile al fatto che permette la connessione a server di ogni parte del mondo.

Categorie
Information Technology Networking Virtualizzazione Windows

Administrator

La Figura Professionale dell’Amministratore di Sistema

Le nuove tecnologie e i servizi di rete già da molto tempo hanno radicalmente cambiato le nostre abitudini e, oggi farne a meno, per svariate comprensibili ragioni, è pressoché impossibile. Una logica conseguenza di un mondo che viaggia a mille all’ora e pronto sempre a dare il benvenuto a metodi e tecnologie informatiche innovative e molto funzionali alla causa. Per la pubblica amministrazione e le aziende private i tanti benefit garantiti dai progressi costanti fatti dall’Information Technology sono enormi, indiscutibili e sotto gli occhi di tutti. Oggi migliorare l’operatività di un’attività e massimizzare i risultati è possibile solo con la capacità di saper sfruttare al meglio i servizi di rete. Prescindere da tali concetti vuol dire per una pubblica amministrazione o per un’impresa operare con il freno a mano tirato. In poche parole, significa non stare al passo con i tempi, procedere a piccoli passi e dare un assist alla concorrenza di mercato. In un contesto del genere, la figura professionale dell’amministratore di sistema è indispensabile più che mai. Ma cosa fa l’amministratore di sistema e perché occupa un ruolo così importante in uno scenario mondiale sempre più tecnologico e all’avanguardia? Vediamolo insieme nei paragrafi successivi per comprenderne il reale valore e i riflessi di questa figura professionale sul mondo del lavoro. Scopriamo la rilevanza del ruolo, i compiti, gli studi, i corsi di formazione e la pratica da fare e le possibilità occupazionali di un amministratore di sistema.

L’amministratore di sistema è la figura professionale impegnata per il buon funzionamento delle infrastrutture informatiche, dalle più semplici a quelle di un elevato livello di complessità. Da queste poche righe si capisce subito il carico enorme di responsabilità perché il compito principale di un amministratore di sistema è quello di assicurare la continuità di macchine spesso molto complesse per la loro stessa natura. L’amministratore di sistema si confronta costantemente con infrastrutture informatiche altamente sofisticate, di un livello di difficoltà altissimo anche per chi possiede competenze ed esperienze all’altezza della situazione.

Un amministratore di sistema è direttamente responsabile delle seguenti operazioni:

  • gestione degli utenti nel sistema;
  • costante controllo e mantenimento del sistema informatico;
  • controllo del funzionamento delle periferiche e delle macchine;
  • installazione dei software necessari;
  • creazione e gestione dei file system delle macchine;
  • creazione dei backup dei dati ed eventuale recupero;
  • monitoraggio della connessione di rete e delle prestazioni del sistema;
  • aggiornamento dei sistemi operativi e dei software applicativi;
  • attuazione delle politiche per l’uso corretto del sistema informatico.

Alla luce dei compiti e delle grandi responsabilità sopra descritte l’amministratore di sistema deve possedere delle grandi competenze, una figura professionale di alto livello che non può prescindere da determinate conoscenze del campo. Ecco perché un amministratore di sistema perfettamente in linea con il delicato lavoro da svolgere deve assolutamente conoscere i sistemi operativi Windows, i principi fondamentali riconducibili alle configurazioni delle reti, la sicurezza dei sistemi, la configurazione degli applicativi, i linguaggi di programmazione usati per lo scripting e avere una conoscenza approfondita della sicurezza informatica (es. sistemi che rilevano le intrusioni e firewall). Compiti, responsabilità, conoscenze ma anche produzione naturalmente della documentazione per la certificazione dei sistemi. Un lavoro particolarmente delicato sicuramente non alla portata di tutti, ma indicato solo per chi ha acquisito una grande conoscenza del campo e per chi possiede un alto senso di responsabilità. Caricarsi sulle spalle la totale funzionalità di sistemi informatici propedeutica alle buone pratiche della pubblica amministrazione o all’operatività di un’azienda non è affatto facile.

Spesso, infatti, questa figura professionale si trova a dover confrontarsi con problematiche di non semplice risoluzione e con tempi veramente ristretti. Per questo, una delle grandi capacità dell’amministratore di sistema è strettamente collegata al problem solving, chiaramente una capacità da abbinare pure e non solo a una grande pazienza di base. Per passare intere giornate lavorative a risolvere problemi informatici, oltre a una grande passione, ci vuole dunque un’innata pazienza. Nel momento in cui le workstation e i server registrano un malfunzionamento, l’amministrazione di sistema deve essere pronto a intervenire per mettere fine al più presto alla discontinuità del servizio. Tuttavia la garanzia di un intervento immediato non sempre corrisponde a una pronta risoluzione del problema, altrimenti sarebbe tutto più semplice. Innanzitutto per diagnosticare con esattezza il problema bisogna ovviamente comprendere la sua natura e capire bene come fare per una risoluzione ottimale nel minor tempo possibile. L’indagine per risalire al problema e per capire le strategie per risolverlo spesso porta via un bel dispendio di tempo, forze ed energie fisiche e psicologiche. I problemi strettamente riconducibili a una strategica e complessa infrastruttura non si risolvono infatti nel giro di qualche minuto e con superficialità. Ripristinare la piena funzionalità dei server molte volte richiede enormi energie e tanto stress, spesso per le criticità e le urgenze dei lavori da effettuare. Enti pubblici e aziende private non possono permettersi malfunzionamenti dei loro sistemi per lunghi periodi di tempo, anche per tali motivi il ruolo rivestito da un amministratore di sistema viene costantemente messo a dura prova. Non di rado al libero professionista vengono richiesti lavori straordinari, proprio per fronteggiare le urgenze e per evitare che i guasti ai sistemi informatici creino troppi danni alla produttività di un’azienda.

Come abbiamo abbondantemente visto in precedenza, la figura professionale dell’amministratore di sistema è molto impegnativa e richiede la conoscenza di adeguate competenze informatiche, riconducibili soprattutto alle componenti di rete del sistema e dei sistemi operativi. Quello di cui finora non abbiamo ancora parlato è invece la conoscenza della lingua inglese, quasi indispensabile con i tempi che corrono, e della capacità dell’amministratore di sistema di sapersi confrontare anche con persone non particolarmente competenti della materia. Queste ultime, altre doti imprescindibili per lavorare in maniera ottimale come amministratore di sistema.

Per diventare amministratore di sistema quindi la strada è lunga e articolata, da seguire con il massimo impegno e una grande volontà. Scuola e università italiane garantiscono percorsi mirati per acquisire nozioni importanti di informatica, percorsi utili per una preparazione di base adeguata. Stiamo parlando di determinati indirizzi di studio che portano a lauree specialistiche in informatica e ingegneria elettronica. In aggiunta a tali specifici corsi di studi, esiste la concreta possibilità di formazione offerta dalle Regioni italiane, con la frequente organizzazione di corsi approfonditi e di differenti livelli. Corsi che abbracciano varie tematiche: amministrazione di sistemi, protocolli, architetture e tanta altra roba legata al mondo dell’informatica. La frequentazione di uno di questi corsi non solo è finalizzata all’apprendimento di importanti strategie informatiche, ma pure all’ottenimento di una fondamentale certificazione. Stiamo parlando di un attestato di valore spendibile al momento della presentazione dei curriculum vitae per avanzare la propria candidatura al lavoro. Laurea specialistica e corsi di formazione comunque non sono sufficienti affatto per diventare un ottimo amministratore di sistema, in quanto una figura professionale del genere pienamente responsabile ed efficiente necessita di un’esperienza sul campo di qualche anno. Un discorso estremamente valido per tutte le professioni, ancora di più per un lavoro delicato come questo. Solo dopo un determinato numero di anni è possibile ricoprire il ruolo di amministratore di sistema con piena coscienza e con la giusta preparazione. Non è un mistero che per svolgere qualunque tipo di attività lavorativa la pratica è un aspetto fondamentale da coniugare al meglio con la teoria acquisita con gli studi.

Generalmente l’amministratore di sistema lavora in qualità di libero professionista per le imprese che richiedono costantemente i suoi interventi. In base ai lavori che gli vengono commissionati e della loro complessità opera in completa autonomia o in stretta collaborazione con i tecnici di rete locali. L’amministratore di sistema si rapporta costantemente con la direzione aziendale e dialoga continuamente con i soggetti che usano il sistema. In ogni caso, trattasi di un lavoro che in diverse circostanze può essere svolto anche telematicamente e richiesto di frequente in orari del giorno particolari per non inficiare l’operatività dell’azienda stessa.

Dunque gli utenti aziendali sono i clienti principali dell’amministratore di sistema, i clienti più affezionati anche se naturalmente non sono gli unici. Le richieste di interventi aziendali sono frequenti e interessano principalmente i sistemi di rete, gli strumenti hardware e software e, più in generale, le risorse informatiche dell’impresa. Richieste per l’installazione di sistemi sempre più innovativi, per strumenti informatici all’ultimo grido e per risanare situazioni di malfunzionamento. Interventi di lavoro richiesti nelle grandi ma anche nelle piccole imprese perché un amministratore di sistema è un professionista molto utile anche a queste ultime. Questo perché anche in un’azienda prevalentemente a conduzione familiare, vale a dire di dimensioni abbastanza contenute, il PC di un operatore non è quasi mai una postazione isolata. Oggi qualunque PC viene collegato agli altri interni alla sede, al sistema dell’azienda e grazie a Internet ai milioni di PC sparsi in ogni parte del mondo. Un’apertura verso il mondo esterno logica conseguenza dello sviluppo dei sistemi informatici, un’apertura che comporta una gestione continuamente da monitorare e da rendere sempre più efficace e funzionale. Modalità operative che generano grandi potenzialità in termini di produzione aziendale, risparmio di tempo e di risorse umane, ma che richiedono anche una continua e proficua assistenza. Architettura dei sistemi, sicurezza delle transazioni, collegamenti e riservatezza delle informazioni sono tutti elementi da attenzionare con la massima cura, tutte le accortezze del caso e con il tempo necessario.

In fondo, l’ordinario lavoro dell’amministratore di sistema consiste proprio nel dover effettuare puntuali verifiche sul corretto funzionamento dei sistemi Windows e di tutte le componenti appartenenti agli stessi (server, database, etc.). Detto più volte e a chiare lettere della complessità del lavoro, sembra anche giusto sottolineare con forza che gli sbocchi occupazionali riservati dal mondo del lavoro a questa figura professionale sono tanti e in costante crescita. Aziende e enti pubblici in primo luogo assicurano una grande richiesta, nel nostro Paese come in altre parti di Europa e del mondo. Da questo punto di vista i sacrifici da fare tra titoli di studio, corsi di formazione e pratica sul campo potrebbero essere ben ripagati dalla professione, a condizione però di svolgere il lavoro da fare con la massima professionalità, impegno e passione. Credere di diventare prima amministratore di sistema e di svolgere poi tale professione prescindendo dalle capacità professionali e dalla buona volontà non è possibile anche perché in questo campo, nonostante la massiccia richiesta di mercato, non mancano per niente i concorrenti. Da bandire dunque ad ogni costo la superficialità, se si vuole intraprendere una carriera luminosa in termini di grandi soddisfazioni professionali ed economiche, e per non andare incontro ad alcuna brutta figura. Svolgere il ruolo di amministratore di sistema a buoni livelli oggi vuol dire per un libero professionista portare a casa uno stipendio mensile di alcune migliaia di euro, un piccolo dettaglio da tenere bene in mente. L’importante è non dimenticare mai i principi di base e avere sempre la consapevolezza di svolgere un’attività di enorme responsabilità. Per concludere, con l’aiuto di questa guida abbiamo cercato di far capire la reale importanza di una figura professionale come quella dell’amministratore di sistema, le competenze necessarie, i possibili sbocchi occupazionali e le opportunità di una carriera lavorativa di grande successo sotto tutti i punti di vista.