Damiano
Information & Communication Technology
Informatica:
L'informatica è una scienza interdisciplinare che riguarda il trattamento dell'informazione mediante procedure automatiche o automatizzabili. La parola "informatica" proviene dal francese, dalla compressione di "information electronique". Philippe Dreyfus, che per primo utilizzo' tale parola nel 1962, intendeva "gestione automatica dell'informazione mediante utilizzo del calcolatore".
Computer .....come si chiama ?
Va notato il diverso significato di origine tra queste tre lingue nel dare il nome allo strumento base dell'informatica:
- Elaboratore: in italiano, sottintende un processo tipico dell'intelligenza umana;
- Ordinateur: in francese, enfatizza la capacità di organizzare i dati (informazioni);
- Computer: in inglese, calcolatore, diretto discendente delle calcolatrici, meccaniche, elettromeccaniche ed elettroniche.
Sigle e organizzazione dell'Informatica Aziendale:
Chi e' partito per l'avventura informatica negli anni settanta ha conosciuto varie sigle con le quali, all'interno dell'azienda, veniva identificato il reparto che si occupava di "elaborazione dati", eccone alcune:
- CED:Centro Elaborazione Dati.
- EDP:Electronic Data Processing.
- IS :Information Services.
- IT :Information Technology.
- ICT:Information & Communication Technology.
Nell'organizzazione aziendale il reparto che si occupa dell'"elaborazione dati" e' stato, nel tempo, collocato in diversi modi; negli anni settanta, quando l'attivita' era principalmente a servizio dell'amministrazione dipendeva dalla Direzione Amministrativa. Successivamente, fornendo servizi anche per altri settori come Produzione e Logistico fu collocato alle dipendenze della Direzione Generale. In altre realta' e' stato posizionato alle dipendenze della Direzione Personale, in altri casi ancora, della Direzione della Produzione. Ho visto anche casi misti dove per esempio la parte "sistemi" che si occupa del Gestionale risponde alla Direzione Amm.va e Personale, mentre la parte che si occupa dell'Infrastruttura rete e PC risponde alla Direzione Generale.
IBM AS/400:
L'AS/400 rappresenta l'ultima generazione di computer IBM per aziende medie. Dotato di tecnologia RISC PowerPC, utilizza sistema operativo, database relazionale e applicazioni, in grado di sfruttare da sempre in modo nativo l'hardware a 64 bit.

- L'AS/400 e' stato il primo sistema ad impiegare la tecnologia RAID-5.
- L'AS/400 e' il sistema con la piu' alta continuita' di servizio (99,99%).
- L'AS/400 e' un sistema che offre un elevato grado di affidabilita': ogni task e' perfettamente isolato per cui, in caso di problemi, e' sufficiente cancellare quel job senza il minimo impatto sul resto del sistema.
- L'AS/400 offre il massimo della sicurezza in quanto da sempre e' un sistema ad oggetti, gli oggetti del sistema operativo sono microcodificati per cui non possono essere danneggiati da virus e nessuno hacker puo' introdursi.
- L'AS/400 e' dotato del DB2 Universal Database che consente un facile accesso alle informazioni. Possono essere gestiti dati tradizionali e oggetti non tradizionali. Consente accesso standard via ODBC, JDBC e simili. La caratteristica a 64 bit consente l'indirizzamento di una enorme quantita' di informazioni (toricamente 18 milioni di terabyte). E' dotato di strumenti come il Journal e il Commit che consentono l'aggiornamento dei dati in modo sincronizzato e sicuro.
- L'AS/400 si connette ad altri sistemi o PC attraverso qualsiasi tipologia di reti e protocolli.
- L'AS/400 puo' crescere considerevolmente di potenza nelle configurazioni multiproccessore fino a supportare oltre 6000 utenti SAP, 12000 utenti Baan e oltre 27000 utenti di posta Domino server.
- L'AS/400 e' il sistema multiutente con la maggior disponibilita' di applicazioni gia' sviluppate e testate.
- I principali ERP software, incluso SAP, SSA-Baan, JD Edwards, Peoplesoft, girano su piattaforma AS/400.
- L'AS/400 e' un sistema perfettamente integrato nell'hardware e nel software in quanto frutto di un unico progetto, cio' ne fa il presupposto per una continua evoluzione futura.
L'AS/400 è un sistema che ricordo in modo particolare per averci lavorato con tanto impegno ed energia a partire dall'"antenato" Sistema/32, al fortunatissimo Sistema/34, diventato poi Sistema/36 e 38 il vero precursore del moderno server AS/400. Le doti di affidabilita' sono assai note e la grande disponibilita' di software esistenti sul mercato ne fanno una piattaforma assolutamente competitiva.
Personal Computer:
Il Personal Computer è un elaboratore inizialmente concepito per l'impiego da parte di un singolo utente. Oggi con il termine Personal Computer si comprende una vasta gamma di apparecchiature anche molto diverse tra loro. L'evoluzione tecnologica ha dato origine a:

- "Server": sistema di elaborazione in grado di fornire servizi specializzati a piu' utenti; tra i servizi che vengono tipicamente erogati da un server, si possono citare: FILE server, DATABASE server, APPLICATION server, PRINT server, MAIL server, WEB server, DHCP e DNS server. Il server è un elemento fondamentale dell'infrastruttura IT di cui fa parte, in quanto i suoi malfunzionamenti si ripercuotono su tutti i client che lo usano. Pertanto, per i server, vengono adottati accorgimenti volti a garantirne l'affidabilità e la sicurezza. Viene normalmente utilizzato un hardware di classe superiore; vengono inseriti componenti ridondanti (dischi RAID, doppio alimentatore); gruppo di continuità per la protezione dell'alimentazione elettrica; connessione preferenziale alla rete; configurazione del sistema operativo ad opera di sistemisti.
- "Workstation": complesso di apparecchiature interconnesse tra di loro mediante un sofisticato software adatto a soddisfare una precisa esigenza elaborativa.
- "Client": sistema standard base normalmente connesso ad una rete da cui attinge le risorse principali.
Il mio legame col mondo PC risale alle prime apparizioni del computer che ha letteralmente trasformato il mondo dell'informatica. Ho avuto la fortuna di possedere dal primo Commodore 64, al successivo PC XT, il 286, il 386, il 486, le varie versioni di Pentium. Ora, una rete dotata di server internet, consente l'accesso condiviso su wireless al mondo internet a tutta la mia famiglia. Inoltre, un computer con caratteristiche multimediali, costruito da mio figlio Stefano, consente l'archiviazione e la visualizzazione di foto e film. E' stato anche implementato tutto il necessario per convertire i VHS su DVD. L'ultima attivita' messa a punto: l'installazione della scheda TV per la visualizzazione e gestione della TV analogica e digitale terrestre.
UNIX:
UNIX è un sistema operativo per computer inizialmente sviluppato da un gruppo di ricerca dei laboratori AT&T e Bell Labs, fra i quali c'erano inizialmente anche Ken Thompson e Dennis Ritchie.
Storia di Unix:

- Unix è nato dall'intelligenza e la passione di alcuni tecnici nei Bell Laboratories. Molti vollero porre fine al progetto, altri lo portarono avanti, con l'unico incentivo della ricerca e della curiosità. Si deve a Unix il concetto di Informatica come scienza autonoma; prima essa era considerata un aspetto delle scienze matematiche, ovvero semplice applicazione di teorie.
Caratteristiche di Unix:
- "Multiutente": più utenti possono lavorare contemporaneamente. Il sistema gestisce in modo completo le autorizzazioni e i conflitti. All'interno del sistema ogni utente è individuato univocamente da un 'username'. Inoltre, gli utenti sono suddivisi in gruppi, ciascuno individuabile univocamente mediante il suo 'groupname' In ogni sistema Unix è definito l'utente root, che e' amministratore di sistema, e non ha alcuna limitazione nell'accesso alle risorse del sistema stesso.
- "Multiprogrammato": può supportare la contemporanea esecuzione di più processi completamente gestibili.
- "Gestione della memoria virtuale": il sistema di gestione della memoria in Unix si basa su paginazione e segmentazione. Queste caratteristiche consentono ad ogni processo di indirizzare un'area di memoria di dimensioni eventualmente superiori a quelle della memoria centrale effettivamente disponibile.
- "Portabile": grazie all'impiego del linguaggio C nella realizzazione del sistema, il sistema gode di un'elevata portabilità, ed è oggi disponibile su una vastissima gamma di architetture diverse.
- "Aperto": soprattutto nelle versioni più recenti le caratteristiche di Unix si sono via via uniformate allo standard POSIX. Inoltre, Unix realizza alcuni dei più diffusi servizi e protocolli di comunicazione della rete Internet, rendendo possibile una facile integrazione di sistemi Unix all'interno di una rete.
- "Ambiente di sviluppo per programmi C": Unix mantiene tuttora uno stretto legame con il linguaggio C. Questa relazione si manifesta anche nella disponibilità all'interno delle utilità di sistema di un insieme piuttosto ricco di strumenti per lo sviluppo di applicazioni C.
Unix era da parecchi anni un sistema operativo che mi attirava tantissimo. Ne sentivo parlare soprattutto negli ambienti di studio e universitari, il sistema per le applicazioni destinate al mondo scientifico piuttosto che aziendale. Ho letto molte notizie su riviste specializzate, su questo sistema operativo slegato dall'hardware. Ho avuto l'opportunita' di lavorare con questo sistema e posso dire che come affidabilita' ce ne sicuramente da vendere. Ora ci sono alcune versioni di cui mi limito a ricordare l'AIX dell'IBM, l'HP-Unix della HP e la versione della Sun. Un sistema ideale per il mondo Internet, vanta doti di sicurezza ai massimi livelli. Su Unix e' installato il gestionale Baan con cui lavoro attualmente.
DATA WAREHOUSE:
UData warehouse (DW) è un termine inglese che significa "magazzino di dati". Sebbene il termine sia diventato molto di moda negli ultimi anni e molte aziende hanno implementato o stanno per implementare un sistema di DW, non esiste definizione univoca. Secondo alcuni autori il DW è semplicemente un sinonimo di database fisico (relazionale o multidimensionale) che contiene dati; secondo altri, il DW è definito come un ambiente con strutture finalizzate al supporto delle decisioni, fisicamente separato dai sistemi gestionali transazionali. Entrambe le definizioni, tuttavia, sono abbastanza limitanti e non in grado di spiegare a fondo il concetto di Data warehouse.

William H. Inmon, è colui che ha parlato per primo in modo esplicito di data warehouse. Lui lo definisce come una raccolta di dati integrata, orientata al soggetto, che varia nel tempo, non volatile a supporto dei processi decisionali. Quindi, l'integrazione dei dati di un DW è una delle premesse necessarie che consentono un utilizzo adeguato a supporto delle decisioni.
Secondo Inmon il data warehouse deve essere:
- "Integrato": questo è un requisito fondamentale. Nel data warehouse possono confluire dati provenienti da più sistemi gestionali gestionali transazionali. L'obiettivo dell'integrazione può essere raggiunto utilizzando metodi di codifica uniformi e denominando le variabili con logiche di omogeneità.
- "Orientato al soggetto": il DW è orientato ad argomenti specifici dell'azienda piuttosto che alle applicazioni o alle funzioni. In un DW i dati vengono archiviati in modo che possano essere facilmente letti o elaborati dagli utenti. L'obiettivo, quindi, non è strettamente di minimizzare la ridondanza mediante la normalizzazione, ma quello di fornire dati che abbiano una struttura in grado di favorire la produzione di informazioni. Si passa dalla progettazione per funzioni alla modellazione dei dati al fine di consentire una visione multidimensionale degli stessi.
- "Variante nel tempo": i dati archiviati all'interno di un DW hanno un orizzonte temporale molto più esteso rispetto a quelli archiviati in un sistema gestionale transazionale. Nel DW sono contenute una serie di informazioni relative agli argomenti di interesse che riguardano la situazione relativa ad un determinato fenomeno in un determinato intervallo temporale normalmente abbastanza esteso. I dati contenuti in un DW sono normalmente aggiornati fino ad una certa data, che nella maggior parte dei casi, è antecedente a quella in cui l'utente interroga il sistema.
- "Non volatile": indica la non modificabilità dei dati contenuti nel DW; in altre parole e' consentito l'accesso in sola lettura. Comporta, inoltre, una maggiore semplicità di progettazione del database rispetto a quella di un database relazionale che supporta una applicazione transazionale. In un DW non possono presentarsi anomalie dovute ad aggiornamenti e non sono richiesti strumenti complessi per gestire l'integrità referenziale o per bloccare record a cui possono accedere altri utenti in aggiornamento.
Il progetto di data warehouse descrive il processo di acquisizione, trasformazione e distribuzione di informazioni presenti all'interno o all'esterno dell'azienda come supporto ai ''decision maker''.
Il data warehouse può essere progettato e costruito secondo diverse modalità che vanno da una logica completamente accentrata, a una logica completamente distribuita.
Gli ambiti applicativi del data warehouse: del data warehouse tutti ne parlano ma lo realizzano in pochi. Non e' semplice identificare e motivare le aree applicative del data warehouse. Nelle banche e in generale nelle istituzioni finanziarie gli ambiti di utilizzo sono molteplici, poiché tutte le aree gestionali di tali organizzazioni sono caratterizzate da volumi considerevoli di dati su cui devono essere prese decisioni strategiche. Poiché il data warehouse può avere un valore strategico, all'interno di tali tipi di organizzazioni è fondamentale per il management definire una strategia per il data warehouse. La strategia per il data warehouse è essenzialmente un percorso evolutivo che porta l'azienda da applicazioni DW non 'mission-critical' a una situazione in cui il data warehouse è una componente fondamentale del sistema informativo aziendale.
Aree applicative più indicate per il data warehouse:
- Controllo di gestione
- Risk e Asset Management
- Database di marketing
- Supporto Call Center
- Knowledge Base
- Product Engineering
- Sistema informativo di marketing
- e-business
Il mio incontro col mondo dei Datawarehouse e' stato in General Electric dove Business Object consentiva di produrre la reportistica specifica per l'analisi delle vendite e controllo di gestione. La mia attivita' e' stata quella della progettazione di alcuni report di uso giornaliero che venivano automaticamente scaricati nel formato desiderato sul desktop degli utenti interessati.
LINUX:
Linux nasce nel 1991 grazie al giovane studente Linus Torvalds che, appassionato di programmazione, era insoddisfatto del sistema operativo Minix poiché non supportava bene la nuova architettura i386 a 32bit. Così Linus decise di creare un kernel unix con lo scopo di divertirsi e studiare il funzionamento del suo nuovo computer, che era appunto un 80386.

La versione 1.0 : il 14 marzo 1994 il kernel 0.99 divenne Linux 1.0. Fu lo stesso Linus Torvalds a presentare la prima versione stabile della sua creatura presso l'Università di Helsinki.
Oggi, Torvalds continua a dirigere lo sviluppo dei kernel, mentre altre parti del sistema, come le componenti GNU, sono sviluppate separatamente. Il compito di fornire un sistema integrato, che combina tutte le componenti di base con le interfacce grafiche (come per esempio GNOME o KDE, che a loro volta si basano sulla presenza dell'X Window System) e con il software applicativo, viene ora svolto dalle distribuzioni. Nel 1996 fu scelto come logo ufficiale di Linux un pinguino disegnato da Larry Ewing e ad esso venne dato il nome di TUX come abbreviazione di Torvalds UniX. Oggi GNU/Linux resta il sistema operativo preferito da migliaia di programmatori sparsi in tutto il mondo. Linux e' usato soprattutto come server in ambienti di produzione e ultimamente ha conosciuto anche la sua affermazione in ambiente desktop.
L'importanza di Linux:
GNU/Linux è il prodotto di appassionati indipendenti creato per pura sfida intellettuale, senza vincoli commerciali. Questo ha generato due importanti conseguenze:
- in primo luogo il risultato ottenuto è la sorprendente collaborazione di migliaia di programmatori sparsi in tutto il mondo, (per questo viene considerato come il più grosso progetto collaborativo della storia dell'uomo).
- il secondo aspetto è la "liberalizzazione" del prodotto: GNU/Linux è un software libero che permette agli utenti di avere a disposizione un sistema operativo completamente funzionante slegato dalle classiche leggi commerciali.
L'aspetto della liberta' del programma mette al centro l'utente garantendogli la possibilità di visionare e modificare i codici sorgenti, la possibilità di usare il software per qualsiasi scopo, la possibilità di ridistribuirlo nel formato originario o modificato. Il sistema GNU/Linux, anche se in modo variabile tra le diverse distribuzioni, è molto trasparente, configurabile e adattabile ad ambiti disparati. Questa filosofia permette lo scambio di informazioni tra gli utenti e i programmatori e ha come risultato un prodotto che risulta avere prestazioni migliori in alcuni ambiti rispetto ai concorrenti commerciali.
Linux è meno esposto di altri sistemi operativi ai virus e ai malware informatici.
Le principali distribuzioni di Linux sono:
- Debian
- Fedora
- Knoppix
- Mandriva Linux, fino al 2004 conosciuta con il nome "Mandrake Linux"
- Puppy
- Red Hat
- Slackware
- SUSE Linux
- Ubuntu Linux (anche nelle varianti Xubuntu, Kubuntu, Edubuntu, Ubuntu Lite, Fluxbuntu, ecc.)
Inutile dire che Linux ha esercitato su di me un fascino particolare. Mi piaceva l'idea di un sistema operativo "libero", sicuro, stabile, poco esigente in termini hardware, e quindi installabile su qualsiasi PC. Il primo incontro con una versione Slackware su un server che svolgeva attività di dominio principale e "file server" presso l'azienda Laverda Spa. Successivamente ho installato a casa una versione di Red-Hat su un PC che mi faceva da file server e backup. Ho provato la versione Suse, un po' piu' esigente in termini hardware, ma sicuramente piu' attraente dal punto di vista grafico. Ho voluto configurare su un vecchio PC 386 un Gateway-Proxy basato su Red-hat 6 risultato perfettamente funzionante. L'ultima esperienza svolta assieme a mio figlio Stefano e' stata l'installazione di K-Ubuntu su PC portatile Sony Vajo.
SICUREZZA INFORMATICA:
La Sicurezza informatica è quella branca dell'informatica che si occupa della salvaguardia dei sistemi informatici da potenziali rischi e/o violazioni dei dati. I principali aspetti di protezione del dato sono la confidenzialità, l'integrità e la disponibilità. La protezione dagli attacchi informatici viene ottenuta agendo su più livelli: innanzitutto a livello fisico e materiale, ponendo i server in luoghi il più possibile sicuri, dotati di sorveglianza e di controllo degli accessi. Il secondo livello è normalmente quello logico che prevede l'autenticazione e l'autorizzazione dell'utente nell'accesso ai dati. Successivamente al processo di autenticazione, le operazioni effettuate dall'utente sono tracciate in file di log. Questo processo di monitoraggio delle attività è detto audit.
Tipi di sicurezza e di attacchi:
Quando si parla di "sicurezza informatica" spesso si distinguono i concetti di sicurezza passiva e di sicurezza attiva.

- Sicurezza passiva: per sicurezza passiva normalmente si intendono gli strumenti di tipo difensivo, ossia quel complesso di soluzioni il cui obiettivo è quello di impedire che utenti non autorizzati possano accedere a risorse, informazioni e dati di natura riservata. Il concetto di sicurezza passiva pertanto è molto generale: ad esempio, per l'accesso a locali protetti, l'utilizzo di porte di accesso blindate, congiuntamente all'impiego di sistemi di identificazione personale, sono da considerarsi componenti di sicurezza passiva.
- Sicurezza attiva: per sicurezza attiva si intendono, invece, le tecniche e gli strumenti mediante i quali le informazioni ed i dati di natura riservata sono resi intrinsecamente sicuri, proteggendo gli stessi sia dalla possibilità che un utente non autorizzato possa accedervi (confidenzialità), sia dalla possibilità che un utente non autorizzato possa modificarli (integrità). È evidente che la sicurezza passiva e quella attiva sono tra loro complementari ed entrambe indispensabili per raggiungere un buon livello di sicurezza di un sistema. Le possibili tecniche di attacco sono molteplici, perciò è necessario usare contemporaneamente diverse tecniche difensive per proteggere un sistema informatico, realizzando più barriere fra l'attaccante e l'obiettivo. Spesso l'obiettivo dell'attaccante sono dai dati, quindi la sicurezza informatica deve preoccuparsi di impedire l'accesso ad utenti non autorizzati, e a controllare i soggetti con autorizzazione limitata, per evitare che i dati vengano copiati, modificati o cancellati. Le violazioni possono essere molteplici: vi possono essere tentativi non autorizzati di accesso a zone riservate, furto di identità digitale o di file riservati, utilizzo di risorse che l'utente non dovrebbe potere utilizzare ecc. La sicurezza informatica si occupa anche di prevenire eventuali Denial of service (DoS). I DoS sono attacchi sferrati al sistema con l'obiettivo di rendere non utilizzabili alcune risorse in modo da danneggiare gli utilizzatori del sistema. Per prevenire le violazioni si utilizzano strumenti hardware e software.
- Sicurezza nelle aziende: dal momento che l'informazione è un bene che aggiunge valore all'impresa, e che ormai la maggior parte delle informazioni sono custodite su supporti informatici, ogni organizzazione deve essere in grado di garantire la sicurezza dei propri dati, in un contesto dove i rischi informatici causati dalle violazioni dei sistemi di sicurezza sono in continuo aumento. Per questo esistono, a carico delle imprese, precisi obblighi in materia di privacy, tra cui quello di redigere annualmente uno specifico documento programmatico sulla sicurezza. È stato anche approvato a livello internazionale il nuovo Standard ISO 27001:2005 finalizzato alla standardizzazione delle modalità adatte a proteggere i dati e le informazioni da minacce di ogni tipo, al fine di assicurarne l'integrità, la riservatezza e la disponibilità. Lo standard indica i requisiti di un adeguato sistema di gestione della sicurezza delle informazioni (ISMS) finalizzato ad una corretta gestione dei dati dell'azienda. Una fase indispensabile di ogni pianificazione della sicurezza è la valutazione del rischio e la gestione del rischio.
- Sicurezza dei programmi: il problema della sicurezza dei programmi e soprattutto dell'invio e ricezione di dati confidenziali protetti, si è posto all'attenzione degli sviluppatori di software come conseguenza della sensibile crescita dell'uso degli strumenti informatici e di internet. Per quanto riguarda la produzione di software "protetti" possiamo partire col definire il concetto di sicurezza come l'assenza da condizioni conflittuali capaci di produrre danni irreparabili ad un sistema. Nella progettazione di software è quindi fondamentale raggiungere il compromesso più funzionale tra l'efficenza d'uso del programma in questione e la sua capacità di "sopravvivenza" ad attacchi esterni e ad errori più o meno critici.
- Due caratteristiche fondamentali esplicano il concetto di sicurezza:
- safety (sicurezza): una serie di accorgimenti atti ad eliminare la produzione di danni irreparabili all'interno del sistema;
- reliability (affidabilità): prevenzione da eventi che possono produrre danni di qualsiasi gravità al sistema.
- Un software (o programma) è tanto più sicuro quanto minori sono le probabilità
che un guasto possa accadere e minori i danni che ne possono conseguire.
Possiamo ora vedere, in ordine crescente, i possibili effetti dei guasti in cui può
incorrere un software:
- Nessun effetto
- Rischio trascurabile
- Rischio significativo
- Rischio elevato
- Rischio catastrofico
- Principali tecniche di attacco (Hacking):
- Exploit
- Buffer overflow
- Shellcode
- Cracking
- Backdoor
- Port scanning
- Sniffing
- Keylogging
- Spoofing
- Trojan
- Virus informatici
- DOS
- DDOS
- Ingegneria sociale
- Principali tecniche di difesa:
- Antivirus: consente di proteggere il proprio personal computer da software dannosi conosciuti come virus. Un buon antivirus deve essere costantemente aggiornato ad avere in continua esecuzione le funzioni di protezione in tempo reale. Per un miglior utilizzo l'utente deve avviare con regolarità la scansione dei dispositivi del PC (dischi fissi, CD, DVD e floppy), per verificare la presenza di virus. Per evitare la diffusione di virus è inoltre utile controllare tutti i file che si ricevono o che vengono spediti tramite posta elettronica facendoli verificare dall'antivirus configurato a tale scopo. Esistono prodotti Antivirus di buona qualita' scaricabili dal web in versione freeware.
- Anti-Spyware: software facilmente reperibile sul web in versione freeware, shareware o a pagamento. È diventato un utilissimo tool per la rimozione di "file spia", gli spyware appunto, in grado di carpire informazioni riguardanti le attività on line dell'utente ed inviarle ad un'organizzazione che le utilizzerà per trarne profitto.
- Firewall: installato e ben configurato un buon personal firewall garantisce un sistema di controllo degli accessi verificando tutto il traffico che lo attraversa. Protegge contro aggressioni provenienti dall'esterno e blocca eventuali programmi presenti sul computer che tentano di accedere ad internet senza il controllo dell'utente.
- Firma digitale, Crittografia: è possibile proteggere documenti e dati sensibili da accessi non autorizzati utilizzando meccanismi di sicurezza specifici quali: la crittografia, la firma digitale, e l'utilizzo di certificati digitali e algoritmi crittografici per identificare l'autorità di certificazione, un sito, un soggetto o un software.
- Backup: più che un sistema di difesa si tratta di un utile sistema per recuperare dati eventualmente persi o danneggiati. Il backup consiste nell'esecuzione di una copia di sicurezza dei dati di un personal computer o comunque di dati considerati importanti onde evitare che vadano perduti.
- Honeypot
- Intrusion Detection System (IDS)
- Network Intrusion Detection System (NIDS)
- Steganografia
- Sistema di autenticazione: e' utile, in particolare nelle aziende, l'utilizzo di software per l'autenticazione sicura con un secondo elemento di autenticazione basato su un insieme di caratteri disposti in uno schema suddiviso in file e colonne conosciute dall'utente che dovrà poi inserirle in una combinazione di valori per dimostrare di essere in possesso dei dati corretti. Altro sistema, più sofisticato, è quello del riconoscimento dell'utente tramite l'utilizzo dell'impronta digitale come forma di autenticazione.
Certe attivita' non le posso dimenticare per vari motivi, innanzitutto per la passione che ho messo nel realizzarle. Una di queste e' la realizzazione del progetto "Disaster Recovery" presso l'azienda SIVI Illuminazione Spa e successivamente presso la General Electric. Un progetto che per quei tempi aveva ben pochi precedenti. Lo studio accuratissimo delle risorse hardware e software da proteggere. In particolare il grande patrimonio costituito dai dati aziendali. Tutte le clausole descritte minuziosamente in un grosso manuale e un contratto con l'IBM che offriva il ripristino dell'AS/400 hardware e software in 48 ore. Questo progetto era diventato un punto di riferimento per altre aziende.
eee PC:
Giugno 2008: finalmente in mano l'oggetto introvabile: Eee PC modello 900 Asus.

Sono graditi i tuoi commenti a: mailto:damibat@gmail.com
site info
© 2005-2007 Damiano.
Pagina Prec.