Arco Automazione recupero crediti
Home  | Links  | Pubblicità  | Consulenza  | Contatti  | Segnala un sito
Utility
Guide
Software
Trova Aziende

Problemi di Sicurezza nelle Reti Distribuite

di Dr Ing Laura Marraro (www.conceptonline.it)


Riuscire a fornire un adeguato livello di sicurezza in reti estese ed accessibili pressoché a chiunque come Internet, è una delle sfide dell’informatica attuale.

Tale bisogno di sicurezza si rende evidente a causa di innumerevoli motivi, primi fra tutti la necessità di impedire accessi non autorizzati ai propri sistemi informatici ed il bisogno di trasferire dati sensibili e/o riservati che, se intercettati, potrebbero provocare un danno al soggetto cui tali informazioni fanno riferimento.

In questo articolo, dopo aver trattato la problematica degli accessi non autorizzati ed aver accennato alcune delle possibili contromisure, verrà presentata l’intercettazione dei dati in connessioni client/server su Internet ed il principale metodo attualmente usato come prevenzione: il protocollo SSL.

Accessi non autorizzati

Con il termine di “accessi non autorizzati” possiamo identificare l’azione attraverso la quale dei soggetti (di solito denominati hacker) si insinuano in maniera fraudolenta in sistemi informatici di aziende private, enti pubblici e soggetti di vario genere con lo scopo di carpire informazioni riservate o causare un danno al sistema stesso. 

Considerando il concetto in un senso più ampio, un caso particolare di accesso non autorizzato può essere rappresentato dai cosiddetti virus informatici. Scopo di alcuni di questi virus, detti Trojan horses, è quello di produrre l’apertura di una o più back doors (porte secondarie) che permettono intrusioni nel sistema da parte di utenti non autorizzati senza che l’utente legittimo sia in grado di rendersene conto.

Avendo a che fare con sistemi accessibili tramite Internet, inoltre, ulteriori attacchi possono essere portati ai cosiddetti web server non tanto per accedere ad essi, bensì per sovraccaricarli, mediante tecniche di flooding e spamming (questo secondo meccanismo può essere per lo più usato in caso di mail server), rallentandone gradualmente il funzionamento fino a causarne il collasso totale. Un esempio di tale virus è rappresentato da “Code Red” che lo scorso anno causò problemi anche al sito della Microsoft™. 

Forniamo dunque una panoramica sui principali strumenti che consentono di impedire l’accesso ad utenti non autorizzati e, più in generale, di proteggere una rete, nel caso più semplice un solo computer, in modo da evitare i danni provocati da tali “intrusioni”.

In generale, per impedire accessi non desiderati, è necessario equipaggiare i computer facenti parte delle rete, e la rete stessa, con strumenti hardware e/o software che siano in grado di fornire un’adeguata protezione. 
Si va da programmi antivirus, più o meno sofisticati, quali quelli prodotti dalla McAfee™ o dalla Symantec™, giusto per citare due case produttrici, a sistemi proxy che impediscono l’accesso a siti non autorizzati, perché considerati pericolosi o inadeguati, ai cosiddetti firewall, programmi software o apparati hardware, che impediscono l’accesso al computer posto sotto protezione da parte di sistemi esterni non autorizzati. Un’ulteriore caratteristica di questi apparati è quella di permettere l’accesso selettivo, cioè solo tramite alcuni protocolli opportunamente configurati sul firewall dall’amministratore di sistema.

Per concludere questa sezione, accenniamo ad un’altra tecnica utilizzata per impedire tentativi di accesso ad una rete che presenta connessioni ad Internet, consistente nell’esporre uno o più computer verso l’esterno in modo che questi risultino attaccabili. Per non generare sospetti, ovviamente, tali computer devono comunque presentare un certo grado di resistenza agli attacchi, ed inoltre da questi non deve essere possibile arrecare alcun danno alla rete posta sotto protezione. Ciò è ottenuto facendo si che su tali apparati non siano presenti né dati da proteggere, né connessioni che permettano l’accesso ad altri computer connessi alla medesima rete interna. Questi computer possono assolvere al loro compito di protezione anche usando opportuni software che, attraverso simulatori, fanno credere a chi sta attaccando il sistema che in realtà stia navigando fra le varie macchine connesse alla rete, e non solo su un singolo computer.

Intercettazione di dati

Anche in virtù delle attuali leggi sulla privacy, che obbligano coloro che trattano dati riservati a gestirli in modo che questi non siano accessibili da parte di persone non autorizzate, importante risulta la sicurezza nel trasferimento di dati tra sistemi informatici.

Durante le connessioni client/server tramite Internet, è possibile che un hacker, mediante strumenti di sniffing, riesca ad intercettare i vari pacchetti trasferiti da un computer ad un altro, oppure, simulando l’identità del computer di destinazione, riesca a dirottare i dati presso di se. Le principali contromisure a questo tipo di attacchi si basano su tecniche di cifratura, sia dei dati trasferiti che dei canali usati per il trasporto, e di mutua autenticazione.

Le tecniche di cifratura, mediante appositi algoritmi, permettono di trasformare i messaggi originali in flussi di bit che se intercettati non possono essere ricondotti al messaggio originale, a meno di conoscere una “parola” particolare, detta chiave, che, inserita assieme al flusso di bit come input di un apposito algoritmo di decrittazione, consente di ricostruire il messaggio inviato.

La mutua autenticazione, ottenibile mediante lo scambio di certificati, che possono essere rilasciati da apposite autorità di certificazione (CA), permette sia il riconoscimento reciproco dei computer coinvolti nel colloquio, sia il non ripudio dei dati trasferiti.
Meccanismi di autenticazione forte possono essere ottenuti mediante l’utilizzo di smart card contenenti certificati ad hoc.

Vari sono gli algoritmi di cifratura esistenti, tra i quali DES, Triple DES (3DES), RSA, SHA, MD5-1 e DSA, e tutti possono essere utilizzati facendo ricorso al protocollo HTTPS (HTTP sicuro), dato dalla combinazione dell’HTTP con il protocollo SSL (Secure Sockets Layer). In particolare, quest’ultimo protocollo si appoggia sullo strato TCP/IP permettendo di instaurare un canale cifrato tra il client ed il server attraverso il quale transitano i messaggi HTTP.

Dei precedenti algoritmi, sicuramente l’uso del DES non è consigliabile in quanto questo è stato oggetto nel corso degli anni a numerosi attacchi portati con successo. Particolarmente usata è una sua variante, il 3DES, che combina in modo particolare 3 volte in cascata il DES. Un altro algoritmo che trova notevole uso nell’HTTPS è l’RSA. 
La principale differenza tra i due algoritmi è che il 3DES è un algoritmo simmetrico a chiave privata (client e server usano la stessa chiave sia per cifrare che per decifrare, e tale chiave deve essere mantenuta segreta), mentre l’RSA è un algoritmo asimmetrico a chiave pubblica (sia il client che il server hanno una coppia di chiavi, una pubblica ed una privata. Ciascuno comunica all’altro la propria chiave pubblica da utilizzare per cifrare il messaggio inviato, e usa la propria chiave privata per decifrare il messaggio ricevuto).
Per concludere, vediamo in breve in che modo l’SSL viene utilizzato nel colloquio instaurato tra client e server.

In una prima fase, detta di handshaking, il client ed il server si scambiano le chiavi pubbliche, provvedendo se richiesto alla mutua autenticazione, a questo punto mediante l’uso del protocollo RSA si scambiano in modalità cifrata la chiave simmetrica che sarà utilizzata per cifrare, di solito mediante il 3DES, tutto il resto della comunicazione.
Terminata la fase iniziale, il client ed il server continueranno l’interscambio dei dati tramite il canale SSL instaurato mediante l’uso della chiave simmetrica. Per maggior sicurezza, può essere possibile periodicamente avviare nuove fasi di handshaking per la modifica della chiave simmetrica.

Anche questo metodo non è esente da possibili attacchi, e per evitare il cosiddetto attacco Man-in-the-middle (un terzo computer si insinua nel mezzo della comunicazione tra client e server fingendosi il server con il client e il client con il server, e riuscendo così ad entrare in possesso della chiave simmetrica), il client durante la fase di handshaking dovrebbe verificare che il nome di dominio del server corrisponda con quello specificato nel certificato.

Ovviamente, per poter essere efficace, l’SSL deve di volta in volta utilizzare algoritmi di cifratura sufficientemente sicuri. Questo vuol dire che se un algoritmo di quelli utilizzati viene attaccato con successo in tempi ragionevoli, tale algoritmo dovrebbe essere sostituito con altri più sicuri, o la chiave utilizzata dovrebbe essere cambiata con una frequenza tale che il tempo richiesto ad un intruso per “rompere” l’algoritmo (ricavare la chiave ed utilizzarla per decrittare i messaggi cifrati), sia maggiore del periodo dopo il quale avviene il cambiamento.



Copyright © 2003 Recupero Crediti.org. Tutti i diritti riservati.