Remove ads
architettura di sistema distribuito Da Wikipedia, l'enciclopedia libera
In informatica un computer cluster, o più semplicemente un cluster (dall'inglese grappolo), è un insieme di computer connessi tra loro tramite una rete telematica. Lo scopo di un cluster è distribuire un'elaborazione molto complessa tra i vari computer, aumentando la potenza di calcolo del sistema e/o garantendo una maggiore disponibilità di servizio, a prezzo di un maggior costo e complessità di gestione dell'infrastruttura: per essere risolto il problema che richiede molte elaborazioni viene infatti scomposto in sottoproblemi separati i quali vengono risolti ciascuno in parallelo.
La storia del calcolo cluster è riassunta nel modo migliore in una nota in In Search of Clusters di Greg Pfister:
«Praticamente ogni dichiarazione rilasciata dalla DEC che menziona i cluster dice: DEC, che ha inventato i cluster.... Non li ha inventati neanche IBM. Gli utenti hanno inventato i cluster, dal momento che non potevano portare avanti tutto il loro lavoro su un solo computer, o necessitavano di un backup. La data dell'invenzione è sconosciuta, ma penso che sia durante gli anni '60, o anche alla fine dei '50.»
La base della tecnologia del calcolo cluster inteso come il compiere un lavoro qualsiasi parallelamente fu discutibilmente introdotta da Gene Amdahl della IBM, che nel 1967 pubblicò un articolo con quella che sarebbe stata considerata la base del calcolo parallelo: la Legge di Amdahl, che descrive matematicamente l'aumento di prestazioni che si può ottenere compiendo un'operazione in una architettura in parallelo.
L'articolo scritto da Amdhal definisce le basi ingegneristiche sia per il calcolo multiprocessore che per il calcolo cluster. la differenza significativa tra i due sta nel fatto che le comunicazioni interprocessore sono supportate all'interno del computer (ad esempio con un bus o rete di comunicazione interna adattata), invece il calcolo cluster avviene all'esterno del computer, su una rete commerciale.
Di conseguenza la storia dei primi computer cluster è più o meno direttamente inclusa nella storia delle prime reti, dato che uno dei primi motivi per lo sviluppo di una rete è stata la possibilità di collegare fra loro risorse di calcolo, di fatto creando un cluster di computer.
Le reti a commutazione di pacchetto furono inventate concettualmente dalla società RAND nel 1962. Utilizzando il concetto di una rete a commutazione di pacchetto, il progetto ARPANET riuscì nella creazione nel 1969 di quello che era forse il primo cluster di computer basato su una rete commerciale collegando quattro diversi centri di calcolo (ognuno dei quali era quasi un "cluster", ma probabilmente non un cluster commerciale).
Il progetto ARPANET si sviluppò quindi come Internet, che può essere considerata la madre di tutti i computer cluster; Internet raffigura il paradigma odierno del cluster di tutti i computer del mondo.
I cluster hanno le seguenti caratteristiche: i vari computer risultano come una singola risorsa computazionale e le varie componenti sono risorse dedicate al funzionamento dell'insieme; il server cluster è quindi un server ad altissime prestazioni poiché, invece di gravare su un'unica macchina standalone, suddivide il carico di lavoro (quindi, ad esempio, funzioni di mail server, web server, database server e file server) su più macchine venendo ad essere di fatto una forma di sistema distribuito.
Attualmente, la clusterizzazione consiste nel connettere, meglio via fibra ottica, X server fisici, quasi sempre di tipo blade, che condividono Y unità di storage, possibilmente dotati di dischi SSD, il tutto attraverso switch prestazionali, e di erogare agli utenti i servizi necessari sotto forma di Z istanze virtuali, ivi comprese risorse in remoto. Questa è la tipica situazione della logica cloud come anche delle reti distribuite geograficamente (si pensi alle sedi dislocate sul territorio di un'impresa o un ente che ovviamente devono avere un'unica rete aziendale). Logicamente, le due situazioni non sono disgiunte: è ormai normale che una rete aziendale multisede utilizzi il cluster comprendendo anche risorse in cloud. Appositi e complessi software di virtualizzazione e di networking permettono all'administrator di gestire ottimamente il consolidamento e operare automaticamente il bilanciamento, risultando di fatto indispensabili nel caso frequente di marche e modelli diversi dell'hardware di rete da integrare nonché dei diversi sistemi operativi server (domain controller, servizi di rete, programmi applicativi).
I mainframe, sia per la produzione che per il monitoraggio, sono le tipiche tipologie di macchine che formano un cluster.
Nell'architettura cluster un nodo è una macchina elaborativa ovvero un server fisico o virtuale che prende parte al grappolo. Per l'utente o i client, il cluster è assolutamente trasparente: tutta la notevole complessità hardware e software è mascherata; i servizi vengono erogati, i dati sono resi accessibili e le applicazioni elaborate come se fossero tutte provenienti da un solo mega computer centrale.
Esistono tre tipi di cluster (i primi due sono i più diffusi):
Per ottenere un sistema di computer operanti come un cluster è necessario:
I vantaggi dell'utilizzo di questo sistema sono:
Gli svantaggi principali sono:
MPI è una libreria di programmi di comunicazione tra computer, ampiamente disponibili che permette la scrittura di programmi paralleli nei linguaggi C, Fortran, Python, OCaml, e molti altri linguaggi di programmazione.
Il mondo Linux supporta vari tipi di software per il clustering, come:
Linux è attualmente il sistema più utilizzato per il clustering: secondo TOP500 nel 2006 è stato il sistema più usato in assoluto.
La piattaforma Microsoft Windows Compute Cluster Server 2003 basata su Windows Server 2003 Standard x64 Edition fornisce elementi per il calcolo ad alte prestazioni, come "Job Scheduler", le librerie MSMPI ed altri strumenti di amministrazione.
Lincoln, recentemente installato nel NCSA è un cluster di 450 Dell PowerEdge 1855 blade servers sui quali gira Windows Compute Cluster Server 2003. Questo cluster debuttò al centotrentesimo posto nella TOP500 nel giugno 2006 anche se attualmente come unico rappresentante di questa tecnologia.
DragonFly BSD, un fork di FreeBSD 4.8 è stato ridisegnato nel suo cuore elaborativo per abilitare capacità di clustering naturali. Consente inoltre di ottenere capacità di single-system image.
L'organizzazione TOP500 elenca ogni semestre i 500 calcolatori più veloci al mondo e solitamente in questa lista sono inclusi molti cluster.
TOP500 è una collaborazione fra università di Mannheim, università del Tennessee e centro di elaborazione scientifico nazionale di ricerca energetica al laboratorio nazionale Lawrence Berkeley.
Al novembre 2006, il supercomputer più veloce era il sistema IBM Blue Gene/L del Dipartimento per l'energia degli USA con le prestazioni di 280.6 TeraFLOPS.
Usare cluster può fornire significativi incrementi di prestazioni contenendo il costo.
System X, il supercomputer di Virginia Tech, al giugno 2006 era il ventottesimo supercomputer più potente sulla terra Archiviato il 30 giugno 2019 in Internet Archive.. È un cluster da 12.25 TeraFLOPS costituito da 1100 Apple XServe G5 a doppio processore da 2.3 gigahertz (RAM da 4 GB, HD SATA da 80 GB) con sistema operativo macOS ed interconnessi tramite InfiniBand. Il cluster inizialmente era costituito da Power Mac G5 che poi sono stati venduti. Gli XServe sono impilabili e meno voluminosi dei Mac desktop e consentono di realizzare quindi un cluster più compatto. Il costo complessivo del suddetto cluster di Power Mac era $5.2 milioni, un decimo del costo dei più lenti supercomputer costituiti da un unico elaboratore (mainframe).
Il concetto centrale del cluster Beowulf è l'uso di calcolatori commerciali per produrre un'alternativa economica ad un supercomputer tradizionale. Un progetto che ha preso questo concetto portandolo all'estremo era lo Stone Soupercomputer.
Il progetto SETI@home sembrerebbe essere il più grande cluster distribuito esistente. Utilizza circa tre milioni di personal computer sparsi in tutto il mondo per analizzare i dati provenienti dal radiotelescopio di Arecibo, al fine di trovare la prova dell'esistenza di intelligenza extraterrestre.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.