Loading AI tools
Da Wikipedia, l'enciclopedia libera
La storia dell'informatica è la storia della omonima scienza. Ha origini molto antiche, in quanto meccanismi per automatizzare il trattamento dei dati e delle operazioni aritmetiche erano noti già ai babilonesi intorno al X secolo a.C., in India e in Cina forse addirittura prima. In senso moderno, però, nasce soprattutto dal lavoro di precursori quali Pascal e Leibniz, iniziatori come Babbage, Lovelace, Zuse, Atanasoff, Turing e Aiken, creatori dei primi progetti computazionali di vasto respiro come de Finetti, von Neumann e Wiener.
Il più antico strumento conosciuto usato per la computazione fu l'abaco che, presso gli antichi popoli (babilonesi, cinesi, greci, romani), era una tavoletta con scanalature numerate contenenti pietruzze mobili, opportunamente disposte per poter eseguire i calcoli.[1] Dai tipi più antichi e da quelli medievali deriva l'abaco a palline infilate su bacchette di legno o fili metallici, detto pallottoliere, che serve per conteggi elementari.[1] Il suan-pa, o abaco cinese, è ancora in uso presso i popoli dell'Estremo Oriente.[1]
Nel I millennio a.C. vennero inventati in Cina i primi sistemi con differenziale.[2] Sono stati ritrovati nei carri risalenti a questo periodo.[2]
Nel V secolo a.C., nell'antica India, il grammatico Pāṇini formulò la grammatica del sanscrito in 3959 regole nell'opera Aṣṭādhyāyī, che è altamente sistematizzata e tecnica. Pāṇini impiegò metaregole, trasformazioni e ricorsioni.[3]
La macchina di Anticitera, nota anche come meccanismo di Antikythera, è il più antico calcolatore meccanico conosciuto, datato tra il 150 e il 100 a.C.[4] o, secondo ipotesi più recenti, al 250 a.C.[5][6] Fu ritrovata in un relitto al largo della Grecia. Si trattava di un sofisticato planetario, mosso da ruote dentate, che serviva per calcolare il sorgere del sole, le fasi lunari, i movimenti dei cinque pianeti allora conosciuti, gli equinozi, i mesi, i giorni della settimana e ‒ secondo uno studio pubblicato su Nature[7] ‒ le date dei giochi olimpici.
Dispositivi analogici meccanici per la computazione apparvero di nuovo un millennio dopo, nel mondo medievale islamico grazie agli astronomi arabi, come l'astrolabio meccanico di Abū Rayhān al-Bīrūnī[8], e il torqueto di Jabir ibn Aflah[9]. Secondo Simon Singh, i matematici arabi diedero anche importanti contributi alla crittografia, basti pensare allo sviluppo della crittoanalisi e dell'analisi delle frequenze da parte di Al-Kindi.[10][11] Furono inventate dagli ingegneri arabi anche alcune macchine programmabili, come il flauto automatico dei fratelli Banū Mūsā[12], o gli automi e l'orologio che usava la perdita di peso di una candela accesa per tenere traccia del tempo, da parte di Ibn al-Razzas al-Jazari[13]. Manufatti tecnologici di complessità simile apparvero nell'Europa del XIV secolo, come gli orologi astronomici meccanici.
Da quando i logaritmi vennero introdotti all'inizio del XVII secolo (quando lo scozzese Nepero pubblicò le prime Tavole dei logaritmi[1]), seguì un periodo di considerevole progresso nella strumentazione per il calcolo automatico, grazie a inventori e scienziati.
Nel 1623 lo scienziato tedesco Wilhelm Schickhard progettò una macchina calcolatrice, ma abbandonò il progetto quando il prototipo che aveva iniziato a costruire venne distrutto da un incendio nel 1624.[14] Verso il 1640 il matematico e filosofo francese Blaise Pascal costruì la Pascalina, un dispositivo meccanico basato su un progetto del matematico greco Erone di Alessandria.[15] In seguito, nel 1672, il matematico tedesco Gottfried Wilhelm Leibniz inventò una calcolatrice, nota anche con il nome inglese "Stepped Reckoner", che completa nel 1694.[16]
Nel 1702 Leibniz sviluppò la logica come disciplina matematica e formale, con i suoi scritti sul sistema numerico binario. Nel suo sistema, l'uno e lo zero rappresentano i valori vero e falso. Ma ci volle più di un secolo prima che George Boole pubblicasse la propria algebra booleana nel 1854[17], creando un sistema nel quale è possibile trattare ogni relazione logica attraverso l'utilizzo di formule algebriche[18]. Le operazioni (come l'addizione, la sottrazione e la moltiplicazione) vengono sostituite da operazioni logiche con valori di congiunzione, disgiunzione e negazione, mentre gli unici numeri utilizzati, 1 e 0, assumono rispettivamente i significati di vero e falso.[18]
Da questo momento furono inventati i primi dispositivi meccanici guidati da un sistema binario. La Rivoluzione industriale spinse in avanti la meccanizzazione di molte attività, e fra queste vi era la tessitura. Le schede perforate controllavano il telaio di Joseph Marie Jacquard nel 1801, dove un buco nella scheda indicava un uno binario e di conseguenza un punto non perforato indicava lo zero binario. Il telaio di Jacquard era molto distante da un moderno calcolatore, ma dimostrava che le macchine potevano essere guidate da sistemi binari.[17]
Charles Babbage è spesso riconosciuto come uno dei primi pionieri della computazione automatica. Babbage ideò una macchina per il calcolo automatico di grande complessità, la macchina differenziale, che riuscì a realizzare tra mille difficoltà, anche per i limiti della meccanica del tempo. Grazie a un metodo detto delle differenze, particolarmente adatto ad essere espresso in termini meccanici, Babbage creò un sistema per l'esecuzione automatica dei calcoli necessari per la compilazione delle tavole matematiche.[19]
Ideò poi, partendo dalle schede perforate del francese Jacquard[19], una nuova macchina, la macchina analitica: per essa, identificò un'unità di calcolo numerico (noi diremmo un processore), un'unità di controllo dell'esecuzione, una memoria per conservare i risultati intermedi e un dispositivo di uscita per visualizzare il risultato del calcolo.
La sua assistente, Ada Lovelace Byron, figlia del poeta inglese George Byron, ideò un metodo per la programmazione della macchina, almeno a livello teorico, ed è per questo considerata la prima programmatrice della storia (l'articolo fu pubblicato nel 1843).[19] In suo onore, negli anni Ottanta del XX secolo, fu creato un linguaggio di programmazione chiamato ADA.
La macchina analitica di Babbage, estremamente grande e costosa da costruire, non fu mai completata per mancanza di fondi.[19] Una strada, però, era stata aperta, anche se sarà solo con l'avvento dell'elettronica che la rivoluzione del calcolo automatico, iniziata 2300 anni prima, diventerà un fenomeno planetario.
Alan Turing è celebre per aver contribuito in modo decisivo, durante la Seconda Guerra Mondiale, all'impresa di decifrare i messaggi in codice utilizzati dai tedeschi con la loro macchina Enigma.[13] Ma questa sua attività ha finito per mettere in ombra il suo fondamentale ruolo di padre dell'informatica, in un periodo in cui questa disciplina non aveva ancora un nome e gli elaboratori eseguivano compiti appena superiori a quelli di una calcolatrice da tavolo.
Concentrando le sue ricerche sulla "computabilità", cioè la valutazione della possibilità di far eseguire determinate operazioni a una macchina, a poco più di vent'anni definì i confini teorici dell'informatica presente e futura.[20] Le sue ricerche successive non potevano non investire il campo di quella che in seguito si sarebbe chiamata intelligenza artificiale: il famoso test che porta il suo nome è ancora al centro del dibattito, quanto mai aperto, sulla capacità delle macchine di competere con la mente umana.[20]
Ma le fondamenta matematiche dell'informatica moderna furono gettate da Kurt Gödel con i suoi teoremi di incompletezza del 1931. Il primo afferma l'indimostrabilità della coerenza di qualunque sistema matematico che abbia nella sua formalizzazione anche i numeri naturali e cioè l'infinito, ovvero l'impossibilità di costruire all'interno della matematica sistemi i cui principi, o assiomi, siano non-contraddittori tra loro.[20] Insieme al secondo, del 1930, che afferma la completezza semantica della logica dei predicati, dimostrando che, se una formula è valida, allora la si può provare in un numero finito di passi, i due teoremi rappresentano un caposaldo di portata storica nel campo della logica matematica, con importanti implicazioni anche di ordine filosofico.[20] In ogni caso, condussero alla definizione e alla descrizione di questi sistemi formali, includendo concetti come le funzioni ricorsive, il lambda calcolo, la macchina universale di Turing, i sistemi di Post.[21]
Nel 1936 Alan Turing e Alonzo Church introdussero la formalizzazione di un algoritmo, con i limiti su ciò che poteva essere calcolato, oltre a un modello «puramente meccanico» per la computazione[20]. Questo divenne la tesi di Church-Turing, un'ipotesi circa la natura dei dispositivi di calcolo meccanici, come i calcolatori elettronici. Questa tesi dichiara che ogni calcolo (che sia possibile), può essere eseguito attraverso un algoritmo installato su un calcolatore, assunto che vi sia sufficiente tempo e spazio di archiviazione disponibile.
Nello stesso anno, Turing pubblicò anche il suo seminario sulla «macchina di Turing», ovvero una macchina calcolatrice digitale astratta che oggi è semplicemente chiamata «macchina universale di Turing». Questa macchina consacrò il principio del moderno calcolatore e rappresentò il luogo di nascita del concetto di "computer a programma memorizzato", il quale oggi è praticamente impiegato da ogni computer moderno.[22] Queste macchine ipotetiche erano progettate per determinare in modo formale, matematicamente, cosa potesse essere calcolato, tenendo in considerazione le limitazioni sulla capacità di calcolo. Se una macchina di Turing può completare un'attività, è considerata «Turing computabile» o più comunemente «Turing completa».[23]
A partire dagli anni Trenta del XX secolo, gli ingegneri elettrici furono capaci di costruire circuiti elettronici per risolvere problemi logici e matematici, ma molti lo fecero ad hoc, trascurando qualunque rigore teoretico. Questo cambiò con la teoria del circuito a switch dell'ingegnere della NEC Akira Nakajima, pubblicata proprio in quegli anni. Dal 1934 al 1936, Nakajima pubblicò una serie di documenti che mostravano che l'algebra booleana a due valori, che scoprì in maniera indipendente (conobbe il lavoro di George Boole solo nel 1938), può descrivere l'operatività dei circuiti a switch.[24][25][26][27] Questo concetto di utilizzo delle proprietà degli switch elettrici per ottenere risultati logici, è il principio base che sottostà a tutti i computer digitali elettronici. La teoria dei circuiti a switch fornì i fondamenti matematici e gli strumenti per la progettazione di sistemi digitali in quasi ogni area della moderna tecnologia.[27]
Il lavoro di Nakajima fu in seguito citato e rielaborato nella tesi di master del 1937 di Claude Elwood Shannon, intitolata A Symbolic Analysis of Relay and Switching Circuits.[26] Mentre seguiva una lezione di filosofia, Shannon fu messo a conoscenza del lavoro di Boole, e riconobbe che quell'algebra poteva essere utilizzata per ordinare i relè elettromeccanici in modo da risolvere problemi logici. La sua tesi divenne il principio su cui poggia la progettazione dei circuiti digitali quando divenne ampiamente nota presso la comunità degli ingegneri elettrici durante e dopo la Seconda guerra mondiale.
Nel 1941 Konrad Zuse sviluppò il primo computer funzionale controllato attraverso programmi, lo Z3. Nel 1998 fu qualificato come macchina «Turing completa».[28] Zuse sviluppò inoltre l'S2, considerata la prima macchina per il controllo industriale. Ha fondato uno dei primissimi business informatici nel 1941, producendo lo Z4, che divenne il primo computer commerciale al mondo. Nel 1946 progettò il primo linguaggio di programmazione ad alto livello, Plankalkül.[13]
Nel 1948 il Manchester Baby venne completato; era il primo calcolatore elettronico digitale per uso generale che eseguiva programmi memorizzati come la maggior parte dei computer moderni.[22] L'influenza su Max Newman del documento datato 1936 sulle macchine di Turing, e i suoi contributi logico-matematici al progetto, sono stati entrambi cruciali per il successivo sviluppo del Manchester SSEM.[22]
Nel 1950 il britannico National Physical Laboratory completò il Pilot ACE, un computer di piccola taglia programmabile, basato sulla filosofia di Turing. Con una velocità operativa di 1 MHz, il Pilot Model ACE fu per qualche tempo il computer più veloce al mondo.[22][29] Il design di Turing per l'ACE aveva molto il comune con le odierne architetture RISC e si appellava per una memoria ad alta velocità di circa la stessa capacità di un primo computer Macintosh, che era immensa per gli standard di quel tempo. Se l'ACE di Turing fosse stato costruito come previsto e completamente, avrebbe vantato un rapporto diverso dagli altri primi computer.[22]
Nel 1948 Claude Shannon pubblicò il saggio A Mathematical Theory of Communication (Una teoria matematica della comunicazione), uno dei pilastri della moderna teoria dell'informazione e dell'informatica, dove compare per la prima volta il termine «bit», da lui coniato per designare l'unità elementare di informazione, e dove vengono introdotti il concetto di entropia dell'informazione e l'identità tra i due valori di verità (vero e falso) della logica simbolica e i valori binari 1 e 0 dei circuiti elettronici.[21] Con i suoi lavori dedicati alla teoria dell'informazione, all'affidabilità dei circuiti, al problema della sicurezza della comunicazione e alla crittografia, Shannon ha profondamente cambiato la teoria e la pratica della comunicazione.[21]
Dopo il dottorato conseguito all'età di 18 anni alla Harvard University, con una tesi di logica matematica, Norbert Wiener studiò in Europa con Bertrand Russell e David Hilbert. Insegnò, a partire dal 1919, al MIT di Cambridge (Massachusetts).[21] Diede fondamentali contributi nel campo della teoria matematica dei processi stocastici, della previsione e del calcolo delle probabilità, e a partire dai suoi lavori sulla statistica elaborò con il suo allievo Claude Shannon, la moderna teoria dell'informazione.[21]
Negli anni della Seconda guerra mondiale, si occupò dei problemi del controllo automatico delle armi belliche.[21] Stimolato da queste ricerche, elaborò il progetto di una scienza generale della regolazione del controllo, da lui battezzata «cibernetica», e presentata in un libro di grande successo, intitolato Cybernetics or control and communication in the animal and the machine (La cibernetica, ovvero il controllo e la comunicazione negli animali e nelle macchine, 1948).[21] Da allora, pur continuando a occuparsi di matematica generale, si dedicò prevalentemente allo sviluppo e alla divulgazione della nuova disciplina.
In informatica l'architettura di von Neumann è una tipologia di architettura hardware per computer digitali programmabili a programma memorizzato la quale condivide i dati del programma e le istruzioni del programma nello stesso spazio di memoria. Per tale caratteristica l'architettura di von Neumann si contrappone all'architettura Harvard nella quale invece i dati del programma e le istruzioni del programma sono memorizzati in spazi di memoria distinti. Von Neumann propose una struttura molto semplice, che è poi quella che troviamo rispecchiata, in linea di principio, nei nostri PC.
Secondo John von Neumann, gli elementi essenziali di un calcolatore programmabile sono:
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.