Loading AI tools
scienza che studia i fondamenti teorici dell'informazione e della sua computazione Da Wikipedia, l'enciclopedia libera
L'informatica è la scienza o disciplina che si occupa del trattamento di dati fruibili nell'informazione mediante procedure automatizzate, avendo in particolare per oggetto lo studio dei fondamenti teorici dell'informazione, della sua computazione a livello logico e delle tecniche pratiche per la sua implementazione e applicazione in sistemi elettronici automatizzati detti quindi sistemi informatici; come tale è una disciplina fortemente connessa con la logica matematica, l'automatica, l'elettronica e anche l'elettromeccanica.
Si accompagna e si integra o è di supporto a tutte le discipline scientifiche e, come tecnologia, pervade pressoché qualunque "mezzo" o "strumento" di utilizzo comune e quotidiano, tanto che (quasi) tutti siamo in qualche modo utenti di servizi informatici. La valenza dell'informatica in termini socioeconomici ha scalato in pochi anni la piramide di Anthony, passando da operativa (in sostituzione o a supporto di compiti semplici e ripetitivi), a tattica (a supporto della pianificazione o gestione di breve termine), a strategica. In tale ambito, l'informatica è diventata talmente strategica nello sviluppo economico e sociale delle popolazioni che il non poterla sfruttare, uno status ribattezzato con l'espressione divario digitale, è un problema di interesse planetario.
Assieme all'elettronica e alle telecomunicazioni, unificate insieme sotto la denominazione tecnologie dell'informazione e della comunicazione (TIC), rappresenta quella disciplina e allo stesso tempo quel settore economico che ha dato vita e sviluppo alla terza rivoluzione industriale, attraverso quella che è comunemente nota come rivoluzione digitale. L'informatica si evolve soprattutto nel campo della telefonia.
Il termine italiano "informatica" derivava da quello francese "informatique", contrazione di informat(ion) (automat)ique, coniato da Philippe Dreyfus nel 1962.[N 1][1][2][3] Il primo utilizzo italiano risale al 1968.[3]
Nei paesi anglofoni, "informatica" si dice "computer science", espressione che appare per la prima volta in un articolo del 1959 in Communications of the ACM[4], nel quale Louis Fein discute la creazione di una Graduate School in Computer Sciences analoga alla Harvard Business School, giustificando il nome dicendo che, come la management science, la computer science è per sua natura una materia di studio applicata e interdisciplinare, avendo allo stesso tempo le caratteristiche tipiche di una disciplina accademica.[4] I suoi sforzi, e quelli di altri come l'analista numerico George Forsythe, saranno ricompensati: le università istituiranno tali corsi, a partire da Purdue nel 1962.[N 2][5] In Gran Bretagna è utilizzato anche il termine "informatics".
Il calcolatore, lo strumento base dell'informatica, è diventato insostituibile nei campi più disparati della vita e della scienza, grazie alla velocità di calcolo e alla notevole flessibilità della sua architettura-tipo, il modello di Von Neumann. È importante anche notare il differente significato di origine tra queste tre lingue nel denominare il computer:[6]
Il principio fondamentale dell'informatica, che è anche il significato della parola stessa, è che attraverso un calcolatore l'utente ottiene informazioni a partire da dati, per mezzo di una elaborazione automatica (mediante una procedura stabilita in precedenza, cioè il programma[7]). Il programmatore organizza e scrive le istruzioni del programma (attraverso specifici linguaggi di programmazione), il programma viene installato su un calcolatore e infine quest'ultimo ne esegue le istruzioni programmate, rispondendo agli input dell'utente. Un input è una immissione, inserimento, ingresso di dati, a cui segue l'elaborazione, che si conclude con l'output, ovvero un'uscita di informazioni organizzate in modo tale da trarne conoscenza.[8] Dunque, l'attività di un calcolatore è essenzialmente l'esecuzione di calcoli logico-aritmetici, che vengono svolti eseguendo istruzioni precedentemente impartitegli da un programmatore.
Il calcolatore non è dotato di una qualche forma di autocoscienza, poiché possiede una forma di intelligenza sui generis che prescinde dalla consapevolezza. Secondo Yuval Noah Harari non occorre, per portare a termine un compito che richiede l'elaborazione di dati, che un dispositivo di calcolo restituisca un risultato valutando anche esperienze soggettive.[9] Egli scrive che «oggi stiamo sviluppando nuovi tipi di intelligenza non cosciente che possono portare a termine tali compiti [giocare a scacchi, guidare automobili, ecc.] in modo assai più efficace degli umani, poiché tutti questi compiti sono basati sul riconoscimento di pattern», e che «le esperienze soggettive di un tassista in carne e ossa sono infinitamente più ricche di quelle di un'auto a guida autonoma, che non prova assolutamente nulla. [...] Ma il sistema non ha bisogno di niente di tutto questo da un tassista. Tutto quello che vuole davvero è che i passeggeri siano portati dal punto A al punto B nel modo più veloce, sicuro ed economico possibile. E l'auto a guida autonoma sarà presto in grado di fare meglio di un conducente umano, anche se non può godere della musica o rimanere impressionata dalla magia dell'esistenza».[9]
Una branca specifica dell'informatica, l'intelligenza artificiale (IA), si occupa di creare tecniche, algoritmi e programmi atti a simulare processi di pensiero e ragionamento. Queste tecniche non sono meno algoritmiche e deterministiche nei loro esiti di quelle usate in altri settori dell'informatica, tuttavia hanno il potenziale di catturare conoscenza e farne uso per fornire risposte spesso di qualità superiore a quella ottenibile mediante l'uso di esperti umani. Secondo i filosofi, l'intelligenza artificiale delle macchine non è vera e propria intelligenza, in quanto a esse mancano la coscienza di essere-nel-mondo e un rapporto concreto con l'ambiente circostante, caratteristiche tipiche dell'essere umano[10] e secondo il fisico computazionale Federico Faggin, degli organismi biologici in generale.[11]
Di recente lo studio dell'informatica ha anche assunto rilevanza multidisciplinare nel cercare di chiarire o giustificare processi e sistemi complessi del mondo reale, quali ad esempio la capacità del cervello umano di generare pensieri a partire da interazioni molecolari (studi facenti capo alla bioinformatica).
La storia dell'informatica comincia ben prima dell'invenzione del computer moderno. Infatti, già l'abaco (anch'esso un dispositivo analogico, ma ovviamente di minima complessità) veniva utilizzato nell'antichità per fare le semplici quattro operazioni. Si riscontrano anche altri dispositivi automatici come le macchine di Erone, gli automi di alcuni ingegneri arabi nel Medioevo, l'automa cavaliere di Leonardo da Vinci. Fu proprio un matematico arabo, Muḥammad ibn Mūsā al-Khwārizmī, a sistematizzare l'algebra (non ancora binaria); dal suo nome sarà coniato il termine "algoritmo", che sta a indicare una sequenza finita di operazioni.
L'orologio calcolatore di Schickhard (1592-1635), la pascalina di Pascal (1623-1662), la Stepped Reckoner di Leibniz (1646-1716), sono stati i primi calcolatori analogici utilizzati come strumenti ausiliari per i calcoli matematici. Babbage (1791-1871) ideò una macchina per il calcolo automatico di grande complessità, la macchina differenziale, che riuscì a realizzare tra mille difficoltà, anche per i limiti della meccanica del tempo. Grazie a un metodo detto delle differenze, particolarmente adatto a essere espresso in termini meccanici, Babbage creò un sistema per l'esecuzione automatica dei calcoli necessari per la compilazione delle tavole matematiche. Ideò poi, partendo dalle schede perforate del francese Jacquard, una nuova macchina, la macchina analitica: per essa, identificò un'unità di calcolo numerico (noi diremmo un processore), una unità di controllo dell'esecuzione, una memoria per conservare i risultati intermedi e un dispositivo di uscita per visualizzare il risultato del calcolo.
I padri dell'informatica moderna sono John von Neumann (1903-1957) e Alan Turing (1912-1954). Al primo si deve l'organizzazione concettuale del moderno calcolatore, oggi nota come architettura di von Neumann; al secondo invece dobbiamo studi sulla crittografia (disciplina già avviata nei secoli precedenti) e la formalizzazione della Macchina di Turing, il modello di "macchina" fondamento teorico di ogni moderno sistema programmabile.[8]
Si vedano le voci: Cronologia dei computer dal 1950 al 1979, Cronologia dei computer dal 1980 al 1989, Cronologia dei computer dal 1990 al 1999, Cronologia dei computer dal 2000 al 2009, Cronologia dei computer dal 2010 al 2019.
Esistono frange di persone che confondono l'informatica con aree professionali che tipicamente riguardano l'utilizzo dei programmi per l'ufficio (come Microsoft Office), la navigazione sul web o il gaming. In realtà, l'informatica vera e propria (che si distingue in teorica e applicata) è lo studio di procedure, algoritmi e linguaggi capaci di permettere a una macchina di eseguire operazioni in modo automatico, e perciò richiede notevoli conoscenze e competenze in materie di studio come la matematica, logica, linguistica, psicologia, nonché elettronica, automatica, telematica, e altre. Mentre occorrono notevoli conoscenze tecniche per appartenere alla categoria degli informatici di professione, per appartenere a quella degli utenti finali ne occorrono decisamente di meno – talvolta solo il minimo indispensabile – e questo grazie al lavoro dei primi, costantemente orientato a rendere sempre più semplice l’uso del computer per tutti.[8] Un informatico dovrebbe sempre avere un interesse genuino per i fondamenti teorici dell'informatica; che poi, per professione o per passione, spesso faccia lo sviluppatore di software è possibile ma, potendo sfruttare le proprie capacità di problem solving (soluzione di problemi) in diversi ambiti, non è scontato. In ogni caso l'informatica, almeno nella sua parte applicativa, è una disciplina fortemente orientata al problem solving.
L'informatica, oggi autonoma disciplina di studio, nasce dal convergere di differenti campi disciplinari che, per vie diverse, si sono posti il problema di come automatizzare il calcolo, cioè la manipolazione di simboli attraverso determinate regole, rendendolo eseguibile da una macchina.[12] Ma i fondamenti teorici della disciplina discendono direttamente dalla matematica (matematica discreta), a cui l'informatica è strettamente legata. L'informatica vera e propria spazia tra diversi campi più ristretti: lo studio dei linguaggi formali e degli automi, che riguarda anche i compilatori; lo studio della complessità computazionale, in particolar modo per la minimizzazione del numero di istruzioni da eseguire per la risoluzione di un problema e per la ricerca di algoritmi approssimati per risolvere problemi NP-difficili; la crittologia, la scienza che studia i metodi per rendere un messaggio incomprensibile a chi non sia in possesso di una chiave di lettura del messaggio stesso; la teoria dei codici, utilizzata, ad esempio, per la compressione dati o per cercare di garantire l'integrità dei dati; la ricerca operativa, per fornire strumenti matematici di supporto alle attività decisionali; la computer grafica, suddivisa a sua volta in grafica bitmap e grafica vettoriale; citando solo alcuni sottocampi. Un caso particolare o sottoinsieme di informatica d'uso è l'informatica aziendale.
Data l'ampiezza del trattare l'informatica è quindi necessario definire, sia pure a grandi linee un quadro generale entro il quale comprendere la materia. Pertanto questa sezione cerca di essere un glossario introduttivo dell'intera disciplina.
In qualità di disciplina, l'informatica spazia dagli studi teorici sugli algoritmi e i limiti della computazione ai problemi pratici dell'implementazione dei sistemi informatici di hardware e software.[14][15] La CSAB, chiamata formalmente Computing Sciences Accreditation Board – che è costituita dai rappresentanti dell'ACM e dell'IEEE Computer Society[16] – identifica quattro aree che considera cruciali per la disciplina dell'informatica: teoria della computazione, algoritmi e strutture dati, metodologia e linguaggi della programmazione, e architettura ed elementi del computer. In più, la CSAB identifica anche campi come l'ingegneria del software, intelligenza artificiale, comunicazione e le reti di computer, sistemi di basi di dati, calcolo parallelo, calcolo distribuito, interazione uomo-macchina, computer grafica, sistemi operativi e calcolo simbolico e numerico, come aree importanti dell'informatica.[14]
L'informatica teorica è essenzialmente astratta e matematica, ma deriva la propria ragion d'essere dai calcoli pratici e quotidiani. Il suo scopo è di capire la natura della computazione e, come conseguenza di questa comprensione, fornire metodologie sempre più efficienti.
La teoria dell'informazione è relativa alla quantificazione dell'informazione. Fu sviluppata da Claude Shannon per trovare i limiti fondamentali delle operazioni di elaborazione dei segnali, come la compressione dati e l'archiviazione e la comunicazione affidabile degli stessi.[17]
La teoria dei codici è lo studio delle proprietà dei codici (sistemi per convertire l'informazione da una forma all'altra) e la loro adattabilità per una specifica applicazione. I codici sono usati per la compressione dati, crittografia, rilevazione e correzione d'errore, e più recentemente anche per la codificazione delle reti. I codici sono studiati in modo da progettare metodi di trasmissione dati affidabili ed efficienti.
Secondo Peter Denning, la domanda fondamentale che soggiace l'informatica è «cosa può essere (efficientemente) automatizzato?».[18] La teoria della computazione cerca di rispondere alle domande fondamentali che riguardano che cosa può essere calcolato e la quantità di risorse necessarie per eseguire i calcoli. La teoria della computabilità si sforza di rispondere alla prima domanda, esaminando quali problemi computazionali sono risolvibili attraverso vari modelli teorici di computazione. Alla seconda domanda invece cerca di rispondere la teoria della complessità computazionale, che studia i costi in termini di spazio e tempo associati ad approcci differenti per risolvere una moltitudine di problemi computazionali.
Il famoso problema P = NP?, uno dei Problemi per il millennio, è un problema ancora aperto nella teoria della computazione.
P = NP? | GNITIRW-TERCES | |||
Teoria degli automi | Teoria della computabilità | Teoria della complessità computazionale | Crittografia | Teoria del calcolo quantistico (computer quantistico) |
Questo campo studia i metodi di calcolo comunemente usati e la loro efficienza computazionale.
Analisi degli algoritmi | Algoritmi | Strutture dati | Ottimizzazione combinatoria | Geometria computazionale |
La teoria dei linguaggi di programmazione è una branca dell'informatica che ha a che fare con la progettazione, implementazione, analisi, caratterizzazione, e classificazione dei linguaggi di programmazione e delle loro particolari caratteristiche. Rientra nella disciplina dell'informatica e allo stesso tempo dipende e influenza matematica, ingegneria del software e linguistica. È un'area di ricerca attiva, con numerosi giornali accademici dedicati.
Teoria dei tipi | Compilatori | Linguaggi di programmazione |
Questo è un tipo particolare di tecnica basata sulla matematica per la specificazione, sviluppo e verifica di sistemi hardware e software. L'utilizzo dei metodi formali per la progettazione di hardware e software è motivata dall'aspettativa che, come nelle altre discipline ingegneristiche, eseguire analisi matematiche appropriate possa contribuire all'affidabilità e alla robustezza di un progetto. I metodi formali formano un importante pilastro dell'ingegneria del software, specialmente dove è coinvolta la sicurezza e rappresentano un'utile aggiunta al collaudo del software poiché aiutano a evitare errori e possono anche fornire un framework per il collaudo stesso.
I metodi formali sono meglio descritti come l'applicazione di una sufficientemente ampia varietà di fondamenti dell'informatica teorica, in particolare calcolo logico, linguaggi formali, teoria degli automi, e semantica, ma anche sistemi dei tipi, tipi di dati algebrici, riguardo problemi nella specificazione e verifica dell'hardware e del software.
L'informatica applicata punta a identificare specifici concetti informatici che possono essere utilizzati direttamente per risolvere problemi del mondo reale.
L'architettura dei calcolatori, o organizzazione dei calcolatori digitali, è il design concettuale e la struttura operativa fondamentale di un sistema computerizzato. Si focalizza ampiamente sul modo in cui la CPU svolge le operazioni internamente e accede agli indirizzi in memoria.[19] Il campo spesso coinvolge discipline dell'ingegneria informatica e dell'ingegneria elettrica, selezionando e interconnettendo i componenti hardware per costruire computer che vengano incontro a obiettivi funzionali, prestazionali ed economici.
Logica digitale | Microarchitettura | Multiprocessing |
Ubiquitous computing | Architettura dei sistemi | Sistemi operativi |
L'analisi delle prestazioni è lo studio del lavoro svolto dai computer, che ha per obiettivi generali il miglioramento del produttività di dati, il controllo del tempo di risposta, l'uso efficiente delle risorse, l'eliminazione dei colli di bottiglia, e la predizione della performance sotto carichi di punta anticipati.[20]
In generale i due campi applicativi principali dell'informatica aziendale sono l'ambito di programmazione ovvero lo sviluppo software da parte di team di programmatori e l'ambito sistemistico ovvero la progettazione, realizzazione e gestione dell'infrastruttura IT a supporto delle decisioni di business e operative aziendali in tutte le sue componenti per opera di sistemisti.
Una rete di computer è un insieme di dispositivi hardware e software collegati l'uno con l'altro da appositi canali di comunicazione, che permette il passaggio da un utente all'altro di risorse, informazioni e dati in grado di essere pubblicati e condivisi.
Una base di dati (database) è un sistema inteso per organizzare, memorizzare, e recuperare grandi quantità di dati facilmente. Una base di dati digitale è gestita utilizzando sistemi di gestione per memorizzare, creare, mantenere, e cercare dati, attraverso modelli e linguaggi di interrogazione.
Il monitoraggio informatico (monitoring) è l'area che si occupa di realizzare sistemi atti a sorvegliare l'andamento di funzioni e di prestazioni di risorse, applicazioni e infrastrutture. L'impiego di sensori software o strumenti hardware è alla base del monitoraggio.
La concorrenza è una proprietà dei sistemi in cui vengono eseguite svariate computazioni simultaneamente, e che potenzialmente interagiscono le une con le altre. Sono stati sviluppati diversi modelli per la generale computazione concorrente, fra cui la rete di Petri, process calculi, PRAM. Un sistema distribuito estende l'idea della concorrenza a più computer connessi attraverso una rete. Computer all'interno dello stesso sistema distribuito hanno una propria memoria, e l'informazione è spesso scambiata tra di essi per conseguire un obiettivo comune.
La sicurezza informatica è una branca delle tecnologie dell'informazione, che ha per oggetto la protezione dell'informazione da accessi non autorizzati, interruzioni, o modifiche, pur mantenendo l'accessibilità e l'usabilità del sistema per gli utenti a cui è destinato. La crittografia è la pratica e lo studio dell'occultamento (criptaggio) e della decifrazione (decriptaggio) dell'informazione. La crittografia moderna è ampiamente connessa all'informatica, poiché molti algoritmi di criptaggio e decriptaggio sono basati sulla loro complessità computazionale.
La scienza computazionale è il campo di studio che concerne la costruzione di modelli matematici e tecniche di analisi quantitativa tali da utilizzare il computer per analizzare e risolvere problemi scientifici. Nella pratica, tipicamente consiste nell'applicazione della simulazione al computer e altre forme di computazione a problemi in varie discipline scientifiche.
Analisi numerica | Fisica computazionale | Chimica computazionale | Bioinformatica |
La computer grafica è lo studio dei contenuti visuali digitali, e coinvolge la sintesi e manipolazione di dati immagine. Lo studio è connesso a molti altri campi dell'informatica, includendo la visione artificiale, l'elaborazione digitale delle immagini, la geometria computazionale, ed è pesantemente applicata nei campi degli effetti speciali e videogiochi.
L'ingegneria del software è lo studio della progettazione, implementazione, e manutenzione del software, in maniera tale da garantire alta qualità, affidabilità, sostenibilità, e velocità nella costruzione. È un approccio sistematico al software design, che consiste nell'applicazione di pratiche ingegneristiche al software. L'ingegneria del software ha a che fare l'organizzazione e l'analisi del software, e non solo con la sua creazione e produzione, ma anche con la sua manutenzione interna e sistemazione.
L'interazione uomo-macchina è campo di ricerca che sviluppa teorie, principi, e linee guida per i progettisti delle interfacce utente, in modo che possano creare esperienze utente soddisfacenti con dispositivi desktop, laptop e mobile (vedi usabilità). Con questo scopo, l'informatica sta sempre più evolvendo verso una disciplina interattiva e orientata alla comunicazione efficace. Tale campo coinvolge diverse discipline, tra cui informatica, psicologia, scienze cognitive, design, intelligenza artificiale e scienze del linguaggio.
L'intelligenza artificiale (in acronimo IA, oppure AI in inglese) punta o è richiesta per la sintesi di processi orientati agli obiettivi come per esempio problem solving, decision making, adattamento all'ambiente, apprendimento e comunicazione, riscontrabili in umani e animali. Fin dalle sue origini all'interno della cibernetica e nella Conferenza di Dartmouth (1956), la ricerca sull'intelligenza artificiale è stata necessariamente interdisciplinare, ricorrendo ad aree specialistiche come la matematica applicata, logica simbolica, semiotica, ingegneria elettrica, filosofia della mente, neurofisiologia e intelligenza sociale. L'IA è associata, secondo il pensiero comune, allo sviluppo dei robot, ma il campo principale in cui vi è un'applicazione pratica è lo sviluppo di software, che richiede una comprensione computazionale. Il punto di partenza è stato il quesito di Alan Turing «Can computers think?» dei tardi anni quaranta del XX secolo, che rimane effettivamente senza risposta, sebbene il Test di Turing sia ancora usato per valutare l'output del computer sulla scala dell'intelligenza umana. L'automazione delle attività di valutazione e predizione ha conosciuto crescenti successi nel sostituire il monitoraggio e l'intervento umano in campi dell'informatica applicata che coinvolgono dati del mondo reale di una certa complessità.
L'insegnamento dell'informatica avviene in diversi modi e a diversi livelli. Nelle scuole secondarie di secondo grado esiste la specializzazione di perito informatico.
L'informatica è entrata nel panorama dell'insegnamento universitario italiano negli anni settanta. Oggi vi sono corsi di Informatica in praticamente tutte le Università che abbiano dipartimenti a carattere scientifico. Solitamente il corso di informatica appartiene alla facoltà di scienze matematiche, fisiche e naturali, anche se di fatto esiste anche un corso di laurea in ingegneria informatica presso la facoltà di ingegneria con elementi misti di informatica pura e sistemi hardware elettronici. L'attuale corso di studi è suddiviso in una laurea triennale, una laurea magistrale e il dottorato in informatica offrendo una formazione teorica di base e avanzata sull'informatica stessa. La laurea in Informatica permette inoltre di sostenere l'Esame di Stato per l'abilitazione alla professione di Ingegnere dell'Informazione.[21]
In Italia si hanno inoltre varie certificazioni che attestano il possesso di abilità informatiche o di competenze professionali:
Esistono poi numerose altre certificazioni professionali in ambito programmazione (es. Microsoft .Net e Java della Sun Microsystems) e sistemistico (es. Linux System Administration, Windows certification, application server certification, Vmware/Citrix virtualization certification, Oracle DBA certification, IBM DB2 certification, SAP certification, Cisco e Juniper networking certification), tutte altamente spendibili in ambito lavorativo nel mercato informatico aziendale, detto anche terziario avanzato, fortemente espanso a partire dai primi anni 2000 con la diffusione di Internet.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.