Il termine "Informatica", deriva dall'unione dell'espressione "Informazione Automatica". E' fondamentalmente la disciplina che studia le tecniche per generare e gestire le informazioni in maniera automatica. Questa definizione però, è meglio collocata in un'epoca più recente, all'inizio del ventesimo secolo. Nei tempi precedenti, questa disciplina era più semplicemente vista come "calcolo automatico", ossia si studiavano le tecniche che permettevano di ottenere i risultati delle operazioni matematiche in maniera automatica.
Non tutti sanno che le origini della Scienza Informatica risalgono a molti anni prima della nascita di Cristo, orientativamente nel 3000 A.C.
L'esigenza di automatizzare i calcoli nacque in Asia, dove il popolo cinese iniziava sempre più ad avere un mercato fiorente con i rispettivi popoli giapponesi, indiani e coreani. I più grandi uomini d'affari di quel tempo necessitavano di uno strumento capace di aiutarli nei calcoli, e poco dopo venne introdotto l'abaco. Nella sua forma più primitiva l'abaco consiste semplicemente di una serie di scanalature sulla sabbia sulle quali vengono disposti delle pietruzze o dei bastoncini, mentre una forma più evoluta usata dai Romani è una tavoletta con scanalature sulle quali vengono posti alcuni sassolini. L'abaco quindi è tipicamente una tavoletta con delle palline scorrevoli il cui funzionamento si basa sul principio fondamentale di ogni sistema di numerazione posizionale, cioè che il valore di una cifra dipende dal posto che occupa. Le pietruzze su linee diverse indicano unità di ordine diverso, ma anche unità frazionarie; le operazioni possibili non sono soltanto addizioni e sottrazioni, ma anche moltiplicazioni e divisioni, viste rispettivamente come addizioni e sottrazioni ripetute. L'abaco venne introdotto in Europa a partire dai periodi degli antichi greci, come riferisce Erodoto (lo stesso storico greco afferma come già gli egiziani lo conoscessero); anche nella Roma antica si impiegavano tali strumenti, usando tavolette di metallo con scanalature parallele su cui scorrevano palline mobili oppure tavolette di legno coperte di sabbia. Nei nostri tempi l'abaco viene usato solitamente come gioco o nelle scuole per insegnare i bambini a contare.
Per più di mille anni dopo la nascita dell'abaco, non vi furono grandi invenzioni atte ad essere di ausilio all'aritmetica, ma vi seguirono solo grandi matematici, quali i greci, che trascorrevano gran parte del tempo alla risoluzione di teoremi e alle stesure di numerosi formulari sulla teoria degli integrali dei logaritmi e della trigonometria.
Tra i quali vale la pena ricordare il ben noto Archimede (Siracusa, circa 287 a.C. – Siracusa, 212 a.C.), che dedicò l'intera vita alla matematica, per poi essere ucciso dai romani che lo ritenevano troppo pericoloso a causa delle sue invenzioni belliche. Si è scelto di menzionare proprio Archimede perchè recentemente sono stati ottenuti dei risultati sorprendenti riguardante il famoso libro "Il Codice Perduto di Archimede". Le pagine del libro vennero 'lavate' da un monaco per essere riutilizzate nuovamente per la scrittura. Anni a seguire venne venduto nei mercati per pochi denari, per finire in vari scaffali di appassionati di libri di preghiere.
Il 29 ottobre 1998 il "New York Times" riportò in prima pagina la notizia della vendita di un libro di preghiere medioevale a un'asta di Christie's. Pare che il libro sia stato venduto per circa due milioni di dollari e acquistato da un anonimo, esperto in scienze moderne...
Ben presto, un'incredibile scoperta: sotto i versi sacri, grazie alla tecnica dei raggi infrarossi, si cela il più antico manoscritto di Archimede di Siracusa, un trattato matematico risalente a più di due millenni fa, raschiato e riutilizzato nel tredicesimo secolo. Reviel Netz e William Noel, entrambi coinvolti nel progetto di recupero e di studio di questo palinsesto dal valore inestimabile, intrecciano nel loro saggio l'avventura del suo ritrovamento, scoprendo che il grande matematico già ai suoi tempi studiò delle teorie per il calcolo dell'infintesimo, teorie queste che ancor'oggi sono insolute. Quanto detto ci permette di comprendere che se questo manoscritto fosse stato scoperto in quel periodo, oggi la matematica e quindi i computers, sicuramente si troverebbero ad un livello più avanzato.
Wilhelm Schickard inventò il primo calcolatore meccanico nel 1623. Poteva funzionare usando sei cifre con il rispettivo riporto attraverso le colonne. Ma della sua idea ne realizzò soltanto un prototipo.
Blaise Pascal raffinò l'idea di Schickard, e nel 1642 costruì la Pascalina, primo strumento per fare i calcoli in maniera meccanica. Si trattava di una macchina che permetteva di addizionare e sottrarre tenendo conto del riporto; se vogliamo è il primo esemplare di calcolatrice.
Della Pascalina furono costruiti una cinquantina di esemplari per operazioni sia in base decimale che nell'unità monetaria dell'epoca. In particolare, il primo esemplare fu costruito da Pascal per aiutare il padre, funzionario delle imposte, a gestire la propria contabilità. Lavorava in lire, formate da venti soldi, formati da dodici denari. La Pascalina tecnicamente era composta da una serie di ruote dentate indicanti le unità, le decine, le centinaia e così via, e ognuna era divisa in dieci settori, dallo 0 al 9, corrispondenti alle cifre del sistema decimale. Inizialmente azionate con il movimento di una mano, successivamente con l'aggiunta di una pratica manovella. Le ultime macchine costruite ispirandosi alla Pascalina furono delle addizionatrici tascabili (circa 30x6x1,5 cm) molto diffuse nella prima metà del Novecento, come l'Addometer. Negli anni sessanta IBM fece realizzare per i propri ingegneri un'addizionatrice di plastica simile a queste ultime, ma che operava in base esadecimale. Questa permetteva di eseguire in modo semplice ed economico i calcoli necessari nella progettazione e programmazione dei moderni computer. Pochi anni dopo, nel 1673, Gottfried Leibniz costruisce una macchina calcolatrice e meccanica che moltiplica, divide, aggiunge e sottrae. Mentre Tomas of Colmar stava sviluppando con successo il primo calcolatore commerciale, nel 1820 Charles Babbage getta le basi per il primo calcolatore automatico azionato a vapore.
E' stato ideato inizialmente per la stampa di tavole astronomiche. Gli studi ed i lavori durarono circa venti anni, successivamente nel 1842 il governo britannico bloccò gli avanzamenti, e il progetto si fermò allo stadio di un prototipo. Quest' ultimo, seguendo delle istruzioni prestabilite riusciva nella stampa di tavole astronomiche e in calcoli di vario genere. Durante gli studi, esattamente nel 1883, Charles Babbage non portò più avanti il progetto di un calcolatore azionato a vapore (che venne poi bloccato dal governo), ma sviluppò una nuova idea che non si basava più su un "motore meccanico" ma su un "motore analitico".
La sua invenzione era un vero e proprio computer , con tecnica parallela decimale, che operava su parole di 50 decimali e capace di immagazzinare 1000 numeri. La macchina funzionava seguendo un numero di operazioni incorporate, come il controllo condizionale, che permetteva di eseguire istruzioni non più seguendo uno specifico ordine, ma gestito dalle dall'esecuzione delle istruzioni condizionali.
Se vogliamo è la nascita delle istruzioni che troviamo ancora oggi nei nostri codici, es:
Le istruzioni per la macchina erano immagazzinate su schede perforate, simile a quelli usati per la prima volta da Jacquard.
Nel 1842 la contessa di Lovelace, Ada Byron, figlia del poeta Lord Byron, scrisse i primi programmi della storia per Charles Babbage.
Nel 1854 il maestro di scuola elementare irlandese, George Boole, inventò il codice binario, pubblicò "L'Analisi Matematica Logica", e da qui nacque tutta la teoria sulll'algebra booleana.
Nel 1885 gli svedesi Giorgio ed Edvard Scheutz a Stoccolma crearono il primo computer meccanico pratico, basato sulle teorie di Babbages. Venne per la prima importato negli Stati Uniti ed usato per calcoli astronomici.
Da quel momento gli americani concentrarono molte risorse per l'innovazione tecnologica.
Nel 1889 Hermann Hollerith brevettò l'utilizzo di schede perforate e sviluppò un' apparecchiatura la cui lettura avveniva mediante l'analisi di circuiti elettrici chiusi in corrispondenza dei fori della scheda. Sorprendentemente l'idea non nacque dal lavoro di Babbage, ma prese spunto dai controllori dei treni quando etichettavano i biglietti. Queste schede erano delle vere e proprie "memorie" dove su di ognuna erano memorizzare (etichettate) le informazioni. Vista la grande mole di queste schede che diventavano via via sempre più numerose, decise ci commercializzare la sua idea e fondò nel 1896 la società Tabulating Machine Company, che nel 1924 sarebbe divenuta la IBM.
La macchina di Hollerith aveva però delle limitazioni. Le schede perforate non potevano essere usate per eseguire calcoli più complessi.
Nel frattempo in Gran Bretagna il matematico britannico Alan Turing pubblicò nel 1936 l'articolo intitolato "On computable Number, with an application to the Entscheidungsproblem" dove descriveva, per la prima volta, quella che verrà poi definita come la macchina di Turing.
Durante la seconda guerra mondiale, Turing mise le sue capacità matematiche al servizio del "Department of Communications" inglese per decifrare i codici usati nelle comunicazioni naziste, criptate tramite il cosiddetto sistema Enigma (progettato da Arthur Scherbius). La macchina di Turing fu progettata per compiere operazioni logiche di lettura e scrittura su un nastro ideale, infinito, basata su stati logici. Di conseguenza si è consolidata la convinzione che per ogni problema calcolabile esista una macchina di Turing in grado di risolverlo: questa è la cosiddetta congettura di Church-Turing, la quale postula in sostanza che per ogni funzione calcolabile esista una macchina di Turing equivalente, ossia che l'insieme delle funzioni calcolabili coincida con quello delle funzioni ricorsive. Lo scopo di Turing era non di inventare un computer, ma piuttosto descrivere problemi che sono logicamente risolvibili. Comunque, la sua macchina teorica scrisse quelle che sono le basi della computazione dei nostri computers moderni. Il "nastro senza fine", potrebbe essere considerato come la memoria interna di una macchina, in cui si possono effettuare infinite operazioni di scrittura, lettura, proprio come avviene oggi nella memoria Ram dei nostri PC.
La calcolatrice più moderna di quel tempo fu la 'Complex Number Calculator (CNC)', e venne completata nel 1939 nei Bell Telephone Laboratories. Disegnata dal ricercatore Giorgio Stibitz nel 1940, il quale dimostrò ad una conferenza di matematica americana tenuta all'Università di Dartmouth, che era possibile addirittura effettuare calcoli a distanza, usando le linee telefoniche. Questo fu la prima dimostrazione di calcolo a distanza.
Nel 1941, il tedesco Konrad Zuse, sviluppò diverse macchine calcolatrici. Rilasciò il primo computer programmabile progettato per risolvere equazioni di ingegneria complessa. La macchina fu chiamata Z1, che successivamente divenne Z2 e poi completamente automatica Z3 (basata su relè).
Von Neumann viene a conoscenza da un suo collega, Herman Goldstine, impegnato anch'esso nel Progetto Manhattan, dei tentativi effettuati presso il laboratorio balistico di costruire una macchina capace di trecento operazioni al secondo. Von Neumann rimane profondamente colpito da questa cosa e dentro alla sua mente si aprono nuovi e affascinanti scenari. Il primo incontro con un calcolatore risale a poco tempo dopo, con la macchina Harvard Mark I (ASCC) di Howard Aiken, costruita in collaborazione con l'IBM; poi conosce ENIAC (Electronic Numerical Integrator And Computer), un ammasso enorme di migliaia di valvole, condensatori, interruttori e 18.000 tubi, aveva un peso di circa trenta tonnellate, era in grado di svolgere 5.000 somme e 360 moltiplicazioni al secondo. Fu costruita da Prosper Eckert e John Mauchly.
Questo primordiale computer era utile per eseguire calcoli balistici, meteorologici o sulle reazioni nucleari, ma è una macchina limitata, quasi del tutto priva di memoria e di elasticità. Per migliorare un simile marchingegno c'è bisogno di quell' intuizione che una decina d'anni prima aveva avuto Alan Turing nel suo articolo sui numeri computabili, e cioè permettere al computer di modificare il proprio comportamento, o, in altre parole, imparare un software. Nel 1945 esce così First Draft of a Report on the Edvac.L'EDVAC (Electronic Discrete Variables Automatic Computer) è la prima macchina digitale programmabile tramite un software basata su quella che sarà poi definita l'architettura di Von Neumann. Il merito dell'invenzione, come il nome dell'architettura suggerisce, va allo scienziato ungherese, di gran lunga più importante dei vari Turing (per l'idea), Eckert o Mauchly (per la realizzazione). Con quest'ultima invenzione scomparvero le ingombranti schede perforate, nastri, carta ecc.. Von Neumann ideò di immagazzinare ogni istruzione del programma insieme ai dati nella stessa unità di memoria, così che, in qualsiasi momento si voglia, di possono modificare le istruzioni in maniera aritmetica nello stesso modo dei dati.
Quanto detto fino ad ora lascia comprendere che ci stiamo avvicinando sempre più alle sembianze dei nostri computers moderni, infatti l'architettura di Von Neumann, è utilizzata tutt'ora, e si trova alla base del funzionamento dei nostri PC:
Nei Dipartimenti di Ricerca di Minneapolis venne costruito l'UNIVAC 1101 (o Era 1101), il primo computer commercialmente prodotto; la prima compagnia ad acquistarlo fu la Marina militare Americana. Conteneva 1 milione di pezzi sulla sua bobina magnetica e furono le prime apparecchiature a memoria magnetica. Poteva memorizzare 4.000 parole e recuperarle in 5 mille secondi.
Nel 1950 anche l'elettronica diede una svolta decisiva alla storia dei computer grazie alla nuova scoperta nei laboratori dei laboratori di Bell Labs nel 1947 da parte di William Shockley, John Bardeen, e Gualtiero Brattain: i Transistors.
Il primo transistor aveva dimensioni dell'ordine del centimetro e realizzato con la tecnica detta punta di contatto, costituita da elettrodi termitati a punta, premuti sulla superficie di una piastrina di cristallo semiconduttore; tecnica simile al vecchio rivelatore a galena. Provvisoriamente, dato che funzionava in modo analogo ad un triodo, venne chiamato triodo a stato solido, il nome definitivo deriva dall'unione dei termini TRANSconduttance e varISTOR. Nel 1956 i tre ricercatori furono insigniti del Premio Nobel per la Fisica, con la motivazione "per le ricerche sui semiconduttori e per la scoperta dell'effetto transistor". Grazie all'avvento dei transistors, scomparvero tutti quei tubi o quelle valvole presenti nei prototipi precedenti, incrementando notevolmente le prestazioni, l'ingombro e i costi. Nel 1958 i transistors vennero perfezionati da Jack San Clair Kilby della nota casa Texas Instruments, che fabbricò il primo circuito integrato, in cui erano accorpati tanti transistors su di un unico supporto.
IBM in quei stessi anni stava sviluppando una serie di computers ad alta tecnologia, come quello realizzato nel 1954, chiamato IBM 650, ed era un calcolatore a disco magnetico destinato a un uso commerciale (ne furono venduti 450 in un anno). Il disco magnetico roteava a 12.500 rpm, e aveva un accesso ai dati molto più veloce rispetto a quello a bobina. Poco dopo il primo computer elettronico, IBM 701.
Durante tre anni di produzione, IBM vendette 19 macchine per vari utilizzi. Nel 1959 il passo successivo dell'IBM è stato l'introduzione sul mercato della serie 7000-7030, mentre nel 1961 la serie 1401. Entrambi impiegavano l'uso di transistors che incrementavano le prestazioni e dischi magnetici.
Nel decennio successivo oltre alla già affermata IBM, varie aziende produssero un loro prototipo, tutti con un caratteristica propria, vale la pena ricordare alcuni modelli: MIT TX0, SAGE, NEAC 1101 (della NEC), DEC PDP-1, LINC, DEC PDP-8, ILLIAC IV, HP-2115 (Hewlett-Packard).
Nel 1968 Gordon Moore e Robert Noyce fondarono la più grande compagnia di circuiti integrati odierna: Integrated Electronics Corp. (Intel). Pochi anni dopo, nel 1971 divenne una società per azioni, e Intel annuncia il primo microprocessore, l'Intel 4004, sviluppato da una squadra diretta da Marcian E. Hoff. L'anno dopo introdusse l'8008, e poi l'8080, un microprocessore a 8 bit. Da qui si può introdurre l'era moderna dei computers basati su sistema a microprocessore, che permetteva di eseguire moltissimi calcoli al secondo, riducendo di molto l'ingombro fisico della macchina, e quindi rendere alla portata di tutti un conputer commerciale.
Contemporaneamente, il fascino del "fai da te" dell'elettronica venne contagiato dalla febbre dei computer: il numero ormai storico di Popular Electronics del gennaio 1975 mostrava in copertina una scatola celeste con sopra interruttori e led, chiamato: Altair 8800.
Il kit, del costo di 397 dollari, poteva essere ordinato presso la MITS di Albuquerque, ed era basato sul processore Intel 8080. L'8080 aveva tutta l'unità centrale di elaborazione (Central Processing Unit, CPU) in un solo chip, ed era dunque il primo microcomputer a prezzi accessibili alle fasce popolari. Tuttavia, Altair era concepito come un minicomputer: ne aveva l'aspetto, usava le stesse periferiche e soprattutto ne aveva l'architettura aperta. In seguito, la MITS sviluppò un linguaggio di programmazione ufficiale per l'Altair, ispirato al Basic della DEC per il PDP-11. Ispirati dal numero di gennaio di PE, nella primavera del 1975, due giovani delle parti di Boston crearono il Basic di Altair. Uno di loro, Paul Allen, faceva il programmatore, mentre un suo compagno delle superiori, Bill Gates, era uno studente ad Harvard. Terminato il prodotto, Allen lasciò il lavoro, e insieme con Gates fondò una piccola società, la Microsoft, per commercializzare il Basic.
Le oltre 10.000 copie vendute di Altair ispirarono la nascita di circoli di appassionati (hacker), come l' Homebrew Computer Club, la cui prima riunione si tenne a Palo Alto, in California, nel marzo 1975. Due dei membri del club erano fermamente convinti che per avere davvero successo, il computer dovesse diventare un elettrodomestico, in grado di funzionare appena tolto dalla scatola e inserita la spina. Fu così che nel 1976 Steve Wozniak e Steve Jobs, amici di vecchia data, crearono la Apple Computer. Entrambi venivano da Cupertino, in quella che di lì a breve sarà ribattezzata Silicon Valley.
Vari sono i modelli di micro computer che si sono susseguiti con gli anni, quali:
Apple II (giugno 1977) (il primo personal computer; il primo con grafica a colori e foglio di calcolo)
Tandy Radio Shack TRS-80 (agosto 1977) (il primo home computer acquistabile per meno di 600 dollari)
Commodore PET (dicembre 1977) (il primo computer integrato: tastiera/schermo/memoria di massa a nastro magnetico)
Atari 400/800 (1979) (all'avanguardia per capacità grafiche, sonore e possibilità di espansione)
Commodore VIC-20 (1980) (il primo computer al mondo ad essere stato venduto in oltre un milione di unità)
BBC Micro (1981) (il principale computer a scopo educativo nel Regno Unito per un decennio; BASIC avanzato)
Sinclair ZX Spectrum (aprile 1982) (il più venduto home computer britannico; ha "creato" l'industria del software nel Regno Unito)
Commodore 64 (settembre 1982) (il più venduto modello di computer di tutti i tempi: più di 17 milioni di unità)
Apple Macintosh (1984) (il primo home/personal computer basato su una interfaccia grafica; il primo a 16/32-bit)
Atari ST (1985) (il primo home computer con interfaccia MIDI integrata; anche con ½MB RAM a meno di 1000 dollari)
Commodore Amiga (giugno 1985) (il primo home/personal computer basato su una interfaccia grafica a colori che impiega il preemptive multitasking per la gestione dei processi e la prima implementazione di "Plug&Play" per ciò che concerne la gestione delle periferiche)
Alcuni dei sistemi di questo tipo erano troppo limitati per essere definiti personal computer o microcomputer, tuttavia ebbero successo come console per i videogiochi. In particolare il Commodore 64 rimane nella storia per diffusione e quantità di programmi anche gestionali. La diffusione di questi sistemi è stata comunque enorme, contribuendo all'allargamento dell'alfabetizzazione informatica e fornendo la base per la successiva diffusione dei personal computer.
Concludendo si può affermare che al centro di questo business c'era e c'è ancora una ditta di semiconduttori: Intel. Fondata nel 1968 da Gordon Moore, famoso per la sua legge sull'evoluzione del numero di transistor integrati nei microprocessori, equipaggiava praticamente tutti i PC prodotti, fino a quando i cloni di AMD e Cyrix cominciarono ad insidiarne il mercato.
La Microsoft controllava il mondo dei sistemi operativi per la famiglia dei microprocessori Intel, diventando nel tempo la più potente software house del mondo. Il due colossi Microsoft e Intel controllavano il 90% del mercato informatico mondiale nella fascia ufficio e privato, mentre per i server e la grafica ad alto livello (tipo IRIX della SGI) i vari Unix hanno sempre avuto buona diffusione, così come per l'editoria la Apple e i Macintosh erano i preferiti.
Oggigiorno un'altra tematica è al centro di tutta l 'informatizzazione: Internet. Ma questa è un'altra storia...
Get the Flash Player to see this player.