STIAMO SVILUPPANDO IL NUOVO SITO. E TANTE NOVITA'...SCUSATE PER EVENTUALI DISAGI TECNICI.

Storia della Scienza Informatica

Stampa PDF

Il termine "Informatica", deriva dall'unione dell'espressione "Informazione Automatica". E' fondamentalmente la disciplina che studia le tecniche per generare e gestire le informazioni in maniera automatica. Questa definizione però, è meglio collocata in un'epoca più recente, all'inizio del ventesimo secolo. Nei tempi precedenti, questa disciplina era più semplicemente vista come "calcolo automatico", ossia si studiavano le tecniche che permettevano di ottenere i risultati delle operazioni matematiche in maniera automatica.
Non tutti sanno che le origini della Scienza Informatica risalgono a molti anni prima della nascita di Cristo, orientativamente nel 3000 A.C.
L'esigenza di automatizzare i calcoli nacque in Asia, dove il popolo cinese iniziava sempre più ad avere un mercato fiorente con i rispettivi popoli giapponesi, indiani e coreani. I più grandi uomini d'affari di quel tempo necessitavano di uno strumento capace di aiutarli nei calcoli, e poco dopo venne introdotto l'abaco. Nella sua forma più primitiva l'abaco consiste semplicemente di una serie di scanalature sulla sabbia sulle quali vengono disposti delle pietruzze o dei bastoncini, mentre una forma più evoluta usata dai Romani è una tavoletta con scanalature sulle quali vengono posti alcuni sassolini. L'abaco quindi è tipicamente una tavoletta con delle palline scorrevoli il cui funzionamento si basa sul principio fondamentale di ogni sistema di numerazione posizionale, cioè che il valore di una cifra dipende dal posto che occupa. Le pietruzze su linee diverse indicano unità di ordine diverso, ma anche unità frazionarie; le operazioni possibili non sono soltanto addizioni e sottrazioni, ma anche moltiplicazioni e divisioni, viste rispettivamente come addizioni e sottrazioni ripetute. L'abaco venne introdotto in Europa a partire dai periodi degli antichi greci, come riferisce Erodoto (lo stesso storico greco afferma come già gli egiziani lo conoscessero); anche nella Roma antica si impiegavano tali strumenti, usando tavolette di metallo con scanalature parallele su cui scorrevano palline mobili oppure tavolette di legno coperte di sabbia. Nei nostri tempi l'abaco viene usato solitamente come gioco o nelle scuole per insegnare i bambini a contare.

foto dell'abaco nel sito dell informatico teramo

Il termine Abaco deriva dal latino Abacus, ed ha orgine dalle parole greche abax o abakon, che significano Tavolo o Tavoletta, combinato con la parola semitica abq, che significa polvere, sabbia.

Per più di mille anni dopo la nascita dell'abaco, non vi furono grandi invenzioni atte ad essere di ausilio all'aritmetica, ma vi seguirono solo grandi matematici, quali i greci, che trascorrevano gran parte del tempo alla risoluzione di teoremi e alle stesure di numerosi formulari sulla teoria degli integrali dei logaritmi e della trigonometria.
Tra i quali vale la pena ricordare il ben noto Archimede (Siracusa, circa 287 a.C. – Siracusa, 212 a.C.), che dedicò l'intera vita alla matematica, per poi essere ucciso dai romani che lo ritenevano troppo pericoloso a causa delle sue invenzioni belliche. Si è scelto di menzionare proprio Archimede perchè recentemente sono stati ottenuti dei risultati sorprendenti riguardante il famoso libro "Il Codice Perduto di Archimede". Le pagine del libro vennero 'lavate' da un monaco per essere riutilizzate nuovamente per la scrittura. Anni a seguire venne venduto nei mercati per pochi denari, per finire in vari scaffali di appassionati di libri di preghiere.

Il 29 ottobre 1998 il "New York Times" riportò in prima pagina la notizia della vendita di un libro di preghiere medioevale a un'asta di Christie's. Pare che il libro sia stato venduto per circa due milioni di dollari e acquistato da un anonimo, esperto in scienze moderne...
Ben presto, un'incredibile scoperta: sotto i versi sacri, grazie alla tecnica dei raggi infrarossi, si cela il più antico manoscritto di Archimede di Siracusa, un trattato matematico risalente a più di due millenni fa, raschiato e riutilizzato nel tredicesimo secolo. Reviel Netz e William Noel, entrambi coinvolti nel progetto di recupero e di studio di questo palinsesto dal valore inestimabile, intrecciano nel loro saggio l'avventura del suo ritrovamento, scoprendo che il grande matematico già ai suoi tempi studiò delle teorie per il calcolo dell'infintesimo, teorie queste che ancor'oggi sono insolute. Quanto detto ci permette di comprendere che se questo manoscritto fosse stato scoperto in quel periodo, oggi la matematica e quindi i computers, sicuramente si troverebbero ad un livello più avanzato.


Gli antenati del calcolo su cui si basano i computer moderni:

ritratto di Blaise Pascal sul sito dell'informatico-siti web teramo

Fateci conoscere i nostri limiti. Siamo qualcosa, ma non siamo tutto; dall' esistenza abbiamo appreso noi stessi la conoscenza dei primi principi, che sorgono dal nulla; e la piccolezza della nostra esistenza nasconde l'infinità della nostra vista...

 

ritratto di Gottfried Wilhelm Leibniz sul sito dell'informatico-consulenza informatica teramo

Sicuramente, non vi è nulla nell'intelletto che non sia sensato, tranne l'intelletto stesso.

 

ritratto di Charles Babbage sul sito dell'informatico-siti web teramo

In due occasioni mi è stato chiesto: "Pregate il Sign. Babbage di mettere nella sua macchina delle cifre sbagliate, le risposte saranno corrette?" E lui rispose: "Io non sono in grado di apprendere il tipo di confusione delle idee che potrebbe provocare tale domanda"

 

Blaise Pascal
(1623-1662)

Wilhelm Leibniz
(1646-1716)

Charles Babbage
(1812-1662)

Wilhelm Schickard inventò il primo calcolatore meccanico nel 1623. Poteva funzionare usando sei cifre con il rispettivo riporto attraverso le colonne. Ma della sua idea ne realizzò soltanto un prototipo.


Blaise Pascal raffinò l'idea di Schickard, e nel 1642 costruì la Pascalina, primo strumento per fare i calcoli in maniera meccanica. Si trattava di una macchina che permetteva di addizionare e sottrarre tenendo conto del riporto; se vogliamo è il primo esemplare di calcolatrice.
foto Pascalina nel museo

Alla fine del primo giro di rotazione dei primi dieci denti dell'ingranaggio (le decine), una seconda ruota dentata cambia la sua posizione di un posto (le centinaia), stessa cosa per la terza (migliaia) e così via. Questa tecnica è tutt'ora usata nelle maccanismi moderni, come esempio le cifre delle pompe di benzina.

 

Della Pascalina furono costruiti una cinquantina di esemplari per operazioni sia in base decimale che nell'unità monetaria dell'epoca. In particolare, il primo esemplare fu costruito da Pascal per aiutare il padre, funzionario delle imposte, a gestire la propria contabilità. Lavorava in lire, formate da venti soldi, formati da dodici denari. La Pascalina tecnicamente era composta da una serie di ruote dentate indicanti le unità, le decine, le centinaia e così via, e ognuna era divisa in dieci settori, dallo 0 al 9, corrispondenti alle cifre del sistema decimale. Inizialmente azionate con il movimento di una mano, successivamente con l'aggiunta di una pratica manovella. Le ultime macchine costruite ispirandosi alla Pascalina furono delle addizionatrici tascabili (circa 30x6x1,5 cm) molto diffuse nella prima metà del Novecento, come l'Addometer. Negli anni sessanta IBM fece realizzare per i propri ingegneri un'addizionatrice di plastica simile a queste ultime, ma che operava in base esadecimale. Questa permetteva di eseguire in modo semplice ed economico i calcoli necessari nella progettazione e programmazione dei moderni computer. Pochi anni dopo, nel 1673, Gottfried Leibniz costruisce una macchina calcolatrice e meccanica che moltiplica, divide, aggiunge e sottrae. Mentre Tomas of Colmar stava sviluppando con successo il primo calcolatore commerciale, nel 1820 Charles Babbage getta le basi per il primo calcolatore automatico azionato a vapore. foto della macchina di Babbage sul sito dell'informatico-realizzazione siti web teramo

La macchina è composta da 25.000 parti, ha un peso di 13.600 Kg ed un'altezza di 2.4 m.

E' stato ideato inizialmente per la stampa di tavole astronomiche. Gli studi ed i lavori durarono circa venti anni, successivamente nel 1842 il governo britannico bloccò gli avanzamenti, e il progetto si fermò allo stadio di un prototipo. Quest' ultimo, seguendo delle istruzioni prestabilite riusciva nella stampa di tavole astronomiche e in calcoli di vario genere. Durante gli studi, esattamente nel 1883, Charles Babbage non portò più avanti il progetto di un calcolatore azionato a vapore (che venne poi bloccato dal governo), ma sviluppò una nuova idea che non si basava più su un "motore meccanico" ma su un "motore analitico".
La sua invenzione era un vero e proprio computer , con tecnica parallela decimale, che operava su parole di 50 decimali e capace di immagazzinare 1000 numeri. La macchina funzionava seguendo un numero di operazioni incorporate, come il controllo condizionale, che permetteva di eseguire istruzioni non più seguendo uno specifico ordine, ma gestito dalle dall'esecuzione delle istruzioni condizionali.
Se vogliamo è la nascita delle istruzioni che troviamo ancora oggi nei nostri codici, es:

istruzione e condizione if nella programmazione

Le istruzioni per la macchina erano immagazzinate su schede perforate, simile a quelli usati per la prima volta da Jacquard. immagine delle schede perforate - le vecchie memorie di massa

Le schede perforate sono fatte solitamente di cartoncino, e rappresentano l'informazione attraverso la presenza o l'assenza di fori in posizioni predefinite della scheda.

 


Nel 1842 la contessa di Lovelace, Ada Byron, figlia del poeta Lord Byron, scrisse i primi programmi della storia per Charles Babbage.
Nel 1854 il maestro di scuola elementare irlandese, George Boole, inventò il codice binario, pubblicò "L'Analisi Matematica Logica", e da qui nacque tutta la teoria sulll'algebra booleana.
Nel 1885 gli svedesi Giorgio ed Edvard Scheutz a Stoccolma crearono il primo computer meccanico pratico, basato sulle teorie di Babbages. Venne per la prima importato negli Stati Uniti ed usato per calcoli astronomici.

macchina di Scheutz sul sito dell'informatico-consulenza informatica teramo

La seconda macchina costruita da Scheutz nel 1860, fu venduta agli Stati Uniti per la creazione di tavole logaritmiche.

 

Da quel momento gli americani concentrarono molte risorse per l'innovazione tecnologica.
Nel 1889 Hermann Hollerith brevettò l'utilizzo di schede perforate e sviluppò un' apparecchiatura la cui lettura avveniva mediante l'analisi di circuiti elettrici chiusi in corrispondenza dei fori della scheda. Sorprendentemente l'idea non nacque dal lavoro di Babbage, ma prese spunto dai controllori dei treni quando etichettavano i biglietti. Queste schede erano delle vere e proprie "memorie" dove su di ognuna erano memorizzare (etichettate) le informazioni. Vista la grande mole di queste schede che diventavano via via sempre più numerose, decise ci commercializzare la sua idea e fondò nel 1896 la società Tabulating Machine Company, che nel 1924 sarebbe divenuta la IBM.
La macchina di Hollerith aveva però delle limitazioni. Le schede perforate non potevano essere usate per eseguire calcoli più complessi.
Nel frattempo in Gran Bretagna il matematico britannico Alan Turing pubblicò nel 1936 l'articolo intitolato "On computable Number, with an application to the Entscheidungsproblem" dove descriveva, per la prima volta, quella che verrà poi definita come la macchina di Turing.

ritratto di alan turing sul sito dell'informatico-siti web teramo

"Chissà se una macchina sarà cosciente e saprà pensare..."

 

 

Durante la seconda guerra mondiale, Turing mise le sue capacità matematiche al servizio del "Department of Communications" inglese per decifrare i codici usati nelle comunicazioni naziste, criptate tramite il cosiddetto sistema Enigma (progettato da Arthur Scherbius). La macchina di Turing fu progettata per compiere operazioni logiche di lettura e scrittura su un nastro ideale, infinito, basata su stati logici. Di conseguenza si è consolidata la convinzione che per ogni problema calcolabile esista una macchina di Turing in grado di risolverlo: questa è la cosiddetta congettura di Church-Turing, la quale postula in sostanza che per ogni funzione calcolabile esista una macchina di Turing equivalente, ossia che l'insieme delle funzioni calcolabili coincida con quello delle funzioni ricorsive. Lo scopo di Turing era non di inventare un computer, ma piuttosto descrivere problemi che sono logicamente risolvibili. Comunque, la sua macchina teorica scrisse quelle che sono le basi della computazione dei nostri computers moderni. Il "nastro senza fine", potrebbe essere considerato come la memoria interna di una macchina, in cui si possono effettuare infinite operazioni di scrittura, lettura, proprio come avviene oggi nella memoria Ram dei nostri PC.
La calcolatrice più moderna di quel tempo fu la 'Complex Number Calculator (CNC)', e venne completata nel 1939 nei Bell Telephone Laboratories. Disegnata dal ricercatore Giorgio Stibitz nel 1940, il quale dimostrò ad una conferenza di matematica americana tenuta all'Università di Dartmouth, che era possibile addirittura effettuare calcoli a distanza, usando le linee telefoniche. Questo fu la prima dimostrazione di calcolo a distanza.
Nel 1941, il tedesco Konrad Zuse, sviluppò diverse macchine calcolatrici. Rilasciò il primo computer programmabile progettato per risolvere equazioni di ingegneria complessa. La macchina fu chiamata Z1, foto z1 originale sul sito dell'informatico-siti web teramoche successivamente divenne Z2 e poi completamente automatica Z3 (basata su relè).

Oggi lo Z1 è considerato ufficialmente il primo computer programmabile del mondo che usa la logica Booleana e divisione floating point.

 
Le istruzioni venivano controllate da pellicole perforate. Fu il primo calcolatore della storia a basarsi sulle teorie del sistema binario e non più usando la numerazione decimale. Aveva un'efficienza maggiore rispetto a quella di Hollerith.
Quindi il primo computer Turing-completo basato sul sistema numerico binario e totalmente programmabile fu lo Z3, costruito in Germania da componenti riciclati di telefonia dal già citato Konrad Zuse, che lo realizzò praticamente da solo, nel 1941. Lo Z3 venne poi distrutto in un bombardamento dagli Alleati, e per molti anni ne è stata ignorata perfino l'esistenza; di conseguenza il primato di primo computer della storia è stato ingiustamente riconosciuto alla macchina statunitense "ENIAC".
Prima di introdurre l'ENIAC, è giusto parlare di un'altro importante matematico: Von Neumann.
Nel 1944, ritratto di Von Neumann sul sito dell'informatico-consulenza informatica teramo

Johann, come si fa chiamare in quel periodo, è già una celebrità e oltre a pubblicare articoli di estrema importanza nella fisica sub nucleare sviluppa la teoria dei giochi(scacchi), presentando nel 1927 alla rivista Mathematische Annalen l'articolo Sulla teoria dei giochi di società.

 

Von Neumann viene a conoscenza da un suo collega, Herman Goldstine, impegnato anch'esso nel Progetto Manhattan, dei tentativi effettuati presso il laboratorio balistico di costruire una macchina capace di trecento operazioni al secondo. Von Neumann rimane profondamente colpito da questa cosa e dentro alla sua mente si aprono nuovi e affascinanti scenari. Il primo incontro con un calcolatore risale a poco tempo dopo, con la macchina Harvard Mark I (ASCC) di Howard Aiken, costruita in collaborazione con l'IBM; poi conosce ENIAC (Electronic Numerical Integrator And Computer), un ammasso enorme di migliaia di valvole, condensatori, interruttori e 18.000 tubi, aveva un peso di circa trenta tonnellate, era in grado di svolgere 5.000 somme e 360 moltiplicazioni al secondo. Fu costruita da Prosper Eckert e John Mauchly. il gigante Eniac sul sito dell'informatico-riparazione computer

Per realizzarlo impiegarono 7.237 ore di lavoro, furono necessarie ben 18.000 valvole che portavano l'ambiente ad una temperatura superiore ai 50°C.

 

Questo primordiale computer era utile per eseguire calcoli balistici, meteorologici o sulle reazioni nucleari, ma è una macchina limitata, quasi del tutto priva di memoria e di elasticità. Per migliorare un simile marchingegno c'è bisogno di quell' intuizione che una decina d'anni prima aveva avuto Alan Turing nel suo articolo sui numeri computabili, e cioè permettere al computer di modificare il proprio comportamento, o, in altre parole, imparare un software. Nel 1945 esce così First Draft of a Report on the Edvac.L'EDVAC (Electronic Discrete Variables Automatic Computer) è la prima macchina digitale programmabile tramite un software basata su quella che sarà poi definita l'architettura di Von Neumann. Il merito dell'invenzione, come il nome dell'architettura suggerisce, va allo scienziato ungherese, di gran lunga più importante dei vari Turing (per l'idea), Eckert o Mauchly (per la realizzazione). Con quest'ultima invenzione scomparvero le ingombranti schede perforate, nastri, carta ecc.. Von Neumann ideò di immagazzinare ogni istruzione del programma insieme ai dati nella stessa unità di memoria, così che, in qualsiasi momento si voglia, di possono modificare le istruzioni in maniera aritmetica nello stesso modo dei dati.

 

foto Edvac sul sito dell'informatico-assistenza computer teramo

Si partì con un budget iniziale di 100.000 dollari statunitensi. Il contratto definì il computer con il nome di Electronic Discrete Variable Automatic Calculator. Il costo finale dell'EDVAC fu di quasi 500.000 dollari, quasi cinque volte il costo inizialmente preventivato.

Quanto detto fino ad ora lascia comprendere che ci stiamo avvicinando sempre più alle sembianze dei nostri computers moderni, infatti l'architettura di Von Neumann, è utilizzata tutt'ora, e si trova alla base del funzionamento dei nostri PC:


architettura di Von Neumann sul sito dell'informatico-siti web teramo

Nei Dipartimenti di Ricerca di Minneapolis venne costruito l'UNIVAC 1101 (o Era 1101), il primo computer commercialmente prodotto; la prima compagnia ad acquistarlo fu la Marina militare Americana. Conteneva 1 milione di pezzi sulla sua bobina magnetica e furono le prime apparecchiature a memoria magnetica. Poteva memorizzare 4.000 parole e recuperarle in 5 mille secondi.
Nel 1950 anche l'elettronica diede una svolta decisiva alla storia dei computer grazie alla nuova scoperta nei laboratori dei laboratori di Bell Labs nel 1947 da parte di William Shockley, John Bardeen, e Gualtiero Brattain: i Transistors.
Il primo transistor aveva dimensioni dell'ordine del centimetro e realizzato con la tecnica detta punta di contatto, costituita da elettrodi termitati a punta, premuti sulla superficie di una piastrina di cristallo semiconduttore; tecnica simile al vecchio rivelatore a galena. Provvisoriamente, dato che funzionava in modo analogo ad un triodo, venne chiamato triodo a stato solido, il nome definitivo deriva dall'unione dei termini TRANSconduttance e varISTOR. Nel 1956 i tre ricercatori furono insigniti del Premio Nobel per la Fisica, con la motivazione "per le ricerche sui semiconduttori e per la scoperta dell'effetto transistor". Grazie all'avvento dei transistors, scomparvero tutti quei tubi o quelle valvole presenti nei prototipi precedenti, incrementando notevolmente le prestazioni, l'ingombro e i costi. Nel 1958 i transistors vennero perfezionati da Jack San Clair Kilby della nota casa Texas Instruments, che fabbricò il primo circuito integrato, in cui erano accorpati tanti transistors su di un unico supporto.
IBM in quei stessi anni stava sviluppando una serie di computers ad alta tecnologia, come quello realizzato nel 1954, chiamato IBM 650, ed era un calcolatore a disco magnetico destinato a un uso commerciale (ne furono venduti 450 in un anno). Il disco magnetico roteava a 12.500 rpm, e aveva un accesso ai dati molto più veloce rispetto a quello a bobina. Poco dopo il primo computer elettronico, IBM 701.

foto dell-IBM 701 sul sito dell'informatico-siti web teramo

Usava un disco magnetico e 72 cavi Williams di 3 pollici di diametro, per una capacità di 1024 bits per ognuno di essi. La memoria totale è di 2048 bits, 36 bits ciascuno.

 

Durante tre anni di produzione, IBM vendette 19 macchine per vari utilizzi. Nel 1959 il passo successivo dell'IBM è stato l'introduzione sul mercato della serie 7000-7030, mentre nel 1961 la serie 1401. Entrambi impiegavano l'uso di transistors che incrementavano le prestazioni e dischi magnetici.
Nel decennio successivo oltre alla già affermata IBM, varie aziende produssero un loro prototipo, tutti con un caratteristica propria, vale la pena ricordare alcuni modelli: MIT TX0, SAGE, NEAC 1101 (della NEC), DEC PDP-1, LINC, DEC PDP-8, ILLIAC IV, HP-2115 (Hewlett-Packard).
Nel 1968 Gordon Moore e Robert Noyce fondarono la più grande compagnia di circuiti integrati odierna: Integrated Electronics Corp. (Intel). Pochi anni dopo, nel 1971 divenne una società per azioni, e Intel annuncia il primo microprocessore, l'Intel 4004, sviluppato da una squadra diretta da Marcian E. Hoff. L'anno dopo introdusse l'8008, e poi l'8080, un microprocessore a 8 bit. Da qui si può introdurre l'era moderna dei computers basati su sistema a microprocessore, che permetteva di eseguire moltissimi calcoli al secondo, riducendo di molto l'ingombro fisico della macchina, e quindi rendere alla portata di tutti un conputer commerciale.
Contemporaneamente, il fascino del "fai da te" dell'elettronica venne contagiato dalla febbre dei computer: il numero ormai storico di Popular Electronics del gennaio 1975 mostrava in copertina una scatola celeste con sopra interruttori e led, chiamato: Altair 8800.

copertina del Popular Electronics

Radio & Television News era un periodico dedicato ai professionisti di settore, i redattori decisero di creare una nuova testata per la gente comune. Ziff-Davis editò Popular Aviation nel 1927 e Popular Photography nel 1934 ma fondò anche Gernsback Publications che possedeva il marchio di Popular Electronics (usato in Radio-Craft dal 1943 fino a 1948). Ziff-Davis comprò il marchio ed avviò Popular Electronics nel 1954.

 

Il kit, del costo di 397 dollari, poteva essere ordinato presso la MITS di Albuquerque, ed era basato sul processore Intel 8080. L'8080 aveva tutta l'unità centrale di elaborazione (Central Processing Unit, CPU) in un solo chip, ed era dunque il primo microcomputer a prezzi accessibili alle fasce popolari. Tuttavia, Altair era concepito come un minicomputer: ne aveva l'aspetto, usava le stesse periferiche e soprattutto ne aveva l'architettura aperta. In seguito, la MITS sviluppò un linguaggio di programmazione ufficiale per l'Altair, ispirato al Basic della DEC per il PDP-11. Ispirati dal numero di gennaio di PE, nella primavera del 1975, due giovani delle parti di Boston crearono il Basic di Altair. Uno di loro, Paul Allen, faceva il programmatore, mentre un suo compagno delle superiori, Bill Gates, era uno studente ad Harvard. Terminato il prodotto, Allen lasciò il lavoro, e insieme con Gates fondò una piccola società, la Microsoft, per commercializzare il Basic. foto di Gates e Paul Allen da giovani sul sito dell'informatico-siti web teramo

Bill Gates e Paul Allen, fondatori di Microsoft. Foto scattata nel 1983 quando consegnarono MS-DOS per il laptop di Tandy, e dopo aver firmato un contratto per scrivere MS-DOS per IBM.

 


Le oltre 10.000 copie vendute di Altair ispirarono la nascita di circoli di appassionati (hacker), come l' Homebrew Computer Club, la cui prima riunione si tenne a Palo Alto, in California, nel marzo 1975. Due dei membri del club erano fermamente convinti che per avere davvero successo, il computer dovesse diventare un elettrodomestico, in grado di funzionare appena tolto dalla scatola e inserita la spina. Fu così che nel 1976 Steve Wozniak e Steve Jobs, amici di vecchia data, crearono la Apple Computer. Entrambi venivano da Cupertino, in quella che di lì a breve sarà ribattezzata Silicon Valley.


Vari sono i modelli di micro computer che si sono susseguiti con gli anni, quali:

 

  • Apple II (giugno 1977) (il primo personal computer; il primo con grafica a colori e foglio di calcolo)

  • Tandy Radio Shack TRS-80 (agosto 1977) (il primo home computer acquistabile per meno di 600 dollari)

  • Commodore PET (dicembre 1977) (il primo computer integrato: tastiera/schermo/memoria di massa a nastro magnetico)

  • Atari 400/800 (1979) (all'avanguardia per capacità grafiche, sonore e possibilità di espansione)

  • Commodore VIC-20 (1980) (il primo computer al mondo ad essere stato venduto in oltre un milione di unità)

  • BBC Micro (1981) (il principale computer a scopo educativo nel Regno Unito per un decennio; BASIC avanzato)

  • Sinclair ZX Spectrum (aprile 1982) (il più venduto home computer britannico; ha "creato" l'industria del software nel Regno Unito)

  • Commodore 64 (settembre 1982) (il più venduto modello di computer di tutti i tempi: più di 17 milioni di unità)

  • Apple Macintosh (1984) (il primo home/personal computer basato su una interfaccia grafica; il primo a 16/32-bit)

  • Atari ST (1985) (il primo home computer con interfaccia MIDI integrata; anche con ½MB RAM a meno di 1000 dollari)

  • Commodore Amiga (giugno 1985) (il primo home/personal computer basato su una interfaccia grafica a colori che impiega il preemptive multitasking per la gestione dei processi e la prima implementazione di "Plug&Play" per ciò che concerne la gestione delle periferiche)

Alcuni dei sistemi di questo tipo erano troppo limitati per essere definiti personal computer o microcomputer, tuttavia ebbero successo come console per i videogiochi. In particolare il Commodore 64 rimane nella storia per diffusione e quantità di programmi anche gestionali. La diffusione di questi sistemi è stata comunque enorme, contribuendo all'allargamento dell'alfabetizzazione informatica e fornendo la base per la successiva diffusione dei personal computer.
Concludendo si può affermare che al centro di questo business c'era e c'è ancora una ditta di semiconduttori: Intel. Fondata nel 1968 da Gordon Moore, famoso per la sua legge sull'evoluzione del numero di transistor integrati nei microprocessori, equipaggiava praticamente tutti i PC prodotti, fino a quando i cloni di AMD e Cyrix cominciarono ad insidiarne il mercato.
La Microsoft controllava il mondo dei sistemi operativi per la famiglia dei microprocessori Intel, diventando nel tempo la più potente software house del mondo. Il due colossi Microsoft e Intel controllavano il 90% del mercato informatico mondiale nella fascia ufficio e privato, mentre per i server e la grafica ad alto livello (tipo IRIX della SGI) i vari Unix hanno sempre avuto buona diffusione, così come per l'editoria la Apple e i Macintosh erano i preferiti.
Oggigiorno un'altra tematica è al centro di tutta l 'informatizzazione: Internet. Ma questa è un'altra storia...

STORIA DELL'EVOLUZIONE DEI COMPUTER



Get the Flash Player to see this player.