Evoluzione del computer dal pallottoliere allo schermo grafico ...e oltre
- Emily Mastrantoni
- 7 feb
- Tempo di lettura: 7 min
II Ciclo: La digitalizzazione delle immagini. Il mondo bidimensionale.
Settima Lezione: Evoluzione del computer dal pallottoliere allo schermo grafico e oltre. Ogni epoca è il risultato delle trasformazioni tecnologiche che la caratterizzano. L'evoluzione della tecnologia ha infatti determinato profondi cambiamenti nei mezzi di comunicazione, influenzando il modo in cui le società condivise diffondono le informazioni.
Durante la settima lezione del corso ITCAAD, tenuto dal prof. Antonino Saggio, è emerso come a ogni generazione sia legata un'innovazione tecnologica di grande impatto, capace di innescare cambiamenti radicali. Ripercorrendo la storia:
Ai tempi di Garibaldi → il telegrafo
Ai tempi di Terragni → il cinema
Ai tempi di Majorana → la radio
Ai tempi di Lavoro → la televisione
Ai tempi di Bjarke Ingels → il computer
Ai tempi di Fedez→ internet
E ai tempi di Leone...?
Si potrebbe ipotizzare, considerando l'epoca di Leone come l'epoca in cui viviamo, che la grande innovazione di questi anni siano gli Iphone e i touch screen. 1. Calcolo e la leva umana
Sin dalle origini del calcolo matematico, l'uomo ha sviluppato e utilizzato diversi strumenti per eseguire operazioni numeriche. Tra i primi dispositivi di calcolo, l'abaco ha rappresentato per secoli lo strumento per eccellenza, permettendo di effettuare con facilità operazioni aritmetiche di base.
Ancora oggi, nonostante l'avvento di strumenti digitali avanzati, l'abaco continua a essere utilizzato nelle scuole come supporto didattico per aiutare i bambini a comprendere i concetti fondamentali del calcolo, favorendo un apprendimento più intuitivo e concreto.
La macchina dell'inventore
Il contributo di George Boole e l'evoluzione della logica matematica
George Boole ha dato un contributo fondamentale alla matematica e all'informatica, riuscendo a collegare il ragionamento logico-filosofico con il formalismo matematico. Attraverso il suo lavoro, ha introdotto un sistema in cui il pensiero logico poteva essere rappresentato con simboli e operazioni matematiche, creando così le basi dell' algebra booleana . Questo sistema, basato su tre operazioni fondamentali – AND (e), OR (o) e NOT (non) – ha permesso di formalizzare e automatizzare il ragionamento logico, aprendo la strada allo sviluppo della logica computazionale e, successivamente, dell'informatica moderna.
L'influenza del sistema binario di Leibniz
Oltre a innovare nel campo della logica matematica, Boole ha riscoperto, adattato e applicato a un nuovo contesto una precedente invenzione: il sistema di numerazione binario , ideato all'inizio del Settecento dal filosofo e matematico Gottfried Wilhelm Leibniz . Leibniz aveva concepito il sistema binario come una rappresentazione numerica universale, basata solo su due simboli: 0 e 1. Tuttavia, ai suoi tempi, questa scoperta non aveva trovato applicazioni concrete.
Boole, invece, riconobbe il potenziale del sistema binario nell'ambito della logica e lo utilizzò per rappresentare le operazioni logiche in forma matematica. Questa intuizione si rivelò straordinariamente potente: molti anni dopo, con l'avvento dell'elettronica e dei primi computer, l'algebra booleana divenne il fondamento della logica dei calcolatori, poiché i circuiti elettronici si basano su stati binari (acceso/spento, vero/falso, 1/0).
Il confronto con il codice Morse
Nel 1835, pochi anni prima che Boole sviluppasse la sua teoria, Samuel Morse e Alfred Vail idearono il codice Morse, un sistema di comunicazione basato su sequenza di punti e linee per rappresentare lettere e numeri. Sebbene il codice Morse possa sembrare simile alla logica booleana perché utilizza simboli discreti per trasmettere informazioni, in realtà è un sistema più primitivo e meno strutturato.
La differenza principale è che:
Il codice Morse utilizza cinque simboli distinti, corrispondenti a combinazioni di punti, linee e spazi di diversa lunghezza, rendendo il sistema più complesso e meno standardizzato rispetto a una logica puramente binaria.
L'algebra booleana , invece, si basa su soltanto due valori (0 e 1) e su regole ben definite che permettono di costruire circuiti logici, rendendola più adatta all'automazione e alla programmazione dei computer.
L'eredità di Boole nella tecnologia moderna
Le idee di Boole sono diventate un pilastro della scienza moderna: oggi, tutti i dispositivi digitali – dai computer agli smartphone, dai sistemi di intelligenza artificiale ai software – si basano sui principi della sua algebra. Grazie al suo lavoro, la logica ha smesso di essere solo un concetto filosofico e si è trasformata in uno strumento matematico concreto, in grado di guidare lo sviluppo della tecnologia che utilizziamo ogni giorno.
In sintesi, Boole non solo ha innovato il modo di rappresentare il pensiero logico, ma ha anche gettato le fondamenta dell'era digitale, dimostrando che la matematica può
diventare un linguaggio universale per la logica e l'informatica.
La crescita di Ibm
IBM ( International Business Machines Corporation ) è una delle aziende più importanti e influenti nella storia della tecnologia e dell'informatica. Fondata nel 1911 come Computing-Tabusing-Recording Company (CTR) e rinominata IBM nel 1924 , ha giocato un ruolo fondamentale nello sviluppo di computer, software, intelligenza artificiale e innovazioni tecnologiche.
Negli anni '30 e '40 , IBM era leader nella produzione di macchine per tabulazione e calcolo utilizzate per censimenti e analisi dati.
Durante la Seconda Guerra Mondiale, contribuì allo sviluppo di sistemi di crittografia e macchine da calcolo per scopi militari.
Nel 1952 , IBM lanciò l' IBM 701 , il suo primo computer commerciale, dando inizio all'era dell'informatica moderna.
Dal transistor al chip
Transistor: Il transistor o transistore è un dispositivo a semiconduttore (silicio) usato per amplificare o interrompere l'alimentazione dei segnali elettrici ed è uno dei componenti fondamentali dell'elettronica moderna. Chip: Un circuito integrato (in inglese integrated circuit, abbreviato IC) è un circuito elettronico miniaturizzato dove i vari transistori sono stati formati tutti nello stesso istante grazie a un unico processo fisico-chimico.
Negli anni '40 e '50, i computer utilizzavano valvole termoioniche , componenti elettronici ingombranti, lenti e che consumavano molta energia. L'invenzione del transistor nel 1947 ha rivoluzionato l'elettronica: questi piccoli dispositivi a semiconduttore possono controllare il flusso di corrente in modo più efficiente, riducendo le dimensioni ei consumi delle macchine.
Elea 9003: il primo computer italiano a transistor
Un esempio importante di questa transizione è Elea 9003 , il primo computer italiano costruito dalla Olivetti tra il 1957 e il 1959, sotto la guida di Mario Tchou .
È stato il primo computer commerciale interamente a transistor in Europa , anticipando persino i modelli americani.
Dal transistor al chip: la nascita dei circuiti integrati
Nonostante i transistor fossero già un grande passo avanti, negli anni '50 i circuiti elettronici venivano ancora costruiti collegando manualmente migliaia di transistor, un processo laborioso e con limiti di miniaturizzazione.
La svolta arrivò con l'invenzione del chip (o circuito integrato ) alla fine degli anni '50:
Jack Kilby (Texas Instruments, 1958) e Robert Noyce (Fairchild, 1959) svilupparono la tecnologia per incidere più transistor su un unico pezzo di silicio , eliminando la necessità di collegarli a mano.
Questo permette la creazione di computer più piccoli, economici e potenti , portando all'era dei microprocessori negli anni '70.
Cosa cambia con il chip?
Transistor singoli: devono essere assemblati manualmente nei circuiti → dispositivi ancora grandi.
Chip (circuito integrato): milioni di transistor integrati su un piccolo pezzo di silicio → dispositivi compatti e potenti.
5. Il personal La vera rivoluzione avvenne nel 1971 , quando Intel sviluppò il primo microprocessore (Intel 4004)
Un intero processore veniva integrato su un singolo chip , rendendo possibile la creazione di computer personali.
Negli anni '70, aziende come Apple, Commodore e IBM iniziarono a sviluppare computer accessibili anche a privati e piccole aziende.
Dos e pc
Il termine DOS sta per Disk Operating System , un sistema operativo che ha avuto un ruolo cruciale nello sviluppo dei personal computer (PC), è stato uno dei primi sistemi operativi. Il suo compito principale era quello di gestire le risorse hardware del computer (come la memoria, i dischi rigidi, e le periferiche) e permettere agli utenti di interagire con il computer.
Nel 1981 , IBM scelse MS-DOS (Microsoft Disk Operating System) come sistema operativo per il suo PC IBM . MS-DOS era un sistema operativo a riga di comando , il che significa che l'utente doveva digitare comandi testuali per eseguire operazioni sul computer. Con il PC e DOS , IBM stabilì uno standard che avrebbe dominato l'industria dei computer per molti anni. Il sistema operativo DOS divenne lo standard per tutti i personal computer , non solo IBM, ma anche per molti cloni IBM (altri produttori che realizzavano computer compatibili con i PC IBM).
7.Mac, bit e mouse.
Il Mac (Macintosh ) è una linea di computer personali sviluppata da Apple . Il primo Macintosh fu lanciato nel 1984 e rappresentò una rivoluzione nell'industria dei computer per la sua interfaccia grafica e la facilità d'uso rispetto ai sistemi a riga di comando che predominavano all'epoca Il bit è l'unità di base dell'informazione digitale . Il termine bit sta per cifra binaria ed è il valore più piccolo di informazione che un computer può trattare. Un bit può assumere solo due valori possibili: 0 o 1
I bit sono utilizzati per rappresentare tutti i dati all'interno di un computer, che si tratti di testo, immagini, audio o video. Ogni tipo di dato digitale è codificato utilizzando una combinazione di bit .
Un gruppo di 8 bit forma un byte , che è un'unità maggiore di informazione e può rappresentare un singolo carattere, come una lettera o un numero.
1 byte = 8 bit.
La tecnologia dei Mac si basa completamente sui bit e sul loro trattamento . Ogni programma che viene eseguito su un Mac e ogni dato che visualizzi sullo schermo è in realtà una combinazione di bit che vengono letti e manipolati dal sistema operativo e dal processore del computer. A partire dal QuickDraw del 1983 fino al PostScript del 1985, passando per QuickTime VR nel 1996 e la creazione di Sherlock nel 1998, il Mac ha stabilito nuovi standard in termini di interazione intuitiva e qualità visiva.
Un elemento centrale in questa storia è la nascita del mouse, raccontata da Ted Nace in un articolo su MacWorld nel novembre del 1984. In questo scritto, viene tracciata l'evoluzione di questo accessorio innovativo, che ha rivoluzionato l'interazione tra l'uomo e la macchina, rendendola più semplice, naturale e immediata.
Comments