Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Dispense sull'evoluzione dei sistemi di calcolo dai principi ad oggi, Appunti di Elementi di Informatica

Il documento sintetizza e racconta i le principali evoluzioni sui sistemi di calcolo dagli inizi ad oggi, con focus sui vari passaggi

Tipologia: Appunti

2016/2017

Caricato il 20/01/2017

gianmarco_procopio
gianmarco_procopio 🇮🇹

4

(3)

7 documenti

1 / 13

Documenti correlati


Anteprima parziale del testo

Scarica Dispense sull'evoluzione dei sistemi di calcolo dai principi ad oggi e più Appunti in PDF di Elementi di Informatica solo su Docsity! CAPITOLO 1 EVOLUZIONE DEI SISTEMI DI CALCOLO PREMESSA Questo capitolo inizia con un paragrafo dedicato alla storia degli elaboratori elettronici, o meglio, del trattamento automatico delle informazioni. A questa prima parte fa seguito una breve presentazione degli aspetti applicativi dell'informatica, che si incentra più sulle problematiche affrontate che sugli strumenti. 1. QUALCHE CENNO SULLA STORIA DEI SISTEMI DI CALCOLO Fin dalla più remota antichità, l'uomo ha cercato di rimediare alle difficoltà di calcolo utilizzando strumenti di vario genere: da semplici ciottoli, a nodi praticati con corde di cuoio, ai "sofisticati" abachi, utilizzati indipendentemente da popoli appartenenti a varie culture. Bisogna tuttavia arrivare al XVII secolo per assistere a sostanziali progressi in questo campo. Infatti, in tale epoca, Blaise Pascal e Gottfried Leibniz ideano e realizzano macchine calcolatrici di tipo meccanico in grado di effettuare somme e sottrazioni (nel caso di quella di Leibniz anche moltiplicazioni e divisioni) con il riporto automatico, principio fondamentale utilizzato da tutti gli strumenti di calcolo (e di misura) successivamente realizzati. Nello stesso secolo, un matematico scozzese, Giovanni Nepero, dà un diverso, ma certamente non meno importante, contributo alle problematiche "computazionali", ideando i logaritmi.1 Negli anni successivi, assistiamo a progressi continui in questo campo, progressi sicuramente incentivati, sempre di più, sia dalle reali necessità di calcolo, che uomini d'azienda, bancari, ricercatori, ecc. vedono sorgere con frequenze via via maggiori nelle loro attività, ma anche dal desiderio puramente speculativo di sviluppare macchine sempre più perfezionate. Nel 1820 il francese Charles-Xavier Thomas de Colmar idea e realizza uno strumento in grado di eseguire le quattro operazioni dell'aritmetica, molto più pratico dei precedenti, che verrà prodotto e venduto in alcune migliaia di esemplari, senza avere altre industrie concorrenti fino al 1878. Ma l'ottocento è un secolo fondamentale anche per il calcolo automatico in generale (e, 1 In realtà, nel XVII secolo Nepero pubblicò le prime tavole logaritmiche. La formulazione del concetto di logaritmo fu da lui effettuata nel 1594. Nepero descriverà in una pubblicazione anche l'uso di bastoncini di avorio per eseguire moltiplicazioni e divisioni, in modo meno lento che con l'abaco: questi studi consentiranno, in seguito, di realizzare il regolo calcolatore. 1 almeno in prospettiva, non solo per quello meccanico). In questi anni, infatti, nasce la scheda perforata, che tanta parte avrà nella storia dell'informatica, e che verrà utilizzata fino quasi agli anni ’90 del secolo scorso. Viene ideata da un francese per rendere automatiche alcune operazioni eseguite dai telai meccanici: è il 1804 e si tratta di Joseph-Marie Jacquard che, in realtà, perfeziona una idea di Falcon del 1728. Ancora più importante, sia pure soprattutto a fini concettuali, è l'opera di Charles Babbage, un matematico inglese. Nel 1812 idea una macchina per calcolare in modo automatico i logaritmi utilizzando il "metodo delle differenze" (detta appunto macchina differenziale); tuttavia, ne sarà realizzato solo un modello di limitate dimensioni, a causa dello stato della tecnologia in quegli anni (1822). Si tratta comunque, a livello teorico, di una macchina "dedicata" a risolvere un particolare problema. Alcuni anni più tardi Babbage inizia, invece, a concepire l'idea di costruire una macchina in grado di effettuare una serie qualunque di operazioni aritmetiche (scelte in base ad istruzioni fornite dall'utilizzatore, insieme ai dati, per mezzo di schede perforate). Anche se l'elaborazione è qui concepita solo per mezzo di strumenti meccanici (ruote dentate) tale macchina, detta "macchina analitica", ha già una struttura logica molto vicina a quella degli elaboratori elettronici: è infatti dotata di memoria centrale (capace di contenere fino a 1000 cifre), di unità di calcolo, di lettore e perforatore di schede e di stampante, ed è in grado di seguire un programma di lavoro letto, come sopra accennato, da schede, insieme ai dati. Una sua amica, Ada Augusta, contessa di Lovelace, si dedica allo studio della macchina analitica ed al suo modo di operare, ideando anche un "programma" per il calcolo dei numeri di Bernulli. Solo nel 1871, dopo la sua morte, il figlio di Babbage, insieme ad altri studiosi, potrà realizzare un modello di tale macchina, azionata a vapore. Il contributo concettuale di Babbage, tuttavia, si verrà a concretizzare realmente solo negli anni quaranta del secolo scorso, quando, grazie all'elettronica, potranno essere realizzate macchine in grado di operare con precisione e velocità, leggendo non solo dati, ma anche istruzioni, da schede (o da nastri di carta perforati) e stampando (o perforando) i risultati. Per molti anni, infatti, pur non rinunciando a sviluppi nel campo del calcolo automatico saranno seguite strade diverse, concentrando l'attenzione su problematiche con caratteristiche abbastanza differenziate rispetto a quelle affrontate dagli studiosi che ab- biamo fin qui citato. Si può, infatti, affermare che fin qui il problema fondamentale da risolvere con l'uso di strumenti meccanici sia quello di poter effettuare una serie, anche molto complessa di operazioni aritmetiche su pochi dati. In realtà, gran parte delle applicazioni concrete, che si stanno prospettando, per l'impiego effettivo dei dispositivi di calcolo meccanico, riguardano, almeno nelle aziende, la necessità di eseguire poche e semplici operazioni su moltissimi numeri (a differenza di ciò che si poteva verificare in ambienti di ricerca, soprattutto, di tipo matematico). Ecco quindi, sul finire dell'ottocento, che prende vita un nuovo "approccio" al calcolo automatico, che fa nascere tutta una serie di macchine, dette "macchine meccanografiche", che si diffonderanno in migliaia di esemplari in tutto il mondo, e che, solo negli anni cinquanta del nostro secolo, inizieranno ad essere gradualmente sostituite dagli elaboratori elettronici. L'occasione che fa sorgere la necessità di uno strumento di questo genere riguarda un'applicazione di tipo statistico: l'elaborazione dei dati raccolti a seguito del censimento della popolazione degli Stati Uniti d'America. Oltre che avere un interesse statistico, tali dati sono importanti anche a fini giuridici, per determinare le rappresentanze dei vari Stati nel 2 Il 1951 segna l'avvento dall'uso commerciale (o più precisamente, pratico) dell'elaborazione elettronica dei dati e, quindi, della, così detta, prima generazione degli elaboratori elettronici, costruiti utilizzando valvole termoioniche, che durerà fino al 1958. Ancora una volta è il Census Bureau degli Stati Uniti che dà luogo al primo impiego di una macchina destinata ad uscire dai laboratori e a diffondersi, costruita in serie, in enti ed aziende: è l'UNIVAC I, costruito da John W. Mauchly e da J. Presper Eckert, per conto della Rand Corporation. Questo dispositivo rappresenta, fra l'altro, il primo elaboratore elettronico che non viene costruito essenzialmente per scopi militari e scientifici, ma che viene progettato con lo scopo di essere impiegato per effettuare applicazioni di tipo aziendale, in concorrenza, quindi, con le ormai affermate macchine meccanografiche. Anche se le previsioni iniziali degli esperti ipotizzano una diffusione limitata a poche unità (in pratica solo in grandissime aziende, oltre che in enti governativi), in soli due anni siamo arrivati a circa 100 elaboratori elettronici, installati in tutto il mondo. Proprio nel 1953, anche l'IBM, industria ormai all'avanguardia nel calcolo automatico, soprattutto a fini aziendali, produce i primi elaboratori elettronici: il 701, seguito, nel 1954, dal 650. Queste macchine iniziano a riunire in sé la capacità di risolvere un numero sempre crescente di problematiche, non solo quelle di tipo scientifico, connesse con le necessità della ricerca universitaria, o di tipo militare (entrambe caratterizzate, in genere, dal trattamento di un numero limitato di dati con una serie molto complessa di operazioni), ma anche quelle di tipo aziendale, che stanno appunto trovando soluzione con l'uso di macchine meccanografiche (e caratterizzate da necessità opposte). In altre parole, si stanno per riunificare i diversi approcci di fine ottocento, inizi del novecento, in un unico tipo di macchina. Molti elaboratori della prima generazione sono, in realtà, ancora orientati a risolvere, principalmente, problemi di tipo scientifico; ciò nonostante, non si può negare che sta già diffondendosi, sempre di più, il criterio di realizzare macchine "general purpose", modulari e sempre più economiche e facili da gestire. In un primo momento, accanto ad una circuiteria a valvole e ad una memoria magnetica (in genere a tamburo), queste macchine utilizzano dispositivi meccanografici, come lettori e perforatori di schede, oltre a macchine da scrivere elettriche, per trattare e stampare dati ed istruzioni, riuscendo, in breve, a superare come prestazioni, anche dal punto di vista pratico, le più perfezionate tabulatrici e calcolatrici elettromeccaniche dell'epoca. Successivamente nascono nuovi dispositivi "periferici": memorie ausiliarie, a nastro magnetico e a disco, stampanti sempre più perfezionate, ecc.. Anche dal punto di vista della programmazione, basata ormai stabilmente su criteri di codifica interna che utilizzano il sistema di numerazione binario, si verificano in questi anni nuovi sviluppi, che permettono all'uomo di usare un linguaggio diverso da quello della macchina. Nasce, infatti, nel 1952 ad opera di Grace Hopper il primo linguaggio di programmazione simbolico, che richiede di essere tradotto in linguaggio macchina prima di essere eseguito, e, a partire dal 1954, si inizia a realizzare il primo linguaggio simbolico ad alto livello: il FORTRAN, che costituisce il prototipo dei linguaggi di una nuova generazione di elaboratori.8 Negli anni '50 assistiamo ad un notevole fervore di iniziative anche in Italia. L'Università di Pisa, avvalendosi della collaborazione dell'Olivetti, progetta e realizza la "Calcolatrice Pisana". La stessa Olivetti crea, nel Canavese, un importante laboratorio di ricerca, seguito 8 I linguaggi di programmazione sono trattati nel capitolo 6. In tale ambito si può trovare anche una classificazione di tali linguaggi. 5 poi da una grande divisione industriale; realizza propri modelli di elaboratori fino ad arrivare alla serie Elea (nel 1959). Purtroppo cinque anni dopo si vedrà costretta, per motivi economici, a cedere il proprio settore elettronico alla General Electric. Altre aziende italiane realizzano in quegli anni "calcolatrici elettroniche", come ad esempio la Ferranti LTD, che nel 1955 installa, presso l'Istituto di Calcolo del Consiglio Nazionale delle Ricerche, il primo grande calcolatore elettronico entrato in funzione in Italia, dopo quello del Politecnico di Milano (1954). Con l'avvento dei transistori vengono costruiti, dal 1958 e fino al 1964, gli elaboratori della seconda generazione: più piccoli, meno costosi, molto più veloci e con minori necessità "ambientali", come, ad esempio, quelle legate al condizionamento dell'aria. Le loro memorie centrali sono, in genere, costituite da migliaia di minuscoli anelli di ferrite, mentre si perfezionano sempre di più le memorie ausiliarie, di tipo magnetico, a nastro, a disco e a tamburo; gli altri dispositivi periferici, di ingresso e di uscita, diventano sempre più sofisticati ed efficienti (stampanti parallele, lettori di schede ad alta velocità, ecc.). In pratica gli elaboratori elettronici cessano di usare le vecchie periferiche ereditate dalla meccanografia. In particolare, i dischi magnetici rendono possibile l'accesso diretto (in tempi estremamente ridotti) a singole informazioni, permettendo un sempre più efficace trattamento di grossi archivi, facendo così presagire anche importanti sviluppi in ambito aziendale. In questo periodo si diffondono i linguaggi ad alto livello, non solo le varie nuove versioni del FORTRAN, ma anche un linguaggio con sviluppate capacità di trattare archivi e dispositivi di input-output: il COBOL. Pur andandosi riducendo, rimane una certa distinzione fra elaboratori orientati a risolvere problemi di tipo scientifico (ad esempio, in ambito IBM, il 1620 di piccole dimensioni ed il 7090 di grosse dimensioni) ed elaboratori "business-oriented", come l'IBM 1401, di ridotte dimensioni e di costo assai contenuto, destinato a risolvere principalmente problemi contabili, di fatturazione e gestione del per- sonale, anche in aziende di medie dimensioni. Si può senz'altro affermare che il 1401 diviene un vero e proprio "best seller" nel mercato informatico di questi anni. In questo periodo, grazie all'uso sempre più diffuso dei dischi magnetici, all'estendersi delle dimensioni delle memorie centrali, all'aumento delle prestazioni in termini di velocità di calcolo e di sicurezza, si incominciano a sperimentare collegamenti a distanza, utilizzando linee telefoniche e telegrafiche, ed applicazioni in "tempo reale"9. Agli inizi degli anni sessanta, vengono posti in vendita alcuni modelli di elaboratori che iniziano ad usare anche un nuovo tipo di componente elettronica: il circuito integrato. I primi due sono l'IBM 1130 (un piccolo sistema prodotto a partire dal 1962 ed orientato a risolvere problemi di tipo scientifico) e l'IBM 1800 (prodotto a partire dal 1963 ed orientato a risolvere applicazioni di gestione di archivi, utilizzando la filosofia dell'aggiornamento e della consultazione in tempo reale). Ben presto l'utilizzazione di questi nuovi componenti porta l'elaborazione elettronica dei dati ad un nuovo salto di qualità: nasce la terza generazione degli elaboratori (1964-1971). Convenzionalmente si fa segnare il passaggio a questa nuova generazione dall'annuncio, da parte dell'IBM, della serie 360, una "famiglia" di elaboratori in grado di risolvere problemi di ogni genere, ossia elaboratori non specializzati o "general purpose". Lo stesso nome della 9 Il concetto di “tempo reale”, dall'inglese “real time”, si riferisce alla possibilità utilizzare queste macchine per gestire ed ottenere informazioni in tempo utile ossia tale da per interagire con un processo in corso permettendone il controllo. Anche questo argomento è trattato nel capitolo 6, mentre all'elaborazione dei dati a distanza (teleprocessing) è dedicato una parte del capitolo 2. 6 serie trae origine da questo concetto: sono, infatti, 360 i gradi dell'angolo giro. I modelli della serie 360 sono estremamente modulari, in grado, cioè, di potersi adattare alle varie situazioni d'impiego e di crescere insieme alle esigenze dell'utilizzatore; hanno fra loro un notevole livello di compatibilità (compreso il linguaggio macchina usato per guidare l'unità di controllo durante l'esecuzione dei programmi), tanto da costituire, come sopra accennato, una vera e propria "famiglia", essendo dotati di caratteristiche comuni ad un tale livello da permettere anche i così detti passaggi di modello. Come conseguenza è, infatti, finalmente possibile acquisire un nuovo elaboratore elettronico, più potente del precedente, con la semplice sostituzione dell'unità centrale di elaborazione, senza modificare le caratteristiche fisiche dell'intero sistema ed i programmi applicativi già tradotti in linguaggio macchina. I circuiti integrati, utilizzati inizialmente per compiti di controllo e di elaborazione, vanno gradatamente a sostituire anche funzioni di memorizzazione, cominciando da dispositivi specializzati (ad esempio le memorie di transito ad alta velocità o "core memory") e da macchine di ridotte dimensioni.10 In questo modo si arriverà ben presto ad ottenere prestazioni ancora più elevate, raggiungendo per la prima volta tempi di accesso alle informazioni contenute nelle memorie centrali talmente rapide da dover essere misurate in nanosecondi (ns)11. Si riducono così, non solo i tempi impiegati per effettuare le ela- borazioni, ma anche le dimensioni delle macchine, i costi di produzione, i consumi di energia e le conseguenti emissioni di calore, e così via. Tutte queste innovazioni, oltre a cambiare l'architettura fisica delle macchine, vengono a modificare, direttamente od indirettamente, soprattutto le modalità di programmazione e, più in generale, la filosofia d'impiego degli elaboratori elettronici. In questi anni, si assiste, infatti, anche ad un notevole sviluppo del software di base e, in particolare, dei sistemi operativi.12 Questi ultimi erano stati introdotti per consentire un buon utilizzo delle macchine dotate di nastri e dischi magnetici, già a livello di seconda generazione; in questo nuovo contesto i sistemi operativi divengono, ormai, strumenti indispensabili per tutta una serie di scopi: per controllare i modelli via via più complessi che vengono prodotti, per facilitare il "dialogo" con gli operatori, ma, soprattutto, per limitare al massimo le necessità di intervento manuale nelle operazioni, per permettere sempre più sofisticati livelli di multiprogrammazione13 e per consentire elaborazioni interattive in teleprocessing. Questi progressi portano allo sviluppo delle applicazioni in tempo reale, tramite l'uso di dispositivi periferici anche remoti (ossia i terminali); nasce anche la tecnica del "time-sha- ring"14 e si sviluppano apposite aziende specializzate nella realizzazione di applicazioni specifiche, le così dette "software house", che cominciano ben presto a progettare e a distribuire programmi generalizzati, ma adattabili alle esigenze di utenti anche molto differenziati: i package. 10 Si tratta dei primi mini-computer, macchine di ridotte dimensioni, con elevato impiego di queste nuove componenti, come, ad esempio, la serie PDP della Digital ed i MITRA della francese CII. 11 È necessario precisare che il termine nanosecondi significa miliardesimi di secondo (in sigla ns, con un ordine di grandezza pari a 10-9 secondi); relativamente alle misure dei tempi sono rilevanti, ai nostri fini, anche i microsecondi (µs), nonché i millisecondi (ms), che sono rispettivamente dell'ordine di grandezza di: 10-6 secondi e 10-3 secondi. 12 Per il concetto di software di base come livello di interfaccia uomo macchina vedasi i capitoli dedicati alla programmazione ed al software; i sistemi operativi, sono trattati nell’ultimo capitolo. 13 La multiprogrammazione è una tecnica che consente ad un elaboratore di svolgere "contemporaneamente" più lavori; per teleprocessing intendiamo un insieme di risorse hardware e software che consentono l'uso a distanza di un elaboratore elettronico. Per una trattazione un po' più ampia della multiprogrammazione si veda l’ultimo capitolo. 14 Questa tecnica permette, soprattutto in ambienti scientifici, l'uso di un potente strumento di calcolo da parte di molti utenti, anche diverse centinaia. Gli utilizzatori sono in gran parte collegati al sistema tramite terminali interattivi ed usano modalità operative che simulano, almeno in apparenza, il collegamento con una macchina dedicata. 7 2. ASPETTI APPLICATIVI DELL'INFORMATICA Parlando della storia degli strumenti di calcolo, con particolare riferimento agli elaboratori elettronici, abbiamo fatto solo qualche cenno agli aspetti applicativi, o meglio alle pro- blematiche che dovevano essere affrontate con questi strumenti. Vediamo ora di ripensare meglio a queste implicazioni, sicuramente importanti. Inizialmente il problema che gli uomini vogliono risolvere per mezzo di un qualche dispositivo è essenzialmente meccanico: fare i calcoli in modo più rapido e sicuro di come si possa fare manualmente o con il solo ausilio di semplici strumenti quali, ad esempio, carta, penna, tavole, ecc.. Già i primi veri e propri mezzi di calcolo utilizzati e meritevoli di questo nome, in quanto ideati e realizzati con questo scopo, come, l'abaco (diffuso da migliaia di anni in Cina ed in Medio Oriente) o i sistemi basati sulle corde con i nodi, hanno, sia pure in modo limitato, anche lo scopo di fare ricordare delle quantità, cioè, in altre parole, di memorizzare dei valori, per tempi più o meno brevi. È questa, quindi, una ulteriore funzione che hanno o hanno avuto molti degli strumenti che abbiamo preso in esame. In realtà, se riflettiamo maggiormente su questo ultimo aspetto, possiamo arrivare a concludere che, fin dalla più remota antichità, o meglio da quando è sorta una qualche primitiva forma di civiltà, l'uomo avverte la necessità di registrare, elaborare e trasmettere informazioni. E le prime ad essere trattate sono soprattutto le informazioni di tipo numerico. Sembra, infatti, dimostrato che l'uomo impara a contare, ed a svolgere quindi una attività razionale in questo campo, prima di imparare a scrivere concetti diversi dai numeri. A conferma dell'esistenza di una necessità ben più ampia ed articolata della semplice esigenza di effettuare, in modo sempre più preciso e veloce, operazioni aritmetiche, assistiamo, parallelamente alla evoluzione dei mezzi di calcolo che contribuiscono a semplificare il problema delle "elaborazioni", allo sviluppo di codici e di mezzi di conservazione e trasmissione delle informazioni. Dopo la nascita dei primi rudimentali sistemi di numerazione, e a parte la diffusione dei numeri romani, si arriva, nel tempo, a capire l'importanza dei sistemi posizionali: in partico- lare, di quello a base dieci, cui viene a corrispondere un metodo di rappresentazione che utilizza dieci simboli (fino ad arrivare a quelli che usiamo attualmente, portati in occidente dagli arabi e di probabile origine indiana). Di alcuni sistemi di numerazione con basi diverse (ad esempio dodici e venti) e di origine europea (latina e celtica) rimangono, tuttavia, tracce nella lingua e nelle abitudini commerciali del nostro continente.17 Anche se, per molto tempo, gli strumenti realizzati sono in genere soltanto strumenti di calcolo, nascono parallelamente, allo scopo di trasmettere le informazioni, alfabeti codificati, fino a giungere a quello ideato da Morse, che diventa ben presto uno standard, prima per la telegrafia e poi per le trasmissioni radiotelegrafiche. Abbiamo anche visto che, già nell'ottocento, si sono anche differenziate due classi di applicazioni: quelle che implicano molte operazioni e pochi dati e quelle dove, viceversa, sono molti i dati e poche e semplici le operazioni da compiere. Anche se, rispettivamente, si è soliti riferirsi ai problemi del primo tipo parlando di elaborazioni a carattere scientifico e, viceversa, chiamando applicazioni di tipo commerciale quelli dell'altro tipo, è un dato di fatto, che la tecnica dell'epoca non permette di risolvere con un'unica macchina queste due classi di problemi, che, comunque, rimangono categorie astratte; generalmente nella pratica i problemi si pongono in genere a livello intermedio: non esistono, quindi, (solo) 17 Questi concetti sono ripresi con un taglio più applicativo nel capitolo 3. 10 applicazioni scientifiche e commerciali, a parte il fatto che lo stesso soggetto può avere più problemi, di tipo anche molto diverso, da risolvere. Ma ogni campo ha le sue problematiche, particolari sono ad esempio le esigenze della statistica, da un lato disciplina da considerarsi nell’ambito della matematica applicata con tutte le problematiche della ricerca scientifica, dall’altro come strumento di conoscenza necessario al “governo dello stato” (da questo deriva infatti il suo nome), con la necessità di trattare ingenti masse di dati, per arrivare a indagini di grosse dimensioni fino ad arrivare ai censimenti. La macchina di Babbage crea le premesse per individuare una prima soluzione, anche se solo teorica, alle due problematiche. Costituisce, infatti, la prima idea di macchina universale, in grado cioè di risolvere tutti quei problemi che possono essere scomposti in passi, corrispondenti ad operazioni che la macchina può eseguire. Ma il passaggio dalla teoria alla pratica è ovviamente condizionato dalla tecnologia e molto dipende, in vista della risoluzione di problemi eterogenei, dal tipo di operazioni che una macchina del genere è in grado di compiere. Le prime concretizzazioni di tale idea, con macchine elettromeccaniche ed elettroniche non sono ancora suscettibili di risolvere tutte le problematiche, ma solo quelle di tipo scientifico. Le macchine di Hollerith raggiungono molto presto una ragguardevole diffusione, ma non rappresentano certamente la soluzione finale dei problemi di calcolo e, più in generale, di trattamento dei dati in senso più ampio. Consentono, tuttavia, di elaborare con rapidità, via via crescente, moltissime informazioni; queste qualità, come abbiamo detto, non sono trascurabili per le aziende, ma sono meno importanti, almeno in questa epoca, in campo scientifico. La statistica, come appena accennato e come avremo occasione di ripetere, rappresenta un esempio importante di disciplina scientifica che può giovarsi notevolmente anche di queste macchine. Con le macchine meccanografiche si diffonde anche la scheda perforata, che rappresenta anche un innovativo sistema di memorizzazione delle informazioni. Infatti, sebbene questo ultimo aspetto non sia certamente lo scopo primario della sua ideazione, questo piccolo cartoncino permette non solo di elaborare, ma anche di conservare i dati raccolti. Si creano quindi le premesse per poter perseguire, attraverso le macchine, nuovi obiettivi, ben diversi da quelli limitati di solo ausilio al calcolo. La ricerca di uno strumento veramente flessibile, anche e soprattutto in senso logico, è tuttavia sempre più necessaria e, cosa certamente non trascurabile, anche dal punto di vista economico, soprattutto in relazione alle problematiche aziendali, che si vanno via via sviluppando, uscendo dai ristretti ambiti computistici e contabili. Quando la macchina di Babbage è ormai divenuta realtà, e funziona grazie all'elettronica, la sua naturale fusione con gli strumenti meccanografici e con le nuove tecnologie magnetiche realizza finalmente una macchina modulare ed adattabile a tutte le problematiche, purché riducibili in forma di algoritmo.18 Fino ad allora la tecnologia aveva limitato le applicazioni concrete di concetti già ben sviluppati a livello teorico; da questo momento tali limitazioni sono sempre più ridotte fino a divenire quasi inesistenti, almeno per il nostro livello di problematiche. È, caso mai, più difficile adeguare la mentalità della sempre crescente moltitudine di uomini che vengono ad interagire con gli elaboratori elettronici. Se la loro mancanza costituiva un elemento frenante per lo sviluppo concreto di idee già teorizzate, la loro presenza permette, via, via, nuove e più avanzate elaborazioni teoriche. L'elaboratore, ormai, non serve che in minima 18 Il termine "modulare" è trattato in modo ampio nel capitolo 2. Il concetto di algoritmo è spiegato diffusamente a partire dal capitolo 4. 11 parte ad effettuare calcoli, e va progressivamente riducendosi anche la pur "moderna" funzione di conservazione delle informazioni, che, evolutasi grazie alla ideazione di ben più avanzati strumenti di memorizzazione (nastri e dischi magnetici, prima, dispositivi ottici, strumenti “solid state” come le così dette memory pen, poi), si estende, in modo notevole, anche al trattamento delle informazioni non numeriche. Con l'uso congiunto di memorie di massa sempre più ampie, economiche e veloci, di unità di elaborazione sempre più potenti e di linee di trasmissione dati con più elevate prestazioni e maggiore affidabilità (si pensi all'uso sempre crescente delle fibre ottiche), si chiude, almeno concettualmente, un primo ciclo che vede la realizzazione di un sistema completo per: conservare, trattare e trasmettere le informazioni, ossia di quello strumento che risolve in modo così rapido ed efficiente, ma soprattutto "integrato", tre fondamentali problematiche che, come abbiamo accennato, l'uomo ha dovuto affrontare sino dal sorgere delle prime civiltà. La disponibilità di questo mezzo non è certamente rimasto senza conseguenze. Un esempio importante di nuove elaborazioni teoriche che prendono lo spunto dall'esistenza di questo strumento è costituito dal notevole sviluppo di studi sui sistemi informativi (aziendali o non). Certo il concetto di sistema informativo ed il processo di elaborazione logica di simili problematiche possono benissimo prescindere dall'esistenza dello strumento informatico; nessuno può negare, però, che in questo caso sia stata proprio la disponibilità di queste macchine a stimolare la nascita e lo sviluppo della teoria. Se oggi le discipline aziendali affrontano problematiche avanzate, come ad esempio i sistemi a supporto delle decisioni, non è certamente trascurabile il contributo che ha dato, soprattutto in questi ultimi anni, uno strumento concepito, almeno inizialmente, per fare quasi esclusivamente dei calcoli. Possiamo ribadire che è stata la disponibilità degli elaboratori elettronici a stimolare e a condizionare, con le loro caratteristiche, le elaborazioni teoriche di un gran numero di metodologie di recente concezione all'interno di queste discipline.19 Discorso analogo può essere fatto per i "data base" (basi di dati) e i "data bank" (banche dati), certamente realizzabili in vario modo, ma sviluppatesi e note a molti studiosi, ed alla grande massa degli utilizzatori, perché esistono gli elaboratori e gli strumenti di trasmissione dati a distanza.20 Tutto questo vale, ovviamente, per tutte le moderne applicazioni della tele- matica. A livello scientifico, ed anche in statistica, il discorso è forse meno evidente, almeno per il momento. In questo ambito, infatti, è tuttora rilevante il fatto che l'elaboratore elettronico abbia reso possibile applicare teorie nate a prescindere dall'elaboratore, ma che senza tale strumento non avrebbero mai potuto trovare concreta applicazione Non sono, tuttavia, assenti, anche per queste discipline, progressi condizionati da nuove elaborazioni teoriche, derivate dalla presenza di questo strumento; si pensi, ad esempio, al data mining e al data 19 L'elaboratore elettronico ha provocato per il personale impiegatizio delle aziende, i così detti "white collar", una rivoluzione paragonabile a quella che l'avvento del vapore prima, e dell'energia elettrica poi, hanno causato, con la mec- canizzazione del lavoro d'officina, ai così detti "blue collar", ma, forse, ancora più radicale. Abbiamo assistito infatti ad una serie di innovazioni che, dopo aver visto l'uso degli elaboratori nei processi amministrativi e gestionali, hanno portato, ad esempio, alla nascita dell'office automation, ossia alla nascita di tutto quell'insieme di procedure automatiche che consentono il trattamento dei testi, l'interrogazione di archivi a fini conoscitivi, l'uso di sistemi di posta elettronica, l'effettuazione di calcoli non espressamente previsti da apposite transazioni, fino ad arrivare, appunto, ai "decision support system" (che consentono agli elaboratori di dare un contributo sempre più importante alle attività decisionali dell'imprenditore) ed all'uso dell'informatica per lo svolgimento di compiti personali: agenda, scadenzario, ecc.. Va precisato che anche “in officina” la meccanizzazione delle attrezzature, prima basato sull’uso di circuiteria elettronica dedicata, non può più prescindere dall’uso di microprocessori, che “animano”, ad esempio, anche i così detti robot. 20 Gli strumenti hardware utilizzati per la trasmissione dei dati sono illustrati nel capitolo 2. 12
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved