Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Dispensa 3 - Computer, reti, telefoni, Dispense di Teorie Sugli Effetti Sociali Dei Media

Storia dei media, dispensa 3. "Computer,reti,telefoni".

Tipologia: Dispense

2013/2014

Caricato il 22/06/2014

free90
free90 🇮🇹

4.4

(7)

11 documenti

Anteprima parziale del testo

Scarica Dispensa 3 - Computer, reti, telefoni e più Dispense in PDF di Teorie Sugli Effetti Sociali Dei Media solo su Docsity! 1. I nuovi media Da questo momento in poi, la nostra attenzione si concentrerà essenzialmente su Internet e sul suo servizio fondamentale (dal punto di vista mediatico), e cioè il World Wide Web. Prima di affrontare gli aspetti comunicativi, tuttavia, è bene ricapitolare qualche elemento di carattere sia storico sia tecnico. A ciò è dedicato questo capitolo. Cercherò di chiarire (per sommi capi) qual è la logica di funzionamento di un computer, che cos’è una rete e come funziona, fino ad arrivare a Internet e alla nuova telefonia. Il lettore interessato, può trovare numerosi testi che trattano questi argomenti in modo più ampio e dettagliato. Breve storia del computer Il computer moderno nasce principalmente dalle idee di un grande matematico, Alan Turing, che negli anni quaranta del novecento riuscì a progettare una macchina ideale che in linea di principio sarebbe stata in grado di effettuare qualsiasi tipo di calcolo. Lo stesso Turing collaborò alla costruzione di primitive macchine elettroniche. Ci occuperemo di Turing e della sua idea nei prossimi paragrafi. Alla fine della seconda guerra mondiale l'interesse per i “cervelli elettronici” (come si diceva allora) era altissimo, soprattutto per problemi pratici. Gli Alleati avevano vinto la guerra grazie anche all'immenso sforzo tecnologico del progetto Manhattan, che portò alla costruzione della prima bomba atomica. Senza entrare nel merito degli aspetti etici della cosa, non c'era dubbio che il primato mondiale nell'uso militare dell'energia nucleare fosse di vitale importanza per le superpotenze. Era inevitabile una corsa tra Stati Uniti e Unione Sovietica per la successiva grande realizzazione in questo campo: la bomba termonucleare a fusione, detta anche bomba all'idrogeno o bomba H. Dal punto di vista tecnologico la bomba H era una sfida immensamente più difficile della bomba atomica, e richiedeva l'esecuzione di calcoli di enorme lunghezza e complessità. L'idea di disporre di calcolatori elettronici era quindi molto allettante. Il primo progetto concreto portò alla costruzione di una macchina che venne chiamata EDVAC (Electronic Discrete VAriable Calculator). Tra gli ingegneri elettronici e i matematici che si occuparono della sua realizzazione, occorre citare John Von Neumann (1903 - 1957), che si occupò di definire l'architettura logica del nuovo computer, in parole povere “come dovevano girare i dati al suo interno”. L'architettura di Von Neumann è ancora alla base del funzionamento dei normali computer. Dall'epoca di EDVAC e di Von Neumann il computer ha fatto passi da gigante: un computer della potenza di EDVAC oggi non esiste, nel senso che noi lo considereremmo inadatto a svolgere anche i compiti più elementari. Nei cinquant’anni successivi a EDVAC il computer è diventato uno strumento estremamente versatile, adatto a moltissimi scopi anche se, durante questo periodo, nessuno pensava che potesse trasformarsi in un supporto mediatico; questo sviluppo non avvenne prima della seconda metà degli anni '90 del novecento. In compenso lo sviluppo della tecnologia (hardware e software) fu impressionante, al punto che venne enunciata la cosiddetta “legge di Moore”, secondo cui la potenza media dei computer raddoppiava ogni 18 mesi. I righelli e l’abaco possono essere considerati come esempi molto generali delle due tipologie possibili di macchine calcolatrici. Le macchine del primo tipo (i righelli, gli orologi) sono dette analogiche, quelle del secondo digitali. Il termine analogico deriva dal fatto che la macchina funziona “per analogia” con il sistema fisico con cui è implementata. Ad esempio, il sistema dei righelli funziona perché giustapponendo due oggetti lunghi rispettivamente 6 e 9 centimetri si ottiene un oggetto lungo 15 centimetri, cioè le “lunghezze si sommano”. Altrettanto fanno due intervalli di tempo consecutivi, i volumi d’acqua contenuti in due recipienti ecc. Il termine digitale, viceversa, deriva dalla parola inglese digit che significa cifra. Un calcolatore digitale, quindi, manipola direttamente le cifre della rappresentazione dei numeri (ad esempio le cifre decimali, nell’esempio di abaco che abbiamo fatto). I due sistemi non sono equivalenti. Una macchina analogica è in grado di darci un risultato preciso nella misura in cui possiamo misurare con esattezza la grandezza fisica su cui si basa. Nell’esempio dei righelli, supponendo che ci sia una tacca ogni centimetro, potremmo essere tuttavia in grado di calcolare il risultato di 3,2 + 5,7 migliorando lo strumento e aggiungendo una tacca ogni millimetro. Con una certa fatica potremmo calcolare anche 3,24 + 5,72, magari aiutandoci con una lente e con qualche sistema di misura delle lunghezze più raffinato delle tacche. In generale, non c’è un limite definito per la precisione dello strumento; tuttavia gli errori di misura sono inevitabili, e prima o poi i risultati diventano casuali (si pensi, ad esempio, che per due righelli con tacche da un centimetro l’ottava cifra decimale corrisponde alle dimensioni degli atomi, la dodicesima a quella dei nuclei atomici). Una macchina digitale, viceversa, è assolutamente precisa nei limiti delle cifre che può rappresentare, mentre non è in grado di fornirci alcun risultato al di fuori di tali limiti (neanche in modo approssimativo). Ad esempio, disponendo di un abaco con tre filari di palline potremmo calcolare somme di numeri interi il cui risultato sia compreso tra zero (tutte le palline a sinistra) e 999 (tutte le palline a destra). Una somma come 546 + 819 non può essere calcolata, perché il risultato è maggiore di 999 e manda in overflow la macchina. Vorrei sottolineare il fatto che, in entrambi i casi, l’operazione di somma richieda l’attribuzione di un “valore base” alle cifre. L’abaco, ad esempio, può essere usato per calcolare somme tra numeri decimali, purché si stabilisca a priori che la prima fila di palline corrisponde, ad esempio, ai centesimi, la seconda ai decimi, la terza alle unità e così via. Questo renderebbe calcolabili somme come 2,21 + 5,14, ma non 7,21 + 5,14 (il risultato è maggiore di 9, dunque la macchina va in overflow) oppure 2,213 + 5,412 (in questo caso “mancherebbe” una fila di palline per rappresentare i millesimi). Anche nel caso dei regoli, nulla vieta che il centimetro (fisico) che costituisce la distanza tra due tacche successive debba essere interpretato come un’unità, un decimo, un centesimo ecc. Questo permette di calcolare somme di numeri decimali, ma non risolve il problema della precisione, che è intrinseco all’analogia della misura. Il limite comune a entrambi questi tipi di macchina è quello di essere limitate alla specifica funzione (o funzioni) per cui sono predisposte. Possiamo chiedere a un abaco quanto fa 7 + 8, oppure 1,119 + 5,12 (ammesso di avere abbastanza file di palline), ma non potremo mai chiedergli se per andare da Milano a Bologna è meglio passare per Piacenza o per Verona. Da questo punto di vista l’ingegneria del calcolo, dai tempi dei greci in poi, è rimasta al palo. Sono state elaborate soluzioni molto ingegnose, come appunto la Pascaline, che permettevano di eseguire calcoli di tipo diverso (ad esempio somme e moltiplicazioni), ma sempre entro un ambito predeterminato. Turing e la “macchina algoritmica” Il pioniere del computer in senso moderno è senz'altro il già citato Alan Turing (1912 - 1954). Genio matematico versatile, diede un contributo determinante alla vittoria alleata nella seconda guerra mondiale; egli fu infatti la punta di diamante del gruppo di matematici inglesi che riuscì a decifrare il codice tedesco Enigma, fornendo così agli Alleati la chiave di tutte le comunicazioni belliche del III Reich. Ma la sua più importante realizzazione resta la macchina di calcolo universale che da lui prende il nome, e che costituisce il prototipo concettuale di tutti i computer. L'idea di Turing era quella di “meccanizzare” non il calcolo, ma lo stesso processo che porta a calcolare. Per chiarire il concetto, immaginiamo di dover spiegare a un bambino come si sommano due numeri. La spiegazione potrebbe essere di questo tipo: “Scrivi il primo numero. Adesso scrivi il secondo numero in colonna. Stai attento che le cifre a destra siano allineate. Ora somma la prima cifra a destra del primo numero con la prima cifra a destra del secondo... ” Eccetera. Se si spiega a un bambino questo procedimento, non è necessario dirgli proprio tutto: il bambino è sufficientemente intelligente da capire gli eventuali dettagli trascurati. Supponendo che sia possibile spiegare a una macchina la stessa cosa, occorrerebbe essere molto precisi: la macchina non sarebbe in grado di colmare le lacune del discorso come fa un bambino. Le istruzioni potrebbero essere qualcosa di questo tipo: 1. Scrivi il primo numero 2. Scrivi il secondo numero sotto il primo, in modo che le cifre a destra siano allineate 3. Parti dall’estremità destra del foglio 4. Tieni a mente 0 5. Muoviti verso sinistra 6. Se incontri il margine sinistro del foglio vai al passo 12, altrimenti procedi con il passo 7 7. Somma la cifra superiore con la cifra inferiore 8. Somma al risultato quello che stai tenendo a mente 9. Se il totale è minore di 10, scrivilo e tieni a mente 0 10. altrimenti, scrivi la cifra delle unità del totale, e tieni a mente la cifra delle decine 11. Torna al passo 5 12. Se il numero che stai tenendo a mente è diverso da 0, scrivilo 13. Fine Quello che abbiamo appena scritto è un esempio di algoritmo di calcolo. La parola algoritmo deriva dal nome del matematico arabo al-Khwarazmi, vissuto nel IX secolo DC. In generale un algoritmo è un procedimento (meccanico, nel senso che ogni passo è descritto con precisione, e si sa sempre quale sia il passo successivo) il cui risultato finale corrisponde al calcolo che si vuole ottenere. L'idea di una macchina algoritmica affascinò Turing: come sarebbe stato possibile realizzarla? Turing immaginò un apparato composto da due rulli e una finestrella. I due rulli permettono di far scorrere un nastro di carta di lunghezza indefinita. Il nastro può quindi muoversi in due direzioni. Esso è suddiviso in caselle, ciascuna delle quali può essere vuota o contenere un simbolo (una lettera, un numero...). La casella che capita in corrispondenza della finestrella è quella di volta in volta attiva. Le operazioni base che la macchina può svolgere sono pochissime: spostare il nastro avanti o indietro di una posizione, scrivere un simbolo sul nastro o cancellare un simbolo. Tali operazioni sono determinate da due cose: il simbolo di volta in volta attivo (cioè quello che corrisponde alla finestrella) e lo stato in cui la macchina si trova. Esiste un numero finito di stati possibili, e lo stato specifico della macchina cambia a seconda dello stato precedente e del simbolo letto. Turing non era affatto preoccupato di come si potesse in pratica realizzare tutto ciò; il suo scopo era discutere la possibilità teorica di costruire una macchina algoritmica. Egli riuscì a dimostrare che la sua macchina poteva essere programmata. A seconda della sequenza di simboli scritta sul nastro, la macchina poteva svolgere qualsiasi operazione di calcolo: sommare due numeri, moltiplicarli, estrarre una radice quadrata, calcolare la sequenza dei primi mille numeri primi o anche dirci se per andare da Milano a Bologna dobbiamo passare per Verona (anche se in questo caso il procedimento poteva essere molto complicato). Il nastro della macchina di Turing permetteva di codificare qualsiasi algoritmo; cioè, qualsiasi procedimento finito di calcolo che portasse a un risultato poteva essere tradotto in opportuni simboli scritti sul nastro. Era nato il computer (almeno come idea). E’ essenziale rendersi conto della sottile differenza che esiste tra la possibilità logica di un calcolo (incluso quello algoritmico) e la sua realizzazione pratica, meccanica. La macchina di Turing è un'idea. Il suo autore dovette immaginare un apparato fisico per realizzarla (la macchina con i rulli, la finestrella e il nastro), ma questo non era affatto rilevante: le stesse funzioni potevano essere effettuate con apparati elettronici, con tubi, con valvole idrauliche.... Il computer è definito dalla sua logica (la regola di codifica degli algoritmi, gli stati interni e le regole che permettono di passare da uno stato all'altro); la sua realizzazione pratica è un mero accidente (anche se, naturalmente, può condizionarne in modo critico l'efficienza, proprio come la calcolatrice realizzata con gli orologi è meno efficiente di quella realizzata con i righelli. Lo stesso Turing dimostrò un teorema generale di fondamentale importanza, che afferma che se una macchina algoritmica è in grado di svolgere una certa operazione, allora tutte le macchine algoritmiche sono in grado di svolgere quella operazione, purché dispongano di risorse sufficienti (memoria, dischi di supporto ecc.) L’hardware Nell’architettura di Von Neumann il pezzo fondamentale di un computer e la cosiddetta Central Processor Unit o CPU. Tanto un comune PC quanto un posizionarsi in un punto voluto. Il concetto di accesso sequenziale deriva dalle vecchie unità di memoria di massa, che erano effettivamente basate sull'uso di nastri magnetici, o addirittura di nastri perforati. Da quell'epoca ormai remota è rimasto fino a oggi il concetto di file, che rappresenta l'unità (logica) di memorizzazione nelle memorie di massa. Un file è (concettualmente) sequenziale, anche se i computer di oggi sono in grado di posizionarsi in un qualunque punto del file stesso senza doverlo leggere tutto. Le informazioni contenute in un'unità di memoria di massa, per poter essere utilizzate dal computer, devono per prima cosa essere trasferite nella memoria RAM: il processore non è in grado di indirizzare direttamente il contenuto di un disco. Oltre che leggere e scrivere sulla RAM, caricare e scaricare informazioni sulle memorie di massa, un computer deve tener conto del suo utente umano: in qualche modo, il computer deve permetterci di “dialogare” con lui. A tutte le unità che consentono di immettere informazioni nel computer, oppure di ricevere le informazioni elaborate dal computer, si dà il nome di unità o periferiche di input/output (I/O). Ad esempio, la tastiera e il mouse sono unità di input; il monitor e la stampante sono unità di output; uno scanner è un'unità di input; un touch screen è insieme un'unità di input e di output... Fino a questo punto abbiamo parlato con una certa disinvoltura di “dati contenuti nella RAM” o di “trasferimento di dati dalla RAM al processore”. Cosa sono questi dati? Tutti i computer moderni sono digitali, cioè funzionano sulla base di regole “tipo pallottoliere” e non “tipo righello”. Storicamente sono stati fatti diversi tentativi di costruire computer analogici. In effetti, non è impossibile immaginare di realizzare anche processi algoritmici basati su misure fisiche (dunque algoritmi analogici). Il problema di fondo dei meccanismi analogici è che, essendo basati su misure fisiche, sono (come si diceva) soggetti a errori. L’errore di misura è inevitabile, per così dire intrinseco nel processo stesso di misurare qualcosa. D’altra parte, se un computer analogico deve effettuare operazioni a catena (questo sembra molto probabile) gli errori relativi a ciascuna delle misure effettuate si cumulano. Il risultato finale può essere molto impreciso, o addirittura casuale (se le operazioni sono numerose). Di fatto i computer analogici possono essere molto utili per risolvere specifici problemi, in particolare nel caso in cui i problemi stessi risultano “ostici” dal punto di vista del calcolo algoritmico, ma nello schema di Turing sono quasi inutilizzabili. Il fatto che un computer moderno sia una macchina digitale implica che, in qualche modo, deve gestire l’equivalente elettronico delle file di palline del pallottoliere. Questo “equivalente” è costituito dalle celle di memoria. Tanto la RAM quanto le memorie di massa sono organizzate in celle, ciascuna delle quali può contenere un numero compreso tra 0 e 255. IL numero 255 è uguale a 256 – 1, cioè a 28 -1. L’aritmetica di un computer moderno si basa massicciamente sul numero 2 e sulle sue potenze. Perché? Sistemi di numerazione Per rispondere dobbiamo parlare del nostro modo di scrivere i numeri, cioè del cosiddetto sistema di notazione numerica. E' un sistema molto comodo e molto efficiente. Ad esempio, nella notazione romana il numero 1933 si scriveva MCMXXXIII. L'estrema scomodità di questo tipo di notazione appare evidente a chiunque voglia provare a eseguire una qualsiasi operazione (somma o moltiplicazione) tra due numeri romani, senza prima riscriverli nella notazione a cui siamo abituati. La notazione numerica moderna è detta notazione posizionale. Significa che, quando scriviamo un numero, il significato delle cifre varia secondo la loro posizione all'interno del numero; ad esempio la cifra 1 nel numero 21 sta per 1 unità, mentre nel numero 12 sta per 1 decina. Consideriamo più in dettaglio cosa stiamo facendo quando scriviamo, ad esempio, 1933: 19 33 = 1 000 + = 1 F 0C E 1000 + = 1 F 0C E 103 + 9 00 + 9 F 0C E 100 + 9 F 0C E 102 + 3 0 + 3 F 0C E 10 + 3 F 0C E 101 + 3 3 F 0C E 1 3 F 0 C E 100 Cioè: il nostro modo di scrivere i numeri è basato su un “numero magico” (dieci). Usiamo le potenze di dieci per definire il significato della posizione delle cifre (unità, decine...); inoltre, il sistema richiede l'uso di dieci simboli diversi (da 0 a 9). Il numero dieci prende il nome di base del sistema numerico, che è detto, infatti, sistema decimale. La scelta del numero dieci non è strettamente necessaria; qualsiasi numero potrebbe essere utilizzato come base di un sistema di notazione posizionale. Ad esempio, molte popolazioni in passato hanno usato il numero sessanta; noi stessi usiamo sessanta come base per scrivere i minuti e i secondi di tempo. La scelta del numero dieci è (forse) legata al fatto che abbiamo dieci dita; quella del numero sessanta è del tutto misteriosa (magica? mistica?). Un punto fondamentale, comunque è il seguente: Il sistema di notazione numerica basata sul numero N richiede esattamente N simboli diversi per rappresentare le cifre. Quindi il sistema che usa come base tre richiede tre simboli (di solito vengono usati 0, 1, 2), ecc. Alcune proprietà dei numeri dipendono dalla base, altre no. Ad esempio, il fatto che un numero sia esattamente divisibile per un altro è una proprietà intrinseca dei numeri, ma il fatto che un numero decimale sia periodico dipende dalla base: 1/3 in base 10 è 0,33333, ma scritto in base 3 diventa 0,1. Esiste sempre il modo di convertire un numero da una base a un’altra; l'algoritmo è semplice, ma in questa sede lo omettiamo. Il fatto che siamo abituati fin da piccoli alla base dieci rende l’uso di basi diverse un po’ “criptico”; in realtà, la scelta di una certa base è irrilevante per tutte le operazioni aritmetiche. Sommare, moltiplicare, elevare a potenza ecc. sono operazioni che presentano un grado di difficoltà identico (dal punto di vista algoritmico, quindi dal punto di vista operativo) indipendentemente dalla base adottata. Ora: il computer non è un essere umano; dal suo punto di vista, la scelta del modo di rappresentare i numeri non è vincolata da un'abitudine millenaria al sistema decimale. Appurato che l'uso della notazione posizionale presenta troppi vantaggi per essere abbandonata, la scelta della base dipende da ragioni di comodità rispetto a com'è fatto l'hardware. Nel caso dei computer elettronici, occorrerà rappresentare i numeri come “proprietà delle correnti elettriche”: potenziali, intensità di corrente o altro. In particolare, il modo più comodo è quello legato alla semplice presenza o assenza di corrente in un circuito. Si tratta di qualcosa che è molto facile da misurare, e la misura è poco soggetta a errori. Abbiamo quindi due stati possibili (presenza e assenza di corrente) che rappresentano i “simboli” che possiamo usare. D'altra parte, abbiamo detto, se i simboli sono due dobbiamo usare la notazione numerica in base due. Questa notazione particolare prende il nome di sistema binario. Le sue caratteristiche principali sono: • E’ il sistema più semplice possibile, nel senso che richiede il minor numero possibile di cifre. • E’ adatto a rappresentare numeri, ma anche operazioni logiche; basta attribuire alla cifra 1 il significato di “vero”, e alla cifra 0 il significato di “falso”. • Il suo unico svantaggio è che i numeri sono molto “lunghi”. Ad esempio, 256 si scrive 100000000. Una singola cifra binaria prende il nome di bit (che sta per Binary digIT). Un bit può quindi valere solo 0 o 1. Come abbiamo visto, uno degli aspetti fondamentali dell’architettura di von Neumann è che la memoria è suddivisa in celle, ciascuna delle quali può contenere un singolo numero. Possiamo ora dire qualcosa di più: i numeri che possono essere scritti nelle celle di memoria sono cifre binarie. Per diverse ragioni, l'uso di celle di memoria capaci di contenere solo singole cifre binarie sarebbe poco pratico. L'unità base adottata oggi in modo quasi universale è quindi una cella composta da 8 cifre binarie. In questo modo, il massimo numero che possiamo rappresentare in una singola cella è 11111111 (8 bit tutti che valgono 1). Questo numero equivale a 255 in cifre decimali. In ogni cella, quindi, il computer può scrivere un qualsiasi numero compreso tra 0 e 255; per rappresentare numeri più grandi, dobbiamo usare più celle. Una cella capace di contenere 8 cifre binarie (8 bit) prende il nome di Byte. Il byte è l’”unità di misura” della memoria; una memoria di 10 byte include 10 celle da 1 byte, e può contenere 10 numeri compresi tra 0 e 255. La memoria dei computer moderni si misura sulla base dei multipli del byte: • 1 kilobyte (Kbyte) è pari a 1024 byte (circa 1000 byte) • 1 megabyte (Mbyte) è pari a 1024 Kbyte (circa un milione di byte) • 1 gigabyte (Gbyte) è pari a 1024 MByte (circa un miliardo di byte). Una domanda dovrebbe sorgere spontanea, a questo punto: se il computer manipola solo cifre binarie, come fa a gestire informazioni di altro tipo (suoni, caratteri, immagini…)? Come fa concretamente il computer a trasformare le informazioni in numeri e viceversa? La digitalizzazione dell’informazione Possiamo fare qualche esempio. Supponiamo di voler trasformare in numeri la parola “ciao”. Il modo più naturale è quello di associare un numero a ogni carattere; ad esempio “a” = chiaro che si può codificare qualsiasi cosa. Di fatto, un programma non è altro che una lunga sequenza di numeri, che nel loro insieme codificano le singole operazioni algoritmiche (cioè le istruzioni) per la CPU. Si dice che il programma è scritto in codice macchina. Ogni volta che sul vostro PC trovate qualcosa il cui nome finisce con .exe o .com, avete a che fare con un programma scritto in codice macchina, quindi con una sequenza di numeri che possono essere interpretati direttamente dalla CPU come istruzioni. Un programma viene quindi scritto su un'unità di memoria di massa come qualsiasi altro dato. Nel momento in cui dev'essere eseguito, il sistema operativo si occupa di leggerlo e trascriverlo (caricarlo, come si dice in gergo) in un'area opportuna della RAM. A quel punto il programma può essere eseguito, istruzione dopo istruzione. Se provate a leggere il contenuto di un file .exe, vi accorgerete che la sequenza di numeri che vi è contenuta è del tutto indecifrabile. E' così anche per i programmatori. Lavorare direttamente in codice macchina sarebbe un'operazione di enorme complessità, lunghissima e frustrante (anche se è proprio così che lavoravano i pionieri dell'informatica, come Von Neumann). Quello che permette di programmare un computer in modo comodo e accessibile a tutti è la disponibilità di opportuni linguaggi di programmazione, come il Pascal, il C, il Fortran, ecc. Un linguaggio di programmazione permette di scrivere le istruzioni in una “lingua artificiale” che, da una parte è semplice da decifrare per il programmatore, dall'altra può essere facilmente tradotta in codice macchina. Questa operazione di traduzione viene fatta da un altro programma, che è detto compilatore. Esistono quindi compilatori per il C, per il Pascal, per il linguaggio Java ecc. Anche i compilatori rientrano nella categoria del software di base. Nel gergo degli ingegneri elettronici, la parola interfaccia è usata per denotare un'apparecchiatura in grado di convertire i segnali provenienti da una certa unità fisica nei segnali richiesti da una seconda unità fisica. In anni recenti, questo termine è stato esteso fino a includere tutto ciò che ha a che fare con l'interazione di un utente (umano) con il computer. Si parla quindi di interfaccia di un programma intendendo il modo specifico con cui l'utente fornisce input al programma, e con cui il programma fornisce il suo output. Il problema è tutt'altro che banale. Malgrado il fatto che i computer moderni siano figli della macchina universale di Turing, cioè di un sistema algoritmico in grado per definizione di imitare il comportamento umano, l'uso del computer (soprattutto dei primi computer) poteva risultare spesso un'operazione da “addetti ai lavori”. Come abbiamo già detto, nei primi computer tutte le interfacce erano puramente numeriche. Qualsiasi programma, qualsiasi dato doveva essere immesso nella macchina sotto forma di sequenze numeriche, e il computer, a sua volta, restituiva solo sequenze numeriche. Il problema della trascodifica era gestito “a mano”, in un senso e nell'altro. L'estrema scomodità di questo approccio rese urgente il problema di scovare qualche soluzione; per anni, tuttavia, si ritenne sufficiente una semplice conversione in caratteri delle stringhe numeriche. Il problema era particolarmente grave nel caso dei sistemi operativi. Quando usa un computer, l'utente ha continuamente a che fare con il sistema operativo. Operazioni come “apri un file di dati”, “manda i dati alla stampante”, “leggi il contenuto di una certa unità”, ecc. sono necessarie a ogni passo; se l'interfaccia del sistema operativo è basato su comandi espliciti, in forma di stringhe di caratteri, all'utente è richiesto per forza di sapere come funziona il sistema operativo, possibilmente nei dettagli. Ancora sulla prima rivoluzione informatica Come abbiamo detto, all'inizio degli anni '80 il computer iniziò quel ciclo ascendente che l'ha portato oggi a essere quasi un elettrodomestico. La possibilità di disporre di “computer personali” creava opportunità straordinarie e problemi straordinari. Nasceva un mercato consumer del computer, e le possibilità di guadagno erano sterminate. Nello stesso tempo, non si poteva costringere manager e professionisti a imparare la logica della macchina fino al punto da essere capaci di interagire con i sistemi operativi con le tecniche usate allora. Forse il motivo fondamentale dell'ascesa di Microsoft fu proprio l'aver capito la delicatezza del problema prima degli altri. Microsoft sviluppò un sistema operativo chiamato DOS (Disk Operating System), i cui concetti base erano mutuati da un altro sistema operativo, Unix. A differenza di Unix, tuttavia, il DOS si presentava come uno strumento semplice da maneggiare per chiunque fosse disponibile a un moderato sforzo di apprendimento. Il DOS fu adottato da IBM, che ai tempi era l'incontrastato gigante mondiale dell'informatica, per le nuove macchine di classe PC (Personal Computer), e questo lanciò Microsoft nell'empireo delle grandissime aziende mondiali. Il DOS non rappresentava, all'epoca, una rivoluzione concettuale. Si trattava pur sempre di un sistema operativo a comandi, anche se semplice. Alla metà degli anni '70, nei laboratori della Xerox, era stato avviato un progetto di ricerca specifico sulle interfacce uomo-macchina (quelle che oggi si chiamano interfacce utente). Quest'attività aveva portato a costruire un paradigma concettuale, ai tempi del tutto avveniristico (soprattutto dal punto di vista della sua realizzabilità concreta, visto che avrebbe richiesto macchine molto più potenti di quelle che si poteva pensare, ai tempi, di mettere in commercio). Il punto fondamentale della nuova visione del problema era la concretezza. Se si vuole far sì che un utente non specialista utilizzi il computer, occorre che l'interfaccia sia basata su “metafore” che la avvicinino, per quanto possibile, alle logiche umane. Le stringhe di comandi sono vicine alla logica della macchina, ma per l’utente umano sono scomode e richiedono una fase specifica di apprendimento. Accedere a un file, per esempio, rimanda a un concetto tecnico (quello di file, appunto). L'utente deve sapere che il file è gestito da una cosa che si chiama file system, che ha una precisa struttura, che richiede certi comandi per essere creato, cancellato ecc. Meglio sarebbe se il file fosse rappresentato da un oggetto che appare su una sorta di scrivania virtuale, e all'utente fosse richiesto di agire in modo concreto su di esso. Venne teorizzato l'uso del mouse come strumento fondamentale dell'interfaccia utente. L'uso del mouse comporta operazioni concrete, come puntare un oggetto o trascinarlo. Venne definito lo schema base di quelle che oggi si chiamano interfacce iconiche: ogni operazione è correlata a oggetti, che vengono rappresentati da simboli grafici che rimandano a tipologie precise. Oggi noi siamo abituati a questi concetti. Sappiamo, per esempio, che ogni documento creato con Word è rappresentato da una certa icona; quando accendiamo il computer, ci aspettiamo che appaia il desktop (in inglese, scrivania), ma il percorso per realizzare tutto ciò ha richiesto una ventina d'anni. La prima azienda che adottò la filosofia delle interfacce utente definita alla Xerox su computer commerciali fu la Apple. All'inizio degli anni '80 apparve il Macintosh, che faceva sua in senso completo l'idea della scrivania e dell'uso delle icone. Malgrado il fatto che si trattasse di una macchina molto avanzata, per quegli anni, il Macintosh soffrì terribilmente il peso della concorrenza del gigante IBM. Eppure i vantaggi dell'uso dell'interfaccia iconica erano notevoli. Non si trattava solo della semplicità di utilizzo, ma anche della possibilità di vedere il computer come un ambiente unitario. Per fare un esempio: supponiamo che si voglia copiare del testo scritto con un programma per videoscrittura (ad esempio Word) all'interno di un certo archivio elettronico costruito con dBase (un altro popolare programma dei tempi). Sui computer di classe PC, l'unico modo sarebbe stato quello di salvare il testo su file con Word, poi aprire il file con dBase, leggerne il contenuto e adattarlo allo specifico formato richiesto dal programma. In ambiente Machintosh la stessa operazione avrebbe comportato soltanto l'esecuzione successiva di un comando copia e di un comando incolla. Entrambe queste operazioni sono vicine alla logica umana, e non richiedono di sapere cos'è un file e cos'è un formato. Già dalla metà degli anni '80 si cominciò a pensare alla necessità di immettere sul mercato PC degli integratori: programmi che si frapponessero, per così dire, tra l'utente e il computer, fornendo un'interfaccia più semplice e più concreta. L'utente interagiva con l'integratore, che traduceva i suoi comandi in quelli richiesti dal sistema operativo, e viceversa. Furono prodotti programmi di cui ai tempi si parlava molto, e che oggi sono del tutto estinti (DesQ, TopView), tranne che in un caso: Windows di Microsoft. E' solo in tempi recenti che Windows ha smesso di essere un “rivestimento” del DOS, ed è diventato un vero e proprio sistema operativo. La metafora della scrivania è stata forse il tema dominante di tutto lo sviluppo del software negli ultimi vent'anni. Si è partiti con la necessità di integrare le operazioni dell'utente sul suo computer personale. Si è posto poi, in modo del tutto naturale, il problema di integrare tra loro le operazioni compiute da gruppi di utenti, ad esempio all'interno di un'azienda. Il processo di globalizzazione ha reso critica questa necessità su scale sempre più vaste: una multinazionale, ad esempio, non aveva solo il problema di integrare l'attività informatica di un ufficio, quella confinata tra le quattro pareti di una singola sede, ma di permettere scambi di dati e d'informazioni attraverso gli oceani e i continenti. Era necessario uno sforzo tecnologico e concettuale verso le reti di computer, sforzo che ha portato alla costruzione della madre di tutte le reti: Internet. Con Internet, la metafora della scrivania giunge al suo punto di arrivo planetario. Reti di computer Le reti di computer risolvono il problema dell'accesso a dati e a risorse distribuite. Nel mondo del lavoro o della ricerca scientifica capita spesso che qualcuno abbia bisogno di prelevare dati da un computer che non è il suo, e utilizzarli come input di un programma che ha in gestione, i cui risultati poi dovranno essere usati da qualcun altro. strategici della difesa statunitense. Il progetto non ebbe gran risonanza sui media dell'epoca. Si era nel pieno degli anni settanta, e fatti come le dimissioni di Nixon o la fine della guerra del Vietnam costituivano argomenti decisamente più interessanti per l'opinione pubblica. Il progetto Arpanet comportava mettere in comunicazione tra loro reti diverse, sviluppate in ambiente militare o accademico. Non si trattava, cioè di cambiare le reti esistenti e rifarle ex novo secondo i nuovi standard, ma di adattare reti diverse facendo in modo che ciascuna di esse riconoscesse una "lingua" comune di comunicazione. Il sistema di connessione tra reti era l’embrione di quello che oggi viene chiamato dorsale Internet (Internet Backbone). Il modo più ovvio per connettere le reti di computer in Arpanet consisteva nell'utilizzare le normali linee telefoniche. Oltre al problema della robustezza, esisteva quindi un problema legato alla qualità dei segnali. Le telecomunicazioni negli anni '70 erano sensibilmente meno affidabili di quanto non siano oggi. Inoltre, la velocità di trasmissione dei dati all'epoca di Arpanet era lentissima, se paragonata agli standard odierni. Con le normali tecniche di comunicazione, un problema di linea durante una trasmissione avrebbe comportato la necessità di ritrasferire l'intero pacchetto di dati dall'inizio. Detto per inciso: il segnale telefonico è analogico; è costituito da una debole corrente che varia in frequenza in modo continuo. D'altra parte tutto il mondo dei computer è un mondo digitale. E' necessario quindi disporre di un modo per convertire dati e messaggi (digitali, cioè costituiti da numeri) in segnali analogici che possano viaggiare lungo le linee del telefono, e viceversa. Per risolvere il problema si usano (ancora oggi) apparecchiature speciali, dette modem (che sta per MOdulator/DEModulator). Sia il problema di rendere la "rete delle reti" priva di un centro attaccabile, sia quello della qualità delle linee analogiche potevano essere risolti con l'utilizzo di una tecnica nuova per l'epoca, detta commutazione di pacchetto. Per capire come funziona, possiamo fare un esempio. Supponete di vivere in un paese in cui le poste sono molto inaffidabili. Gli uffici postali chiudono in modo imprevedibile, e spesso i postini non riescono a recapitare lettere e pacchi. Supponete poi di dover mandare un grosso libro ad un vostro amico, essendo sicuri del fatto che egli lo riceva. In linea puramente teorica potreste fotocopiare tutte le pagine, mettere le copie in buste diverse e inviare ogni busta come una normale lettera. Certamente una parte delle pagine non arriverà a destinazione; il vostro amico potrebbe allora inviarvi la lista delle pagine che non ha ricevuto, e voi potreste rispedire solo quelle pagine. E' chiaro che si tratterebbe di una tecnica lenta e molto dispendiosa. Nel mondo dei computer, tuttavia, una tecnica strampalata come questa ha i suoi vantaggi. Si tratta precisamente dell'idea che sta alla base della commutazione di pacchetto. Il blocco di dati da inviare viene suddiviso in piccole parti (dette appunto pacchetti), e ogni pacchetto viene inviato al computer che deve riceverlo indipendentemente dagli altri. In Arpanet (così come in Internet, che costituì l'evoluzione di Arpanet), lo strumento per realizzare la commutazione di pacchetto era il protocollo TCP/ IP. Esso è composto da due componenti diversi: • TCP (che sta per Transmission Control Protocol = Protocollo di controllo della trasmissione) e • IP (che sta per Intenet Protocol = protocollo intra-rete). Il meccanismo funziona in modo simile all'esempio delle lettere. • TCP prende i dati che devono essere spediti, e li suddivide in pacchetti di al massimo 1 KByte, poi aggiunge a ogni pacchetto un'intestazione che specifica qual è il numero d'ordine del pacchetto nel messaggio, quindi passa i messaggi a IP • IP aggiunge a ogni pacchetto un altra intestazione, che include l'"indirizzo" del mittente e quello del destinatario, poi comincia a spedire i pacchetti uno per uno. • Nel momento in cui i pacchetti arrivano a destinazione, IP (lato destinatario) si occupa di riceverli, TCP di rimetterli insieme; se durante l'operazione si scopre che manca un pacchetto, TCP manda una richiesta al mittente originale, e la richiesta viene gestita con la stessa tecnica. A questa modalità di trasmissione dei dati si dà il nome di commutazione di pacchetto. Il termine “commutazione” è preso dal gergo telefonico; il suo significato verrà illustrato più avanti. Dal punto di vista hardware, la "rete delle reti" include un certo numero di computer speciali (che sono anche server delle reti locali connesse). A questi computer viene dato il nome di router (che significa, più o meno, "indirizzatore"). I pacchetti viaggiano lungo i router, che sono connessi tra loro, fino alla loro destinazione che è individuata da un indirizzo IP unico. Un indirizzo IP è composto da quattro numeri (nella scrittura di tali indirizzi si usa di solito separare i numeri mediante punti, ad esempio: 123.56.14.137). Il numero più a destra identifica un particolare computer nella rete di destinazione; quello immediatamente alla sua sinistra identifica una sotto- rete; quello ancora più a sinistra una grande rete di reti; il più a sinistra di tutti una grandissima famiglia di reti . L'indirizzamento funziona quindi nel seguente modo. • IP esamina l'indirizzo del destinatario, e invia i pacchetti a un qualunque router che appartiene alla stessa "grande famiglia di reti" del destinatario (quella che corrisponde al primo numero a sinistra dell'indirizzo IP). • Il router che riceve i pacchetti, li invia a un qualunque router che appartiene alla "rete di reti" identificata dal secondo numero. • Il router che a questo punto riceve i messaggi, li invia a un qualunque router che appartiene alla "sotto-rete" identificata dal terzo numero. • Quest'ultimo router è in grado di inviare il pacchetto al destinatario, che corrisponde al quarto numero. Questa tecnica risolve quindi sia il problema dell'acentricità della rete, sia quello dell'inaffidabilità delle linee3. Protocolli e linguaggi Abbiamo definito un protocollo di comunicazione come una sorta di “linguaggio” che due computer utilizzano per sincronizzare la comunicazione in rete. Dal punto di vista informatico tuttavia questa definizione è del tutto scorretta. Nello slang informatico un linguaggio è essenzialmente un insieme di simboli, di solito desunti dalla lingua inglese, ciascuno dei quali rimanda a 3 I dettagli sono più complessi di come li ho descritti; tuttavia in questa sede è importante solo capire il meccanismo generale. Si rimanda il lettore interessato a testi specifici sull’argomento. una precisa operazione algoritmica. Un protocollo potrebbe essere definito più propriamente come l’insieme delle regole che, nel loro complesso, guidano le operazioni di comunicazione. La distinzione è sottile ma fondamentale. Attraverso i simboli di un linguaggio viene descritta una catena operativa che un computer è in grado di eseguire. Un protocollo non viene “eseguito”, definisce semplicemente delle regole. Fino alla fine degli anni ’70 esisteva una notevole confusione nel mondo delle regole da applicare per la trasmissione dei messaggi in rete. Nel 1978 venne definito uno “schema generale” noto con il nome di ISO/OSI, o semplicemente OSI (che sta per Open Systems Interconnection), a cui normalmente si adeguano tutti i protocolli moderni. L’idea fondamentale dell’OSI è quella di descrivere la comunicazione per livelli. In particolare, lo standard OSI identifica sette diversi livelli, ciascuno dei quali corrisponde a un particolare “aspetto” del problema. I livelli sono definiti in modo tale che ciascuno di essi ingloba, per così dire, quelli sottostanti. Si parla di “stack (catasta) OSI”, proprio per intendere che il sistema funziona per strati (layers), dove ogni layer descrive le sue specifiche funzionalità dando in un certo senso per scontate le funzionalità descritte dai layer sottostanti. Il vantaggio di questo schema consiste nel fatto di rendere modulare l’intero processo di comunicazione. Per fare un esempio: lo strato più basso è il cosiddetto livello fisico. Un protocollo che si occupa di questo livello, secondo lo standard OSI, deve specificare: • le tensioni scelte per rappresentare le cifre binarie 0 e 1 • la durata del segnale elettrico che identifica un bit • la possibilità che il segnale sia bidirezionale • eccetera cioè tutto ciò che ha a che fare con il trasferimento fisico del segnale. Non ci interessa assolutamente in questa sede entrare nel dettaglio (peraltro molto tecnico) dell’OSI. Quello che vorrei sottolineare è la modularità del sistema. ISO/OSI non è un protocollo, ma uno schema generale che permette di definire protocolli in modo tale da renderli compatibili tra loro, e da far sì che debbano specificare solo l’insieme delle regole attinenti al livello di cui si occupano, “disinteressandosi” degli aspetti di dettaglio sottostanti. Se si comprende l’idea di fondo del meccanismo OSI si riesce a darsi una spiegazione del perché il mondo di Internet includa così tanti protocolli. Ad esempio, come vedremo, il protocollo base del Web è HTTP (HyperText Transfer Protocol). Questo protocollo si colloca a un livello alto dello stack OSI, e utilizza i protocolli TCP e IP per la commutazione di pacchetto. In altri termini, HTTP è responsabile degli aspetti connessi alla struttura ipertestuale del Web. Esso non sostituisce TCP/IP, ma piuttosto lo utilizza, “dà per scontato” che comunque la costruzione e l’istradamento dei pacchetti informativi vengano gestiti (da TCP/IP). La rete Internet Arpanet fu dapprima limitato a poche reti, come si diceva, per lo più militari o legate agli ambienti di ricerca. Tuttavia, l'idea era così buona che molte altre reti si aggiunsero al nucleo base di quelle connesse. La trasformazione di Arpanet in Internet fu un fenomeno graduale. L’esplosione di Internet come scambi di file (tipicamente filmati e musica, ma anche programmi o altri documenti) per lo più in modo del tutto gratuito. Le modalità di funzionamento sono simili per tutti i programmi di questa classe. Se scaricate sul vostro computer ad esempio F 06 DTorrent, potete specificare il percorso di una cartella condivisa che verrà “vista” da tutti gli altri utenti. Ciascuno avrà diritto di prelevare qualsiasi cosa sarà contenuta in tale cartella. Diverse, invece, sono le modalità di accesso ai dati. In una rete peer-to-peer il problema di stabilire dove si trova un certo file (e perfino se esiste) non è banale. Tale problema può essere risolto in due modi. • Alcuni computer della rete violano la regola del peer-to-peer e di fatto fanno da server; in pratica tali computer includono database che associano le risorse disponibili ai nodi; è quindi possibile effettuare delle ricerche dirette, e ottenere la lista dei nodi su cui l’oggetto cercato è presente. Nel momento in cui si effettua il download, si entra effettivamente in modalità peer-to-peer. • La tecnica torrent sta riscuotendo un successo sempre maggiore. Un file torrent è semplicemente un indice che specifica quali sono i nodi della rete che contengono determinate risorse. L’utente di F 06 DTorrent (o programma equivalente) deve scaricare il file torrent da Internet. Il programma legge tale file e automaticamente si connette ai nodi della rete peer-to-peer in modo da ottimizzare le operazioni di download. Il problema è che non esiste un database centrale di risorse, quindi non c’è un modo diretto per sapere se un certo file è disponibile. Tuttavia sul Web è possibile trovare numerosi siti che forniscono liste di file torrent come risultato di una ricerca da parte dell’utente. Il peer-to-peer ha avuto nel recente passato un momento di gloria, in cui sembrava che fosse (o fosse destinato a diventare) la modalità principale di utilizzo della rete. In un articolo del 21 gennaio 2007 il quotidiano La Repubblica affermava: “Vengono stimati in 10 milioni gli utenti che ogni giorno in tutto il mondo utilizzano i servizi peer to peer per scambiare files musicali e cinematografici.” Nello stesso articolo si sosteneva che: “…nel 2006 sono state circa diecimila le cause intentate dall'industria discografica contro singoli "downloader" in 18 diversi paesi.” L’aspetto legale del problema ha suscitato una controversia che non si è ancora risolta. E’ evidente che reti di questo tipo permettono lo scambio di oggetti coperti da copyright. Tuttavia il fatto che tale scambio non avvenga a fini di lucro mette parzialmente al riparo gli utenti da azioni legali intraprese dai detentori del copyright stesso. In pratica lo spirito della legislazione attuale comporta la non perseguibilità di chi scarica (a parte, ovviamente, il caso di download di materiale di per sé illegale, come immagini offensive, pedofilia o altro), purché l'utilizzo del materiale scaricato sia esclusivamente personale. In realtà il problema è che il fenomeno non può letteralmente essere arginato. Nel caso delle reti peer-to-peer, infatti, non esiste un “responsabile” o un “centro” di nessuna natura. eMule non gestisce contenuti: si limita a fornire un software mediante il quale gli utenti (milioni, come si è visto) possono fare cose che non sono intrinsecamente illegali (non è detto che un file scaricato sia coperto da copyright). Nel caso di gruppi di scambio gestiti centralmente (è il caso, ad esempio, di RapidShare che è un sito che permette di fare upload e download di file) la legge si è mossa, obbligando il gestore a eliminare dai propri database materiale di cui si riteneva che la distribuzione fosse illegale. In ogni caso, è evidente che la diffusione del peer-to-peer costituiva un danno enorme per le major, che da sempre hanno cercato di contrastare il fenomeno. Tuttavia si ha l’impressione che il (relativo) declino di questo tipo di servizio sia legato soprattutto alle abitudini degli utenti, e in particolare all’aumento della diffusione del cosiddetto streaming, che è la modalità con cui un utente può vedere un film o ascoltare un brano musicale direttamente dal browser. In streaming non avete bisogno di perdere tempo a scaricare file di grandi dimensioni; con abbonamenti poco costosi potete accedere a archivi musicali o cinematografici giganteschi; in ogni caso, sapete che l’operazione che state facendo non è illegale (altrimenti il sito a cui vi connettete sarebbe stato chiuso). La posta elettronica Sulla email si potrebbe fare un discorso analogo a quello fatto a proposito della telefonia mobile. Come medium la posta elettronica non sembrerebbe differire dalla normale posta cartacea. Tuttavia essa rappresenta un salto di qualità enorme rispetto ai sistemi di posta tradizionale, se non altro perché non richiede di un’infrastruttura diversa da Internet. In altre parole, non dobbiamo più dipendere da piccioni viaggiatori o postini. Ci basta essere connessi alla rete e disporre del programma appropriato per poter mandare tutte le mail che vogliamo. In particolare l’impatto sui costi è formidabile. Se disponiamo della connessione, mandare una mail o mandarne mille non crea differenze di costo. Ciò ha causato un incremento enorme nell’uso della posta stessa. Una persona media, in un contesto lavorativo, può ricevere centinaia o addirittura migliaia di mail al giorno, e il problema sta diventando più quello di difendersi dall’invasione della posta elettronica che non quello di usare il nuovo mezzo. La posta elettronica ha richiesto addirittura la nascita di una nuova disciplina, la cosiddetta netiquette (regole di buona educazione in rete), per convincere gli utenti ad attenersi a un uso sensato della email. Tipiche regole di netiquette sono ad esempio: • Specificare sempre l’oggetto della mail (se ricevo mille messaggi di posta al giorno dovrò per forza dare priorità ad alcune di esse; l’indicazione dell’oggetto mi può essere d’aiuto. • Non attivare il flag “urgente” per tutte le mail che si inviano, ma solo per quelle effettivamente urgenti. • Se si allega a una mail una presentazione PowerPoint da 100 MB, avvisare prima il destinatario: potrebbe avere una connessione lenta, oppure il suo provider potrebbe bloccare l’allegato. • Eccetera. La difesa nei confronti dei messaggi di posta che riempiono tutti i giorni le nostre caselle assume aspetti drammatici rispetto al problema del cosiddetto spam. Con questo termine si intende genericamente un messaggio dal contenuto che non ci interessa, proveniente da un utente che non conosciamo. Lo spam può avere diverse finalità. A volte è semplice pubblicità; altre volte proviene da campagne avviate da enti no profit con intenti morali (o per lo meno ritenuti tali in buona fede da parte di chi le avvia). Più spesso i messaggi di spam sono maliziosi, se non addirittura truffaldini. Il tipico caso è quello della banca che informa i propri utenti del fatto che, per modifiche effettuate al sistema di posta, essi devono connettersi a un certo sito e fornire i loro dati, incluso il numero di conto corrente. Mail di questo tipo vengono lanciate in massa. Ovviamente gli utenti che non hanno un conto sulla banca indicata si accorgeranno immediatamente del fatto che c’è qualche problema. Tuttavia, nel mucchio ci sarà senz’altro qualche cliente della banca stessa, magari qualche anziano un po’ disarmato che fornirà spontaneamente ai ladri gli strumenti per la rapina elettronica. Le mail sono anche il veicolo principale di diffusione dei virus informatici. Un virus è un programma che si installa sul computer ospite e ne altera il funzionamento in qualche modo. Fino a qualche anno fa giravano per la rete virus estremamente dannosi, in grado di rendere inservibile il sistema contagiato. Oggi si tratta per lo più di spyware, programmi che si limitano a esaminare i comportamenti dell’utente sul Web (che tipo di siti frequenta, cosa cerca ecc.) e poi a indirizzarlo automaticamente su pagine pubblicitarie. Di solito, comunque, i computer infettati manifestano un qualche tipo di degrado delle prestazioni. Per attivare un virus occorre eseguire un programma; questo significa che è bene evitare di aprire gli allegati di posta di cui non si conosce l’origine. Trattandosi di un’infezione, tuttavia, essa può diffondersi indipendentemente dalla volontà di chi la trasmette. Se il messaggio proviene da un computer infetto, esso può trasportare l’infezione anche se il proprietario non è a conoscenza del problema. I virus possono essere trasmessi anche dai siti web, dal momento che è molto facile attivare un programma all’atto del caricamento del sito senza che l’utente se ne accorga. L’unica difesa valida è un sistema antivirus aggiornato. L’aspetto principale (dal punto di vista mediatico) che distingue la email dalla posta tradizionale è proprio la possibilità di allegare documenti (attachment). Questo fornisce alla posta elettronica una prospettiva multimediale che la posta cartacea non aveva. Abbiamo detto che la posta elettronica è un servizio di Internet. Per disporre di una propria casella, l’utente deve quindi disporre di una connessione Internet e contattare un ISP. La maggior parte degli ISP fornisce di solito una o più caselle email gratuite ai propri clienti; in ogni caso, una volta che si è connessi alla Rete, è molto facile ottenere il servizio (ad esempio Google ha attivato da un po’ di tempo il servizio gratuito GMail). Le operazioni postali possono avvenire • utilizzando specifici programmi di posta, come Outlook di Microsoft o Eudora • attraverso il Web, mediante servizi dedicati alla posta come Webmail La posta richiede alcuni protocolli dedicati. Per la posta in uscita si utilizza di solito il protocollo SMTP (Simple Mail Transfer Protocol), mentre per la posta in ingresso i protocolli più usati sono POP (Post Office Protocol) e IMAP (Internet Message Access Protocol) I nuovi telefoni Abbiamo già definito il telefono come un medium in modalità “uno-a-uno”. La rivoluzione informatica ha avuto impatti fondamentali sul mondo della telefonia, a diversi livelli. smettere di funzionare. Esistono telefoni in grado di connettersi direttamente a satelliti per le telecomunicazioni. Tali telefoni prendono il nome di satellitari, e possono essee utilizzati anche in situazioni in cui sarebbe impossibile una normale connessione cellulare, come su una barca in alto mare. Ci si può domandare se l’avvento del telefono cellulare costituisca una vera novità dal punto di vista che ci riguarda, e cioè quello mediatico. La risposta è senz’altro sì. Consideriamo infatti i seguenti aspetti del problema. • La mobilità comporta un aumento impressionante della “raggiungibilità” della gente. Questo fatto non riguarda semplicemente l’aumento di volume del traffico telefonico. Il telefono è con noi, è diventato parte di noi. In un certo senso le maglie della rete sociale si sono strette, il nostro grado di connessione è aumentato (ed è diminuita in parte la nostra autonomia, se non la nostra libertà). • I telefoni mobili hanno generato almeno un medium del tutto nuovo, e cioè l’SMS (Short Message Service), che a sua volta si è evoluto in MMS (Multimedia Messaging Service). Dal punto di vista mediatico, un SMS sembra una via di mezzo tra un messaggio di posta e una telefonata. Come un messaggio di posta ha una permanenza indefinita, cioè rimane nella memoria del telefono fino a quando l’utente decide di cancellarlo. Un altro aspetto di parentela con la posta è dato dal fatto che la comunicazione è monodirezionale. Tuttavia non è infrequente che si generino catene di SMS tipo “comunicazione – risposta”. In questo senso l’SMS finisce coll’assomigliare a una telefonata al rallentatore. La portabilità dell’apparecchiatura costituisce un aspetto fondamentale del problema. Gli SMS sono rapidi da scrivere, non invadenti, non richiedono penna e calamaio, e neppure un ingombrante computer. Possiamo mandarli in tram, dal bar, da casa di un amico; riceverli in macchina, e leggerli con comodo quando riusciamo a parcheggiare. • Gli SMS permettono una forma primitiva di broadcasting personale. Si pensi ad esempio agli auguri di natale, che vengono scritti una volta e inviati, con semplici operazioni, a una “mailing list” costituita dalla rubrica interna del telefono (o da una parte di essa). Questo tipo di broadcasting è stato utilizzato (sembra con effetti determinanti) anche in occasione di eventi politici come l’elezione di Zapatero in Spagna. • La possibilità di generare filmati attraverso il telefono cellulare ha aggiunto una dimensione comunicativa che in precedenza non esisteva. E’ notevole il fatto che mentre gli MMS hanno avuto subito un enorme successo, altrettanto non si può dire delle video-telefonate, che pure sono possibili con la telefonia mobile di ultima generazione. I motivi potrebbero essere legati ai costi, oppure al fatto che il la video-telefonata è più impegnativa, più invadente del semplice uso della voce. Le tappe principali dello sviluppo della telefonia mobile possono essere riassunte in questo modo. • 1946: Negli Stati Uniti la compagnia telefonica AT&T avvia un servizio commerciale radiomobile che consente a un apparecchio telefonico montato in auto di comunicare con la rete fissa. I primi telefoni per auto erano estremamente ingombranti e costosi; nel corso degli anni successivi la tecnologia migliorò, ma il telefono in macchina rimase sempre un oggetto di nicchia, riservato ai super ricchi o ai top manager delle aziende. • 1955: Viene lanciato sul mercato il cercapersone, un apparecchio di comunicazione monodirezionale che permetteva di generare un avviso acustico dal terminale mobile; l’”avvisato” doveva quindi recarsi al più vicino telefono fisso ed effettuare una normale telefonata. Esso divenne un oggetto di uso piuttosto frequente soprattutto per categorie particolari di persone (medici, guardie giurate…). • 1983: Viene lanciato sul mercato il primo telefono cellulare, il Motorola DynaTac 8000X. Esso utilizza una rete analogica (rete TACS, che sta per Total Access Communication System), pesa 8 etti e costa 3895 dollari. La rete TACS era di tipo analogico, cioè il segnale trasmesso equivaleva a quello standard usato nel mondo della telefonia fissa. Rispetto ai telefoni mobili attuali, i TACS presentavano diversi svantaggi: i terminali in uso in Italia non erano utilizzabili al di fuori del territorio nazionale; il sistema non ammetteva altro se non la trasmissione della voce; trattandosi di segnali analogici era molto facile intercettare le chiamate; altrettanto facile risultava la clonazione dei sistemi telefonici. • 1991: Viene attivata in Europa la nuova rete digitale GSM. Tra le novità, la possibilità di inviare e ricevere SMS. • 1997: nasce il telefonino “dual band”, che permette di usare gli stessi apparecchi telefonici sulle due sponde dell’Atlantico. • Fine anni ’90: viene definito il nuovo standard UMTS, che permette la video telefonata e la connessione con Internet. Nel mondo telefonico si parla comunemente di “generazioni” di telefonia mobile. Così i telefoni di generazione 0G sono quelli precedenti al TACS; la generazione 1G è quella della telefonia mobile analogica; 2G corrisponde al GSM e 3G all’UMTS. E’ attualmente in fase di studio uno standard superiore al 3G, e cioè il cosiddetto 4G, che dovrebbe permettere la ricezione di un massimo di 100 megabit/s in movimento e fino a 1 gigabit/s se il terminale è fermo. Telefonia mobile – I telefonini Un aspetto fondamentale, dal punto di vista mediatico, è quello legato all’evoluzione dei terminali mobili. I primi TACS sembrano oggi quasi incredibili, dal punto di vista del peso e delle dimensioni, e ci si domanda come facevamo a ritenerli strumenti utili. Di seguito è mostrato un Motorola Dynatac 8000x del 1983. Esso pesava circa 800 g, era lungo 25 cm e venne lanciato al prezzo di 3895 dollari. Al di là dell’incredibile miglioramento di prestazioni (oltre che di funzionalità) a cui si è assistito negli ultimi trent’anni, occorre citare un aspetto importante di convergenza mediatica legato allo sviluppo dei terminali mobili. Nel 1993 la Apple lanciò sul mercato un nuovo tipo di computer, detto palmare perché poteva essere portato in giro e utilizzato tenendolo nel palmo di una mano. Si trattava del MessagePad, che ebbe ai tempi uno scarso successo commerciale, anche se era destinato a un notevole futuro. L’idea dei progettisti della Apple era quello di fornire alla gente un sostituto ragionevole di un computer, da utilizzare quasi esclusivamente durante viaggi d’affari e missioni fuori sede. Va detto che i computer portatili dell’epoca erano ancora pesanti e ingombranti; il computer rimase un oggetto prevalentemente da tavolo fino alla fine degli anni novanta, quando gli sviluppi della tecnologia permisero finalmente di disporre di portatili comodi. L’idea di fondo del palmare era quindi quella di un oggetto destinato tipicamente ai manager, che potevano scaricarvi dati e documenti prima di partire, proseguire il loro lavoro sul treno o in aereo, e ritrasferire di nuovo sui computer fissi il frutto del loro lavoro una volta tornati in sede. Il trasferimento poteva avvenire attraverso cavi o porte infrarosse. Il Bluetooth, la tecnologia prevalentemente usata oggi a questo scopo, è del 1999. I palmari disponevano di strumenti software, come agende elettroniche, scadenziari ecc., che completavano la loro funzione di “computer da viaggio”. Nel decennio successivo alla prima apparizione di MessagePad il palmare (o PDA, Personal Digital Assistant) si diffuse, diventando quasi uno status symbol per il personale di alto rango delle aziende. Rimase tuttavia un oggetto di nicchia, finché non avvenne questa specie di “matrimonio tecnologico” tra PDA e telefonino: era nato lo smartphone. Questa possibilità venne compresa molto rapidamente dalle case produttrici di hardware, anche se per diversi anni le due tipologie di oggetti restarono distinte. Uno smartphone può essere inteso come un palmare dotato di capacità telefoniche, oppure come un telefonino su cui è possibile installare applicativi software. Esempi tipici e molto noti sono Android, Blackberry e Windows Phone, ma lo smartphone per antonomasia oggi può essere considerato l’ iPhone di Apple. Si tratta quasi di un oggetto di culto, il cui successo commerciale è stato impressionante. Basti dire che iPhone fu lanciato il 29 giugno 2007, e il 10 settembre dello stesso anno aveva già venduto un milione di esemplari. Nella versione 3G (2008), lo stesso risultato fu raggiunto a tre giorni dal lancio! iPhone utilizza idee e modalità che erano state ampiamente sperimentate in un altro oggetto di culto, e cioè iPod, il più diffuso lettore di musica digitale lanciato dalla stessa Apple nel 2001. Nel luglio del 2011 apparve sui giornali la notizia che la liquidità della Apple era superiore a quella del governo degli Stati Uniti; questo sbalorditivo risultato si deve senz’altro alla straordinaria capacità di Apple e del suo personaggio più rappresentativo, Steve Jobs, di comprendere le tendenze del mercato e di inventare oggetti, come iPod e iPhone, in grado di diventarne leader.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved