Scarica Riassunto libro "Storia dei media digitali". Balbi, Magaudda. e più Sintesi del corso in PDF di Storia Dei Media solo su Docsity! Storia dei media digitali Capitolo 1 – Capire i media digitali 1.1. Una nuova ossessione: “il digitale” I media digitali sono una delle principali ossessioni della società contemporanea (connettersi in rete, aggiornare il proprio profilo, fare shopping online…). I media digitali rappresentano un settore cruciale, soprattutto per il loro peso economico: 2012 = mercato mondiale delle comunicazioni digitale = 3.168 mld € -> 6% del prodotto interno lordo mondiale (PIL = 52.550 mld €), quindi una fetta molto consistente già nel 2012 era occupata dalle comunicazioni digitali: • 46% = telecomunicazioni • 36% = mercato dei computer (hardware, software) • 10% = servizi di televisione digitale • 8% = elettronica di consumo I media digitali stanno trasformando flussi e geografie della comunicazione non evolvendosi in maniera del tutto uniforme e ampliando disuguaglianze già esistenti tra i diversi mercati mondiali. Diverse regioni stanno producendo e consumando servizi digitali in maniera molto maggiore rispetto ad altre: Nel 2012 (% sul mercato mondiale dei servizi digitali): • 30% = Nord America • 27% = Europa • Le altre regioni sono in netto svantaggio = 29% = Asia e Pacifico, 9% = America Latina, 6% = Africa Quest’ultime elencate stanno entrando in contatto molto più recentemente con alcuni servizi di comunicazione, soprattutto la telefonia mobile, e oggi, oltretutto, sono i paesi da cui provengono moltissimi tra i più innovativi media digitali. Possiamo quindi dire che al giorno d’oggi i media digitali sono un centro nevralgico di interessi culturali politici ed economici. Con l’avvento di Internet, le tecnologie digitali e i flussi di dati immateriali possiamo quindi descrivere i radicali cambiamenti che ha subito la società contemporanea. Stephane Vial ha parlato di “ontofania digitale” per indicare la evidentissima “manifestazione” dell’universo digitale e come questo condizioni il mondo di oggi. Negli ultimi decenni le molte delle maggiori paure (privacy, moralità), ma anche speranze (profitti economici) sono state affidate alla diffusione dei media digitali. Internet, i computer, i social network non sono diventati solo parte della nostra routine quotidiana, ma ci permettono di vedere e farci rendere conto della realtà in cui ci troviamo (Esempio: Primavere arabe) 1.2. Per una definizione di digitale Il concetto di “digitale” è un insieme di temi che tutt’oggi sono in continua evoluzione. Questo concetto è molto spesso messo in contrapposizione con il termine “analogico”: Esempio: disco in vinile, moderni compact disc. Disco in vinile = suono prodotto dal contatto tra la puntina ed i solchi continui incisi sul disco, non ci sono quindi interruzioni nella spirale su cui sono incisi parole e musica. Compact Disc = la traccia audio e scomposta in miriadi di punti, sottoforma di valore binario (0 e 1) ed il suono è prodotto dalla lettura di un laser di tali valori. Se quindi per produrre un suono il vinile era composto di spirali continue, il digitale fa l’esatto opposto, scomponendo la traccia audio in miliardi di valori binari. Questo esempio ci permette di comprendere un macro-fenomeno: la digitalizzazione dei media, il quale è composto da 2 fondamentali elementi = la numerizzazione e la binarizzazione. La numerizzazione consiste nell’assegnazione di valore numerico a contenuti inizialmente espressi in un differente linguaggio. Grandi vantaggi: • Prima = audio, video e immagini erano trasmessi da segnali analogici continui ed uno era differente dall’altro • Ora = tutti sono codificati attraverso il medesimo linguaggio numerico, permettendo di trasferirli in modo indipendente dal tipo di contenuto. La digitalizzazione (digit = cifra) è semplicemente, quindi, l’assegnazione di valori numerici e con il fatto che si sia pensato di utilizzare solo 2 cifre ha reso molto più economica la decodifica, riducendo ogni componente a due stati: “acceso o spento”, “0 o 1”, “passa o non passa (corrente)”. I programmi che vediamo in TV sono una sequenza di 0 ed 1 che i decoder e le televisioni digitali codificano per essere resi comprensibili alle persone. La sovrapposizione tra digitalizzazione e binarizzazione è il fatto più importante per il quale i media digitali sono così diffusi al giorno d’oggi. L’informazione digitalizzata è differente da quella analogica per alcune ragioni: innanzitutto, trattando tutte le forme di comunicazione allo stesso modo (nessuna distinzione tra audio, testo e video) permette di: • Smaterializzare le informazioni • Comprimerli e quindi trasferirli più facilmente • Conservarli in supporti che occupano poco spazio (hard disk esterni) • Manipolarli e modificarli con semplicità Tutte queste cose con l’analogico si sarebbero potute fare, ma con molte più difficoltà e con molte più spese, perché saremmo dovuti intervenire sugli oggetti fisici. In secondo luogo, la digitalizzazione non ha favorito solo la diffusione dei contenuti, ma ha anche favorito all’esplosione di nuovi hardware per la lettura e la riproduzione di tali contenuti (computer, MP3…). 1.3. Digitalizzazione e modelli di società Le prime osservazioni che identificarono la trasformazione della società con l’avvento delle comunicazioni, dei computer provengono dai primi anni del dopo-guerra. Le due teorie più importanti furono: • Cibernetica: ambito interdisciplinare introdotto da Norbert Wiener, il quale riconobbe che gli snodi cruciali della trasformazione furono lo sviluppo delle comunicazioni e dell’uso e dell’interazione delle macchine nella società. Scienza che indagava l’utilizzo degli strumenti tecnologici. Immaginario cyberpunk = interazione uomo-macchina inserendola all’interno delle controculture degli anni 80, la cultura punk, una cultura alternativa che utilizzano la tecnologia per riscattarsi ed accedere ad una nuova dimensione • Teoria dell’informazione, le cui basi logico-matematiche vennero tracciate da Shannon e Weaver, per poi evolversi nella “teoria matematica dell’informazione”, i cui modelli si basavano sulle comunicazioni telefoniche, visto che furono sviluppate all’interno dell’AT&T (American Telephone & Telegraph). Questi modelli furono che ritorna allo stadio precedente. Con la Rivoluzione Francese il termine si svincolò da questo significato per acquisire il concetto di “rivolgersi verso il futuro”. Quest’idea trasformativa fu molto in voga soprattutto nella metà dell’Ottocento con il pensiero di Karl Marx e la sua visione con la quale sosteneva che la società poteva realizzarsi solo con delle rivoluzioni e delle rotture con il passato. Nel corso del ‘900 il termine acquistò molti altri significati (modernità, rivolta, progresso…) senza mai distaccarsi, però, dal concetto fondamentale di rottura con il passato. L’uso dell’espressione “digital revolution” diventa molto popolare nel campo scientifico (libri, riviste…) per poi prendere campo anche nel mondo politico per motivare alcune decisioni, in campo aziendale per sponsorizzare alcuni prodotti. Nella seconda metà degli anni ’90, quindi, quest’espressione divenne popolarissima per poi avere, nei primi anni 2000, una flessione per poi riprendere il passo nei giorni d’oggi (diagramma Factiva sul libro, pag. 15). Secondo Alexis de Tocqueville già a metà ‘800 aveva capito che la rivoluzione si accompagna sempre il proprio passato, e anche per le tecnologie ed i media è così, difatti sono la parte visibile di una lunga e lenta trasformazione con le radici fondate in un passato analogico. Capitolo 2 – Il Computer 2.1. Il padre di tutti i dispositivi Il computer può essere definito il padre di tutti i dispositivi di comunicazione digitale. Soprattutto nella sua versione portatile (PC) viene identificato con il primo dispositivo dell’informatica di consumo. In questi anni assistiamo, però, ad un calo delle vendite dei PC per dare posto al mercato di molti altri dispositivi di comunicazione (tablet, smartphone…). Siamo quindi in un periodo che possiamo chiamare epoca “post-pc”, cioè un periodo in cui il computer è diventato uno tra i tanti dispositivi di comunicazione. Ciò nonostante, il computer è tutt’oggi uno strumento importantissimo nella vita sociale ed influenza pesantemente la storia dell’informatica e di internet. Negli anni ’40-’60 il computer ed i calcolatori venivano utilizzati soltanto a scopi di calcolo militari o nei grandi uffici. Solo negli anni ’60 i computer iniziarono a essere pensati come mezzi di comunicazione e solo negli anni ’70 cominciarono ad essere dispositivi fulcro per la vita quotidiana, grazie all’entrata sul mercato dei primi PC. La presenza dei PC nelle case ha anche permesso ad internet ed altri mezzi di comunicazione di essere centrali nella vita sociale. Quindi, possiamo dire che, senza la storia del computer i media digitali non sarebbero stati come oggi li vediamo. 2.2. Prima del ‘900: l’esigenza di calcolare La nascita del computer recupera un’idea antica, ovvero quella di disporre di macchine automatiche per il calcolo. Ciò che lega il computer alle macchine da calcolo mette in rilievo due importanti aspetti: • Il computer è stato a lungo considerato come uno strumento di calcolo e non di comunicazione. • Questa parte di storia è di natura “analogica” perché si sviluppò a partire da esigenze e strumenti di epoca analogica. Le macchine per eseguire calcoli hanno una storia millenaria (abaco, astrolabi). Nel ‘600 le macchine si innovarono soprattutto grazie allo sviluppo della matematica. Pascal e Leibniz inventarono due differenti macchine in grado di svolgere operazioni matematiche, ma non fecero successo perché alla gente del tempo non era necessaria una macchina che svolgesse calcoli così potenti. Grazie alla rivoluzione industriale l’esigenza di calcolatori divenne più pressante. Il primo campo che ne fece uso fu quello della tessitura: Jacquard, un ingegnere, introdusse un nuovo telaio automatico dotato di “hardware” (il telaio in sé) e di un “software”, ovvero di un foglio di carta bucherellato che conteneva le istruzioni che la macchina doveva eseguire (cambiando il foglio la macchina cambiava lavoro). Quest’idea fu applicata alle macchine da calcolo nella seconda metà dell’800. C’è quindi un legame tra le idee e le invenzioni di un’epoca; i questo caso ci furono 2 trasformazioni politico-economiche: la necessità di calcolo nelle aziende per calcolare i tempi di produzione in maniera scientifica permettendo anche di automatizzare e razionalizzare le mansioni lavorative per poi arrivare al fordismo e alla catena di montaggio. La seconda esigenza fu di carattere politico: lo stato-nazione e l’esigenza di misurazione delle amministrazioni pubbliche (esercizi di leva, numero di soldati su cui fare affidamento, censimento, produzione industriale nazionale…) La soluzione a queste pressanti richieste di calcolo diede il via a quella che Beniger chiamò la “rivoluzione del controllo”: una serie di trasformazioni in ambito tecnologico che furono sviluppate nell’Ottocento per semplificare la complessità organizzativa del mondo moderno. Per fare il censimento gli Stati Uniti d’America utilizzarono una macchina progettata da Hollerith e Powers capace di leggere dati da schede perforate senza intervento umano; su questa base nacque una delle aziende più importanti nell’ambito dei computer: l’IBM. 2.3. Matematici, militari, burocrazie Negli anni ’30 cominciò un fiorente mercato di calcolatori e registratori grazie, soprattutto, alla partecipazione delle scienze matematiche che ebbero un ruolo determinante per l’evoluzione dei calcolatori digitali. Nel 1936 Alan Turing scrisse un articolo dove adattava la matematica per far funzionare una macchina in grado di svolgere operazioni grazie al linguaggio binario. Si trattava, però, di un dispositivo “astratto”, le regole per fare funzionare la macchina in grado di svolgere tali operazioni (le regole del software, quindi). La “macchina di Turing” rappresenta quindi il primo modello di calcolatore in grado di svolgere calcoli complessi con un linguaggio applicabile in molti campi. Questa invenzione viene considerata tutt’oggi la base di ogni tentativo per la creazione di computer digitale. Le idee di Turing vengono considerate il fondamento del processo di digitalizzazione. Negli anni ’30, però, all’interesse dei matematici per le macchine di calcolo si aggiunse quello della guerra e la pressione dei governi per trovare soluzioni tecniche da utilizzare nel conflitto. Come altre invenzioni, a metà del ‘900, anche il computer ebbe delle ascendenze negli investimenti specifici in vista della guerra. Il governo americano, si interessò soprattutto di utilizzare macchine automatiche in contesto militare, come dispositivi di contraerea per calcolare la traiettoria di missili ed aerei. In questo contesto divennero fondamentali figure di spicco per la creazione dei primi computer come Bush, responsabile del progetto Manhattan e il matematico Wiener, colui che introdusse il concetto di cibernetica. Nonostante le enormi risorse investite, il primo computer non fu costruito in tempo per essere utilizzato in guerra. Nell’inverno del ’45 fu “inaugurato” l’Eniac: un enorme macchina che occupava un’intera stanza. Questo dispositivo è il primo di una serie di computer chiamati mainframes e venne utilizzato a scopi militari (fattibilità bomba ad idrogeno). Anche se era il primo calcolatore digitale era molto diverso da quello dei giorni d’oggi: era lento, enorme e per farlo funzionare ci voleva una squadra di programmatori solitamente vestiti in camice bianco (il clero) che gli trasmettevano informazioni tramite schede bucherellate. La nascita del PC mise in risalto molte differenze che marcavano la società del tempo, come la differenza di genere. Fin da subito, il mondo dell’informatica fu frequentato quasi unicamente dal genere maschile, anche perché le attività militari e la matematica erano di interesse quasi del tutto maschile. Jennifer Light, storica della scienza, ricorda che per la costruzione dell’Eniac furono assunti team di donne con un’alta formazione matematica che contribuirono in modo fondamentale per la sua costruzione. Il loro lavoro, però, fu considerato un semplice impiego di routine e nel tempo fu poco per volta dimenticato. Nel decennio ’40-’50 gli USA investirono capitali per la costruzioni di altri mainframes e alla fine degli anni ’50 se ne contavano circa 250 nel mondo. Il primo ad uscire dai laboratori militari, nel 1950, fu l’Univac che venne utilizzato per il censimento americano con l’utilizzo di schede bucherellate. Nel 1952 divenne noto agli americani per aver previsto il risultato delle elezioni vinte da Eisenhower. Questo mainframe divenne così popolare che per alcuni anni con il termine Univac ci si riferiva ai computer in generale. Tuttavia, visto che gli usi fatti fino ad ora dei computer furono puramente politici e militari, l’immagine sociale del computer fu associata ad un’idea di controllo militare e politico e per questo divenne anche oggetto di polemica di vari intellettuali, tra i quali Lewis Mumford che descrisse il computer come “uno strumento finalizzato a soffocare la libertà e l’autonomia”. Il computer, quindi, non rappresentò solo uno strumento funzionale ma anche una potente metafora per le sue implicazioni di potere e di controllo. 2.4. Desktop, time-sharing e microprocessori: innovazioni “conservative” Dal punto di vista tecnico, il mainframe era molto diverso dai moderni PC. Queste grandi macchine dovevano essere utilizzate da team di programmatori ed erano la cosa più distante dai dispositivi che si possono utilizzare singolarmente. Tra gli anni ’50 e ’70 alcune innovazioni portarono, però, all’avvicinamento dei PC del giorno d’oggi: il desktop, il time- sharing ed i microprocessori. Queste innovazioni, come spesso succede nella storia della tecnologia, non furono immediate; ma furono il risultato di esperimenti, errori e prove fatte con processi lunghi e complessi. Anche l’uso del PC, con le innovazioni, non fu pensato con l’obiettivo di un uso da parte delle persone comuni. Il primo computer pensato per essere utilizzato da una sola persona tramite tastiera fu il modello 610 progettato dalla IBM, un’impresa il cui campo operativo era la fornitura di tecnologie ad uffici. Fu progettato dalla Columbia University (laboratori Watson) e introdotto sul mercato nel 1957 al costo di 55.000 dollari. Di questo modello ne furono prodotti 180 esemplari. Più piccolo sia dell’Eniac sia dell’Univac, rimaneva comunque molto grande (1m x 1,5m). Il primo calcolatore con le dimensioni più simili ai moderni PC fu il P101 della ditta italiana Olivetti. Era per di più una macchina calcolatrice, delle dimensioni di una macchina da scrivere, più che un computer (non aveva schermo); però riusciva a eseguire sequenze di calcolo memorizzate su un supporto magnetico. Il time-sharing, inizialmente pensato per i mainframes, influenzò pesantemente il concetto di un computer utilizzato da singole persone. I mainframes erano stati progettati per un uso collettivo; grazie al time-sharing il mainframe poteva essere utilizzato da differenti utenti da diverse postazioni (terminali) razionalizzando la potenza di calcolo. organizzare gli acid party, una contro-cultura basata su feste che avevano come obiettivo l’assunzione di LSD al ritmo di musiche psichedeliche. Possiamo quindi avere 2 visioni alternative del ruolo sociale del PC: • Una visione più vicina ai tradizionali media domestici e a mezzi di comunicazione di massa. • Una visione dell’ambiente contro-culturale, capace di declinare una visione del PC contrapposta e alternativa a quella dei governi e delle aziende. I primi che riuscirono a trasformare i grandi computer in dispositivi utilizzabili individualmente furono due figure marginali e isolate: Steve Jobs e Steve Wozniak, due che approcciarono l’informatica nelle vesti di hacker vendendo dispositivi chiamati Blue Box, capaci di frodare la rete telefonica e inventati da un altro hacker, John Thomas Draper conosciuto con il nome di Captain Crunch. Jobs e Wozniak erano frequentatori dell’Homebrew Computer Club e nel luglio del 1976 fecero una dimostrazione pubblica del prototipo del loro PC. A differenza di altri decisero di aprire una loro impresa, la Apple e si dedicarono alla costruzione del primo PC, l’Apple I: costruito in legno e prodotto in poco più di 200 esemplari al costo di 666,66 dollari. Grazie alla visibilità che produsse l’Apple I nel mondo degli appassionati, nel 1977 un investitore decise di finanziare, con 250.000 dollari, la produzione di un secondo PC, l’Apple II: fu commercializzato su larga scala e in brevissimo tempo divenne il centro di attenzione di media, investitori e consumatori. Le grandi aziende, abituate a vendere a peso d’ora dispositivi a governi e multinazionali, si convinsero che era inverosimile creare un mercato basato su dispositivi per famiglie. Sono noti, in questo caso, 2 episodi: • Steve Wozniak (prima di fondare la Apple) andò dai suoi superiori della Hawlett Packard proponendo di sfruttare quest’idea. Il management dell’azienda, però, rifiutò • Il presidente della Dec, azienda diventata nota per essere passata dai mainframes ai minicomputer grandi “solo” come un armadio, dichiarò che non c’era nessuna ragione per fare avere ad ogni famiglia ed individuo un computer. Questi due episodi ci spiegano quello che Clayton Christensen chiama “il dilemma dell’innovatore”, ovvero grandi aziende che si sono distinte nella produzione di un determinato bene/servizio si mostrano riluttanti nei confronti dell’evoluzione tecnologica favorendo l’ascesa di imprese concorrenti. La storia dei media è piena di rifiuti delle aziende verso l’innovazione tecnologica: l’AT&T fece una considerazione pessimistica sul futuro della telefonia mobile e le aziende telefoniche reticenti di investire sullo standard successivo del 2G. Se le grandi aziende rimasero scettiche, oltre alla Apple almeno altri 2 produttori cercarono di intraprendere la stessa via, infatti, dopo l’Apple 2 vennero commercializzati altri 2 PC: il Pet, prodotto dalla Commodore (azienda di calcolatrici tascabili) e il Trs-80 commercializzato dalla Tandy (catena di elettronica di consumo) come kit di montaggio per gli appassionati. Nessuno di questi 3 PC fu costruita da grandi aziende, ancora impegnate con il commercio di mainframes. Sebbene tali imprese avevano le risorse e le competenze per sfondare in questo campo, la loro prospettiva socio-culturale con la quale interpretavano il ruolo dell’informatica nella società (cornice interpretativa) era inadatta per comprendere la potenzialità del mercato dei computer destinati all’uso domestico. 2.7. Il pc diventa un oggetto di consumo Negli anni ’70 venne messo in moto il commercio cruciale per la diffusione dei PC e del mondo digitale: quello dei software e dei sistemi operativi. I nuovi computer, come l’Altair e l’Apple II rappresentavano un piccolo passo per coloro che non sapevano bene utilizzare i linguaggi di programmazione. Per fare in modo, però, che il computer diventasse un oggetto di largo consumo serviva una soluzione semplice ed intuitiva per fare dialogare gli utenti con le macchine. La soluzione venne trovata con la commercializzazione del primo Macintosh nel 1984, ovvero un computer controllabile attraverso una GUI che permetteva la gestione attraverso una modalità grafica grazie all’uso del mouse, del desktop dove erano raggruppati i file nelle cartelle. Neanche quest’idea, però, era del tutto innovativa, infatti fu recuperata dalla Xerox, che aveva già progettato una GUI controllata da un mouse. La storia dell’introduzione della GUI ci dimostra come i processi di innovazione siano tortuosi e non lineari e come la capacità di commercializzare abbia un ruolo fondamentale per il successo/insuccesso di una nuova tecnologia. La Apple riuscì dove altri avevano fallito: la Xerox, dopo lo Xerox Alto, fece uscire un altro modello basato su GUI per uffici, lo Xerox Star, che si rivelò, però, molto complicato e costoso. Anche la Apple ebbe degli insuccessi, nel 1983 commercializzò un computer basato su GUI chiamato Lisa, il quale ebbe scarsi risultati commerciali. Il segreto che portò al successo il Mac è soprattutto dovuto alla costosissima campagna di marketing e pubblicità che consistette in un solo spot mandato in onda durante la pausa del Super Bowl, il programma più seguito d’America. Lo spot venne girato da Ridley Scott, famoso per essere stato il regista di Blade Runner. La clip, intitolata come il libro di Orwell 1984, era caratterizzata da immagini cupe e appariva, come nel romanzo di Orwell, un Grande fratello tetro e gigantesco che simboleggiava il principale concorrente della Apple: l’IBM. Il GF (IBM), attraverso uno schermo, imponeva alle persone modelli e modalità d’uso in un mondo in bianco e nero. In questo clima di “dittatura” arriva Apple, raffigurato da una ragazza con abiti colorati che con un giavellotto distruggevo lo schermo del GF. Apple, quindi, si vedeva come l’unica azienda che poteva concorrere con il colosso IBM e poter portare una ventata di innovazione. La pubblicità ebbe un notevole successo ed ebbe un notevole ruolo per la precisazione della percezione culturale del computer nella società. La retorica di questa pubblicità si appropriò della convinzione che il computer dovesse essere un oggetto di liberazione individuale e di crescita sociale. In questo processo di trasformazione culturale il computer trovò altri riflessi nella cultura popolare di quegli anni soprattutto nel cinema. Fino a quel momento il computer era associato ad HAL 9000, protagonista di Odissea nello spazio. In altri film, invece, si iniziò a vedere il computer fuori dagli ambienti militari e aziendali e dentro gli ambienti di vita quotidiana come nel film War Games, in cui un ragazzino utilizzando il PC rischia di incendiare un conflitto nucleare tra USA e URSS o anche Electric Dreams che mette in scena un triangolo amoroso con al centro un computer. Possiamo quindi dire che acconto ad innovazioni tecnologiche per l’introduzione dei PC nella vita quotidiana giocarono un ruolo cruciale soprattutto le pubblicità e il mondo del cinema. Un’ulteriore spinta per la diffusione del PC, che venne agli inizi degli anni ’80, fu data dall’introduzioni delle console per giocare ai videogiochi già popolari negli anni ’70 anche se la loro storia risale a molto prima negli anni ’60 quando iniziarono a circolare i primi linguaggi destinati ai grandi computer e non è un caso che nel primo gioco, chiamato Spacewar (1962), c’erano due navicelle che si scontravano. Questo gioco rifletté uno dei contesti più in voga delle ricerche degli USA, ovvero quello delle ricerche spaziali e della guerra fredda. La console entrò molto prima nelle case, il primo modello si chiamò Magnavox Odissey. Il mercato delle console, negli anni ’70, divenne molto redditizio perfino ad incuriosire anche i fondatori della Apple i quali, dopo una veloce esperienza, si concentrarono sulla progettazione del PC. La diffusione dei PC mise in crisi questo settore lasciando spazio al mercato giapponese, soprattutto alla Nintendo. Come ricordato anche da Haddon, nei primi anni ’80 la diffusione dei videogiochi diede una grande spinta alla diffusione dei primi modelli di computer come il Commodore. Tuttavia, questo mondo aveva delle limitazioni a partire dalla cerchia ristretta di consumatori: la maggiorparte giovani e maschi. A metà degli anni ’80 un altro evento segnò il destino dei PC: l’invenzione del primo sistema operativo da parte della Microsoft: Windows. La Microsoft, a differenza della Apple, si era focalizzata non sulla progettazione di macchine, ma bensì di software. I due fondatori, Gates e Allen, avevano già avuto un approccio in questo settore fornendo all’Altair 8800 un linguaggio di programmazione. Questo nuovo mercato era totalmente estraneo alla società e all’economia del tempo e quindi era visto molto scetticamente. Bill Gates, però, era convinto di questa strada e iniziò anche una battaglia in favore della tutela del diritto di autore sul software. Così, nel 1980, Gates e Allen svilupparono un primo sistema operativo chiamato Xenix, adattando un altro sistema operativo: Unix, nato circa 10 anni prima. La svolta arrivò nel 1981 con l’introduzione del Ms-Dos (Microsoft Disk Operating Software), un sistema operativo che doveva essere installato nei computer IBM. In questo caso, la grande azienda di computer, fece un accordo con Microsoft che prevedeva all’azienda di Allen e Gates di poter distribuire il loro software anche ad altre aziende perché, alla IBM, erano convinti che non si potesse guadagnare fin troppo con la vendita di software. Questa clausola, però, permise ad altre aziende che producevano PC di fare grandi affari con la Microsoft e di poter usufruire del suo sistema operativo versando percentuali di profitto date dalle vendite. Questo accordo pose le basi del mercato PC- Sistemi operativi che c’è al giorno d’oggi: tante macchine di produttori diversi che utilizzano, per la maggiorparte, lo stesso sistema operativo. Nel 1985, un anno dopo il Mac, uscì la prima versione di Windows, anch’essa basata su GUI, mouse e desktop. Era un software molto semplice rispetto a quelli dei giorni d’oggi: si poteva utilizzare solo un programma alla volta e per essere avviato il sistema si dovevano utilizzare dei brevi comandi nel linguaggio Ms-Dos. Nel 1995 arrivò la svolta con l’uscita di Windows 95, che non richiedeva più l’utilizzo di Ms-Dos all’avvio e anche dal punto di vista grafico ci fu un netto miglioramento. Windows 95, inoltre, fu il primo ad avere al suo interno il primo browser: Interne Explorer, che diventò il principale accesso domestico alla rete. Per la grandissima diffusione di Windows 95 ci fu una grandissima campagna pubblicitaria, la prima per un sistema operativo per la quale, Microsoft, pagò circa 300 mln. A partire dagli anni ’80 la Microsoft rafforzò ancora di più la sua posizione nel mercato spingendosi oltre alla produzione di sistemi operativi progettando anche pacchetti che contenevano software da ufficio. Il primo di questi venne lanciato nel 1988 e si chiamava all’azienda più grande Cinese, la Lenovo. Vista dai punti di vista dei paesi emergenti (Cina, Brasile, India…) la storia del PC non è da scrivere, ma ci riserverà sorpresa in base ai modelli utilizzati da questi paesi. Nel corso della sua storia il computer, quindi, ha avuto molteplici scopi e oggi ha diversi ruoli: è in grado di svolgere calcoli e funzioni complesse, è un oggetto lavorativo, è un dispositivo di intrattenimento e sta diventando anche un dispositivo di comunicazione a tutti gli effetti. Capitolo 3 – Internet 3.1. Cosa intendiamo quando parliamo di Internet Dare una definizione di internet non è una cosa facile, neanche gli studiosi sono riusciti a trovare un accordo su questo. Sicuramente internet fa collassare e rivede vecchie distinzioni con cui si era soliti catalogare le comunicazioni. La più significativa è quella tra mass-media (giornali, cinema…) e telecomunicazione (telefoni, telegrafi…): le comunicazioni uno-a-molti e punto-a-punto vengono totalmente rimescolate da un lato internet forma degli ibridi (molti-a-molti, molti-a-uno) e dall’altro la rete può essere considerata sia un mass-medium che una forma di comunicazione. Con internet, qui, intendiamo la rete che ebbe origine dal progetto americano Arpanet e che oggi si è espanso a livello globale. Ci sono altri tipi di rete: reti per comunicare dentro le aziende (intranet), oppure per una comunicazione aziende-fornitori (extranet). È però lecito interrogarsi su cosa sia internet. Dal punto d vista tecnologico è una rete che mette insieme diverse tecnologie, principalmente telecomunicazioni e computer; è una rete di reti che collega globalmente tantissimi piccoli network. L’infrastruttura tecnica deriva da quella delle vecchie telecomunicazioni ma, in parte, fatta totalmente nuova con materiali in fibra ottica, cavi e tecnologie wireless. La cosa più interessante è che internet riesce a mettere in contatto reti diverse grazie a una serie di protocolli, ovvero linguaggi che permettono di collegare hardware e software differenti. Internet, quindi, è anche una rete di computer che permetter di interagire senza troppi problemi di compatibilità proprio grazie al web. Internet, nel tempo, però, è diventato qualcosa di più di un’infrastruttura: è diventata un oggetto ricco di implicazioni politiche, che i governi hanno letto come una risorsa per la democrazia, ma anche per l’interscambio di prodotti e anche una sorta di forma di controllo per i cittadini. Internet è anche diventato un medium economico e commerciale: un gigantesco centro commerciale aperto H24. Infine, Internet è diventata un mezzo di comunicazione personale; la sua natura sociale ha contribuito alla diffusione di nuove forme di relazione tra le persone, attivando reti e comunità composte da milioni di persone legate da interessi comuni. La storia di internet prevede la nota schematizzazione di James Curran, che ha diviso la sua evoluzione in 6 ere che devono essere viste come differenti dimensioni che continuano a convivere l’una con le altre. 3.2. Era I: Internet militare Nell’ottobre del 1957, in piena Guerra Fredda, l’URSS lanciò il primo satelliti a scopi militari: lo Sputnik 1. Quest’evento allarmò l’opinione pubblica americana e, di conseguenza, il presidente Eisenhower decise di creare un’agenzia del dipartimento della Difesa chiamata Arpa, la quale aveva il compito di finanziare ricerche in ambito tecnologico. La prima idea fu quella di lanciare una serie di satelliti, ma venne scartata a causa della creazione della NASA; quindi bisognò trovare altri campi di applicazione per giustificare l’esistenza di Arpa. Fu Licklider a indirizzare Arpa verso il mondo della comunicazione e lo fece con un’idea brillante: fare in modo che i computer fossero collegati con una rete e potessero scambiarsi informazioni tra loro. Fino agli anni ’60, però, i computer erano macchine ingombranti, costose e rimanevano inattive per molto tempo; per ovviare a questo problema venne introdotto il concetto di time-sharing: un computer poteva essere utilizzato da più persone grazie a terminali collegati che utilizzavano una parte di potenza di calcolo dei mainframes. Uno dei falsi miti di quest’idea fu la preoccupazione di avere una rete di comunicazione in caso di attacco nucleare. Questo mito deriva dalla sovrapposizione del progetto Arpanet con un'altra idea che emerse negli USA (da parte di Paul Baran) e nel UK, quella del packet switching (commutazione del pacchetto): per garantire la comunicazione anche in caso di attacco nucleare che avrebbe danneggiato la rete, si pensò di adottare una struttura senza un punto centrale della rete, collegando un nodo ad almeno altri 4 nodi (si pensò, per questo tipo di comunicazione, al modello dei neuroni del cervello umano). Grazie a questa struttura, se un nodo veniva distrutto aveva altre strade per arrivare a destinazione. Un’altra grande innovazione fu quella della struttura del messaggio, che non viaggiava in un unico pacchetto, ma in tanti pacchetti che viaggiavano per nodi diversi e si ricomponevano solo a destinazione. Non si sa precisamente quanto le idee di Baran influissero sull’Arpa, ma possiamo dire con certezza che il packet switching e l’idea di una rete decentralizzata furono due progetto autonomi fino al 1968, quando si unirono per beneficiare entrambi. Arpanet cambiò addirittura la propria natura, passando da rete per l’aumento della produttività, a struttura per facilitare il controllo militare, in grado di resistere anche in caso di attacchi nucleari sovietici. 3.3. Era II: Internet accademico-scientifica Fin dall’inizio l’uso della rete per scopi militari andò a braccetto con quello dell’uso a scopo accademico, ovvero per soddisfare le esigenze della comunità scientifica. Lo stesso progetto Apranet fu inizialmente pensato per accrescere la produttività scientifica. Eppure, l’adozione della rete non fu un processo lineare, infatti emersero presto alleanze e divergenze di vedute tra l’ambiente militare e scientifico. Le convergenze furono 3 in particolare: • Nessuna delle 2 fazioni vedeva di buon occhio la centralizzazione della rete, per gli accademici poteva, infatti, trasformarsi in una sorta di controllo del loro lavoro • 2 concetti chiave furono quelli della flessibilità (integrare reti e dispositivi differenti) e di spinta centrifuga: questi due diedero la spinta anche per la creazione di protocolli per l’intercomunicazione. Negli anni ’70, Cerf e Kahn misero a punto un protocollo di rete su cui si basano anche le infrastrutture del giorno d’oggi: il TCP/IP. La parte TCP si occupa di gestire i flussi di informazioni tra due nodi della stessa rete, mentre la parte IP si occupa di indirizzare al mittente l’informazione richiesta. Venne messo a punto nel 1978 e adottato nel 1983 da Arpanet. Grazie al TCP/IP fu possibile integrare in uno stesso ambiente reti e computer totalmente differenti, favorendo quindi una maggiore flessibilità del sistema. Inoltre, grazie a questo protocollo, si è potuta implementare l’idea del network centrifuga: la struttura non era controllata da nodi specifici, ma da computer tutti allo stesso livello. Questo modello fu messo in contrasto con l’idea delle compagnie telefoniche, che lo vedevano poco sicuro e controllabile. Negli anni ’70, addirittura, questo conflitto tra protocolli sfociò nella cosiddetta “guerra degli standard” che vedea da una parte il TCP/IP (centrifugo-telematico) e dall’altra l’X.25 (centripeto-telefonico). • Il terzo elemento di compatibilità tra accademici e militari fu la costruzione fisica della rete. Finanziata con fondi militare, il progetto del 1968 fu quello di costruire una rete che collegava 4 centri di ricerca a università americane. Il progetto venne realizzato entro il 1969, nel 1971 i nodi collegati erano ben 15 e nel 1975 Arpanet si collegò addirittura con paesi europei (Norvegia, Inghilterra…). Venne aperta anche una terza rete che utilizzava onde radio per raggiungere i nodi più difficili da raggiungere via cavo. Arpanet, fu quindi un sistema formato da ben 3 reti differenti, ma collegate dal protocollo TCP/IP. Anche per il finanziamento di Apranet ci furono eventi che segnarono passaggi fondamentali. Nella prima metà degli anni ’70 venne proposta alla compagnia AT&T, che però rifiutò l’offerta. La prima a credere in Apranet fu la DCA che nel 1975 concluse con la DARPA (evoluzione di ARPA) un accordo che le avrebbe garantito la gestione della rete per tre anni (accordo che poi sarebbe stato prolungato fino al 1983). Nel 1983, a causa di divergente tra militari e accademici sul tema della sicurezza, Arpanet fu diviso in 2: una rete per scopi civili e per la ricerca, una rete per scopi militari. Nei primi anni ’80 la NSF iniziò a progettare una rete parallela ad Arpanet dedicata alle scienze informatiche e aperta nel 1984: NSFNET. Un’altra divergenza tra accademici e militari fu sull’uso della rete. La e-mail, introdotta nel 1971, doveva essere utilizzata come mezzo per favorire la ricerca scientifica, ma si andò presto ben oltre, utilizzandola come strumento di comunicazione non puramente scientifico accademico. Vennero aperte delle mailing list, dei forum, dove milioni di utenti potevano parlare di qualsiasi argomento; in quegli anni quello più in voga era la fantascienza. Gli ambienti militare, invece, rifiutavano totalmente quest’uso di Apranet; perché non vedevano in questo utilizzo la ragione per cui era stata finanziata. Negli ambienti accademici, invece, questa caratteristica era tollerata soprattutto per la sua informalità e sostanziale libertà. L’influenza degli ambienti accademici sulla rete si concretizzo in un’idea di apertura e flessibilità. La conseguenza più importante fu quella di avere una rete aperta, distribuita, la cui intelligenza si trovava ai margini della rete. Una rete che scarificava la sua sicurezza in nome della compatibilità privilegiando codici condivisi e costantemente modificati (running code). 3.4. Era III: Internet contro-culturale A partire dagli anni ’70 si sviluppò un’altra comunità portatrice di un’idea di rete utilizzata in modo innovativo: si trattava di attivisti politici, studenti, hacker… Nello stesso ambiente nacque l’idea di home computing. Questa visione si distanziava in 2 modi dall’idea iniziale di Arpa: • L’obiettivo iniziale era collegare potenti risorse di calcolo, quello degli hacker era di collegare i PC domestici private, a questo punto, iniziarono a proporre una serie di interfacce, browser al fine di incrementare la popolarizzazione della rete grazie alla sua semplicità d’uso. E perché quest’ultime videro subito la rete come un’opportunità di guadagno. La commercializzazione di internet metteva a disposizione delle persone possibilità inedite, come poter confrontare prezzi di stessi prodotti forniti da più aziende. Il 1995 fu un anno cruciale per internet, vennero pubblicati 2 trattati (Being Digital di Negroponte e The Second Media Age di Poter) in cui Internet veniva visto come l’oggetto che avrebbe promosso una “rivoluzione democratica” che avrebbe messo fine all’era dei monopoli della comunicazione. Nel 1995 iniziò, inoltre, la commercializzazione di Internet: dal 1° gennaio furono ammesse le attività commerciali, fino a quel momento vietate in base all’Acceptable Usage Policy stipulata dall’NSF, la quale il 30 aprile venne venduta ad alcune aziende private segnando così la fine del controllo della rete da parte del governo americano. Nello stesso anno avvenne la quotazione in borsa di Netscape Corporation. Le aziende che avevano a che fare con internet in poco tempo iniziarono ad attrarre capitali ingenti e iniziò a gonfiarsi la famosa “bolla speculativa” che nel 2001 esplose provocando moltissimi danni. La crescita tra il 1996 e il 2000 fu impressionante: la NASDAQ, l’indice dei titoli tecnologici della borsa americana, incrementò in 5 anni il suo valore del 75%; CISCO System, da secondaria azienda negli anni ’90, divenne la terza società più importante negli USA. Questo entusiasmo era soprattutto dovuto al fatto che internet iniziò a diventare un enorme mercato virtuale di merci, in cui gli utenti potevano entrare e pagare quando volevano. La crescita commerciale si arrestò nel 2001, con una rapida crisi economica. Il NASDAQ, nel 2002, aveva un valore pari a un quarto rispetto al 2000. In due anni i titoli tecnologici legati ai media digitali avevano bruciato tre quarti del loro valore. Due sono le cause principali di questa crisi: • La mentalità di business delle aziende: molte imprese si lanciarono in questo nuovo business, sconosciuto e poco affrontato ritenendo che fosse necessario abbandonare i vecchi metodi tradizionali. Sopravvissero solo quelle che riuscirono ad integrare i tradizionali modelli di business e questi nuovi legati alla rete. • La scarsità della domanda: nei primi anni 2000 gli accessi ad internet erano limitati e, di conseguenza, era ancora limitata l’idea di poter fare acquisti in rete. Con la bolla speculativa del 2001 cessò l’idea che internet avesse una posizione tutta positiva, vennero a galla molti suoi lati oscuri: • La pornografia e il gioco d’azzardo erano tra i servizi più richiesti • Le pubblicità iniziarono ad occupare spazi decisamente intrusivi • Il mercato, invece di favorire la concorrenza, privilegiava le posizioni dominanti di alcuni colossi, come la Google Inc. e Amazon. • Il controllo degli interessi e degli acquisti divenne una sorta di controllo degli utenti. Un’eredità dell’internet commerciale riguarda anche la struttura della rete: secondo Musiani e Schafer gli ultimi decenni hanno visto il passaggio da un modello orizzontale ad uno verticale, una trasformazione della logica di accesso ai contenuti: da una logica punto- a-punto, ad una uno-a-molti (broadcastizzazione). Questo fenomeno risale alla pubblicazione del WWW, che favorì l’adozione del modello client/server, in cui milioni di utenti-client, mandavano richieste per accedere ai contenuti immagazzinati nei fornitori- server. Una conseguenza a questa trasformazione fu l’ascesa dei motori di ricerca già nati negli anni ’90. La varietà di motori di ricerca faceva anche in modo di non creare una posizione di supremazia da parte di uno di loro, neppure di Yahoo! Nel 1998 venne lanciato Google, che già 2 anni dopo era leader del mercato della ricerca in rete. 3.7. Era VI: internet sociale (o del 2.0) Dale Dougherty, vicepresidente dell’O’Reilly Media, coniò nel 2004 il termine “web 2.0”. Tim O’Reilly, nel 2005, ha riconosciuto tra le novità del web 2.0 la velocità di cicli di rilascio del software, la struttura di rete, ma soprattutto il mettere al centro della distribuzione di contenuti gli utenti. La mentalità del web 2.0 mette così al centro gli utenti da farli diventare producer e consumer di contenuti allo stesso tempo, coniando così il termine “prosumer”, un ibrido tra le due parole. I contenuti sono gratuiti e acquistano valore grazie alla condivisione con altri utenti. È per questo che internet acquista un valore “sociale”, perché è caratterizzato dalla condivisione di contenuti, anche personali, con la propria rete di contatti. Quella di connettere più persone anche a grandi distanze era l’idea di internet anche alle origini (ARPANET), il web 2.0, però, ha trasformato l’elemento comunitario nel centro attorno cui si svolgono quasi tutte le attività quotidiane degli utenti. Le piattaforme 2.0 sono tante e in continua evoluzione, ma alcune hanno attirato più l’attenzione di altre. La prima è il “blog” (web + log = blog). Le pagine personali e i commenti ai fatti del giorno spopolarono nei primi decenni del 2000. Il primo ad utilizzare il termine “web log” fu un commerciane americano di armi da caccia che aprì una pagina dove postava dei link che riconducevano ai migliori siti di questo argomento. Questo metodo delle liste di link fu utile prima dell’avvento dei motori di ricerca. Il successo del blog permise anche di scambiare commenti con altri utenti. Un altro esempio del web 2.0 è quello di “Wikipedia”, un’enciclopedia fondata sul contributo gratuito degli utenti. L’idea che la rete dovesse essere “custode” del sapere e della cultura era un’idea anche all’origine di internet, anche se il primo tentativo concreto fu quello di Microsoft con il progetto Encarta, che aveva un modello simile a quello delle enciclopedie tradizionali: gli autori erano esperti e studiosi e gli aggiornamenti venivano fatti in tempi stabiliti. Wikipedia fu in questo senso una vera e propria innovazione, trasformando anche il modello che era stato stabilito da Diderot nella sua Encyclopedie. L’idea venne a Jimmy Wales nel 1999 che decise di avviare un progetto di enciclopedia libera. Il primo tentativo, nel 2000, venne chiamato Nupedia, ma fallì a causa della sua procedura di pubblicazione troppo complicata. Nel 2001 venne avviato il progetto Wikipedia basato sul sistema WikiWikiWeb che aveva 2 caratteristiche precise: era orizzontale, ovvero non aveva un meccanismo centrale di controllo e permetteva la modifica istantanea dei contenuti da parte degli utenti. Wikipedia oggi è disponibile in 280 lingue, ha 30 mln di voci, 26 mln di pagine giornalmente visitate e 117 mln di visitatori mensili. Un terzo esempio è quello di YouTube, la principale piattaforma di condivisione e visualizzazione di video, aperta nel 2005 è oggi uno dei più popolari siti sul web. I video caricati trattano vari argomenti: video personali, familiari, messaggi politici, spezzoni di film, tutorial… Osservando alcuni dati di YouTube e Wikipedia emerge una caratteristica interessante che riguarda la partecipazione degli utenti: da un lato, il successo delle piattaforme non è in discussione, dall’altro, però, come ci fa notare anche la teoria di Nielsen sulla “participation inequality”, viene messo in evidenza come la maggiorparte degli utenti (90%) fruisce i contenuti passivamente, una piccola parte (9%) partecipa ad intermittenza, e solo una piccolissima parte (1%) è formata da partecipanti assidui. Possiamo quindi dire che i cosiddetti prosumer sono solo una nicchia del tutale dei fruitori. Anche la qualità della partecipazione è messa in discussione, infatti, la maggiorparte dei fruitori assidui si limiterebbe a postare un commento oppure a mettere un “like”, un contribuito veramente misero. Secondo alcune ricerche, i capisaldi che contraddistinguono l’internet sociale da quello precedente devono essere rivisitati. Senza dubbio, però, il maggiore successo dell’internet sociale è caratterizzato dai social network, piattaforme che permettono di costruire connessioni stabili tra gli utenti. La prima piattaforma a diffondersi nel 2002 fu Friendster, seguita l’anno successivo da MySpace, che riscosse un grande successo diventando nel 2006 il sito più visitato superando anche Google. Nella seconda metà degli anni 2000, venne inventata da Zuckerberg Facebook, il cui successo la portò nel 2012 a raggiungere la cifra di 1 miliardo di utenti attivi mensili. A livello planetario, però, le piattaforme americane stanno andando il conflitto con nuovi siti alternativi creati in Asia, Russia e Giappone. Le piattaforme dei giorni d’oggi, inoltre, stanno integrando e superando i modelli classici di business legati ai media: alcune richiamano i mass media analogici (YouTube, Google), altre sono costruite con lo scopo di accumulare followers (Instagram, Twitter, Facebook), altre sono incentrate sul no-profit e la partecipazione dal basso (Wikipedia). 3.8. Due internet “alternative”: Francia e Cina 3.8.1. Francia: internet low tech o del Minitel La Francia fu uno dei paesi più attivi nell’implementazione di un’idea simile a quella di ARPANET (collegare computer disomogenei tra loro), infatti, nel 1972 l’INRIA lanciò il progetto CYCLADES, che però fallì solo 7 anni dopo a causa dello scarso interesse del CNET. All’inizio degli anni ’80 la France Telecom diede il via ad un progetto molto meno ambizioso del primo: la rete Minitel, la quale, però, riscosse un grande successo. Era costituita da terminali video tutti uguali (terminali low tech, con una scarsa capacità di memoria) collegati tra loro grazie alla rete telefonica. In quest’idea, quindi, mancavano 2 tratti fondamentali: il concetto di rete di reti e il collegare computer disomogenei tra loro. Il Minitel, secondo Castells, avrebbe avuto successo per 2 ragioni: perché era stato fortemente voluto dal Ministro delle Poste francese dopo il rapporto di Nora e Minc del 1978, in cui si prevedeva l’avvento di una nuova società telematica per cui la Francia era obbligata ad attrezzarsi. France Telecom si impegnò così tanto in questo progetto, che regalò a tutti gli abbonati un terminale Minitel. Ebbe successo anche grazie alla sua semplicità d’uso. Minitel riscosse un grande successo nella società francese grazie ai servizi che venivano offerti “a chiosco” (si potevano consultare diverse tipologie di informazione come il meteo, trasporti, tele-shopping), era facile da utilizzare e il tariffario era molto chiaro. I servizi che però riscossero il maggiore successo furono l’elenco telefonico e la messaggistica. Grazie al primo gli utenti potevano trovare un qualsiasi contatto istantaneamente, la messaggistica si basò invece sulla struttura e l’idea delle chat online, e ben presto furono invase da contenuti erotici e pornografici. Minitel, però, fu chiuso solo nel 2012; molti osservatori si convinsero addirittura che la presenza dei videotext è la causa dei ritardi dello sviluppo di Internet in Francia. comunicazioni punto a punto come il telefono e il telegrafo, quindi erano già esperti di comunicazione sonora a distanza. Gli utenti della telefonia fissa erano già dei potenziali consumatori della telefonia mobile. Possiamo, quindi, dire che l’avvento del cellulare fu totalmente diverso da quello del telefono fisso alla fine dell’800, perché la società aveva già esperienza con strumenti simili e il telefono mobile venne, perciò, presentato come un oggetto già in parte metabolizzato. Telefono e telefonino hanno molte similitudini anche in ambito sociale: hanno avuto adozioni simili (uso serio per la propria professione -> uso sociale per mantenere un contatto attraverso le chiacchiere), hanno suscitato preoccupazioni affini (elettrosmog e folgorazioni) per passare infine al comune problema dell’invasione della privacy. Il telefono mobile, però, si è distinto in alcuni tratti fondamentali rispetto al fisso: • Si è liberato dei fili a cui il fisso è collegato • È un mezzo di comunicazione principalmente personale che familiare • Ha permesso la “constant touch o perpetual touch”, ovvero la possibilità di essere sempre reperibili e di comunicare senza soluzione di continuità • Il fisso era un mezzo di comunicazione che trasferiva la parola sottoforma di impulsi elettrici, il cellulare, invece, è sia di natura scritta che di natura orale (sms). Un altro antenato del cellulare è un mezzo di comunicazione tardo-ottocentesco brevettato da Guglielmo Marconi nel 1896: il telegrafo senza fili. Il wireless innovò alcune caratteristiche del tradizionale telegrafo elettrico, eliminando i fili e permettendo così a 2 persone di comunicare a distanza usando messaggi punto-a-punto in codice Morse. Contemporaneamente, venne sperimentato il telefono senza fili: a differenza del telegrafo, però, il telefono non utilizzava il codice Morse come linguaggio ma la voce. L’obiettivo comune della telefonia fu, sempre, quello di poter far comunicare gli utenti senza l’ausilio di cavi. Il radiotelefono venne sperimentato soprattutto durante le due Guerre mondiali e le sue sperimentazioni fecero nascere 2 dispositivi molto interessanti: • Il walkie-talkie, che veniva utilizzato dai militari e dalle forze dell’ordine per comunicare emergenze. • Il secondo dispositivo sfruttava una debolezza del radiotelefono, ovvero che tutti i possessori dello strumento potessero ascoltare le informazioni che passavano. Venne quindi utilizzato come forma di svago e di intrattenimento, dando vita alla radio di broadcasting. Negli anni ’10 e ’20 le funzioni del radiotelefono vennero utilizzate anche per campagne mediatiche. Una delle prime “killer applications” fu quella della comunicazione su grandissime distanze, che si realizzerà decenni dopo con gli accordi di roaming tra i paesi. Tra gli anni ’20 e ’30 questo dispositivo venne utilizzato negli USA dalle forze dell’ordine per essere sollecitati immediatamente in caso di emergenza senza però poter fare rapporto alla centrale via radio. Si trattava di strumenti di comunicazione che dovevano essere montati sui mezzi di trasporto. Prima della Seconda Guerra Mondiale queste radio divennero a due vie, consentendo un vero e proprio dialogo e vennero utilizzate dopo il conflitto anche sui taxi di NY. Emerse in questo periodo un grosso problema, ovvero la congestione e sovrapposizione delle onde elettromagnetiche nello spazio hertziano. Le onde andavano ad interferire con altri segnali wireless (radiofonici, televisivi…). Il radiotelefono era differente dal telefono mobile di oggi: • Era più un walkie-talkie, per parlare bisognava schiacciare un taso e per ascoltare bisognava rilasciarlo. • Pesava molti chili e doveva essere attaccato alle batterie dell’automobile per essere utilizzato. • La chiamata non era automatica (mittente-destinatario) ma era gestita da un centralino che la reindirizzava. • Le comunicazioni erano facilmente intercettabili Tuttavia, possiamo assolutamente dire che il radiotelefono fa parte della storia del cellulare; ha contribuito a far penetrare nella società questa idea di comunicazione. Possiamo quindi dire che il storicamente il telefono è nato alla fine dell’800, ma la sua penetrazione nella società avvenne circa un secolo dopo. Molte tecnologie, a causa dell’inesperienza nel settore, contrasti politici, mancanza di un business consolidato, non trovano il loro spazio nel momento della nascita riemergendo, però, in epoche successive. Gaudreault e Marion (storici del cinema) introdussero il concetto di “double birth”, indicando che una tecnologia può nascere più di una volta e potrebbe rinascere anche con scopi differenti rispetto alle sue origini. 4.2. Rinascita e maturazione La seconda vita del cellulare iniziò negli anni ’70, quando vennero aperte le prime reti al pubblico. Venne applicata un’idea di Douglas H. Ring: dividere il territorio in celle all’interno delle quali i telefoni comunicavano con una stazione base, permettendo in questo modo di utilizzare al meglio lo spazio hertziano. Occorsero parecchi anni per sviluppare questa semplice idea; le cause di questo ritardo erano principalmente 2: • La AT&T esitava a sviluppare le proprie strategie nel campo della telefonia mobile • La FCC negò a lungo le autorizzazioni per iniziare questa sperimentazione I tentennamenti furono tirati così a lungo che gli USA bruciarono tutto il loro vantaggio tecnologico e il primo sistema di telefonia mobile venne aperto in Giappone (solo a Tokyo). Gli anni ’80 furono quelli in cui la telefonia mobile si sviluppò nei paesi più ricchi con un’unica eccezione: gli USA. Le causa dei ritardi furono molteplici: • La AT&T non passò un periodo semplicissimo e venne accusata di aver instaurato un trust. Di conseguenza non le vennero assegnate le frequenze per la telefonia mobile. • Sempre l’AT&T sottovalutò le potenzialità di questo nuovo tipo di comunicazione come fece con internet e quando aveva la possibilità di concorrere per farsi assegnare delle frequenze, rinunciò. • Gli utenti dovevano pagare sia le chiamate in partenza che in arrivo • La concorrenza tra il telefono mobile ed altri mezzi di comunicazione come i “pagers o beeper”, degli strumenti che non davano la possibilità di rispondere ma di vedere solo chi ci cercava, nonostante questa limitazione divennero molto popolari negli USA, usati soprattutto da medici e uomini d’affari. I cercapersone ebbero molto successo perché comparirono anche in alcuni film e soddisfavano la domanda di alcune categorie sociali e professionali che sarebbe stata soddisfatta dalla telefonia mobile. • Il design dei modelli non era appetibile. La Motorola, infatti, produceva modelli meno attraenti e miniaturizzati rispetto alle concorrenti europee e asiatiche. Una tecnologia, quindi, ha successo in base ad alcuni fattori interconnessi tra loro: fattori politici, economici, tecnici, culturali, sociali. In Europa il telefono venne lanciato negli anni ’80: • La Gran Bretagna nel 1982 assegnò 2 concessioni, alla British Telecom e alla Recal (futura Vodafone) che costruirono la rete Cellnet. • In Francia nel 1982 venne lanciato il progetto Radiocom 2000 che però ebbe uno scarso successo a causa del grande controllo militare, la scarsa coperture e i costi elevati. • Nel 1986 in Germania la Siemens lanciò un nuovo standard che garantiva una copertura quasi totale grazie ad una carta personale che poteva essere utilizzata in differenti modelli di telefono • Nel 1985 in Italia, in cui la penetrazione della telefonia mobile avvenne da subito, venne lanciata la rete RTMS che venne saturata dagli utenti in soli 5 anni. L’elemento interessante della storia della telefonia mobile in Europa è l’osservazione dell’incompatibilità delle reti tra loro. In Europa vennero sviluppate 9 reti differenti utilizzando altrettanti standard incompatibili. Quindi, se un viaggiatore voleva comunicare con il suo telefono, doveva possedere un telefono per paese. Un’eccezione fu quella dei paesi scandinavi, dove la telefonia mobile ebbe un grande successo grazie alla grandi industrie come la Nokia e la Ericsson e grazie anche ad un’efficacie logica tecno-politica: NMT. Negli anni ’80 Danimarca, Norvegia, Svezia e Finlandia decisero di affidare lo sviluppo delle reti ad una squadra di esperti. Questo gruppo tracciò le basi dell’attuale roaming, un’idea in totale contrasto con quelle “isolazionistiche” degli altri paesi. In questo modo si poteva utilizzare il proprio cellulare indifferentemente dallo statu in cui si era a patto che la rete fosse basata sullo standard NMT. 4.3. Il miracolo digital-burocratico europeo e la crescita La diffusione in Europa della telefonia mobile venne definita da Agar il “miracolo burocratico” europeo. Dal dicembre del 1992, infatti, moltissimi paesi decisero di adottare il GMS come unico standard. Ci furono almeno 3 ragioni che spinsero ad adottare il GMS come standard comune: • Una ragione politico-economica: l’ida di avere uno standard comune a più paesi avrebbe rafforzato maggiormente l’unione economica tra i paesi. • Una ragione economica: alcune aziende di telefonia fecero pressioni perché capirono che grazie ad uno standard comune sarebbero diventate leader nel loro mercato. • Una ragione legata ai vantaggi “tecno-sociali”: gli utenti potevano collegarsi con il loro telefono anche passando da un paese all’altro (roaming), il GMS introdusse anche la SIM card, una scheda che conteneva i dati e le tariffe dell’abbonato indipendentemente dallo strumento in cui era inserita, infine, il GMS permise la digitalizzazione dei sistemi di telefonia mobile. Il GMS venne da subito associato ad un nuovo standard sorto negli anni ’80: il 2G, che a differenza delle reti analogiche 1G era integralmente digitale, sviluppato per la prima volta negli anni ’90 dalla Nokia. La telefonia mobile passò, quindi, dai sistemi analogici a quelli La rivoluzione del 3G di oggi, inizialmente, però, non venne neppure presa in considerazione. Quest’idea, nacque all’UIT nel 1992, quindi agli albori del 2G, immaginando che potesse avere 2 funzioni principali che tutt’oggi non ci sono ancora: • Creare uno standard “mondiale”, una sorta di roaming globale • Permettere ad un singolo utente di avere linea fissa e mobile collegate da un unico numero. Molti paesi iniziarono ad attrezzarsi per accogliere il 3G solo tra il 1999 e il 2001. I primi servizi vennero avviato in Giappone, Corea che, insieme all’Italia, furono i paesi in cui il 3G penetrò con più velocità. Chi e cosa ha favorito la diffusione così veloce di questo nuovo standard? La Hutchinson Whampoa (H3G) attuò una politica aggressiva per l’acquisizione di licenze, soprattutto in Europa. Questa decisione fu presa anche perché la società di Hong Kong non possedeva reti 2G, permettendosi così di poter investire fortemente sulla nuova tecnologia. Anche in questo caso siamo di fronte ad una caso del “dilemma dell’innovatore”: le aziende che hanno investito in maniera cospicua su una nuova tecnologia, sono restie ad investire altri soldi per timore di entrare in concorrenza con altre aziende. Anche H3G non vide nell’internet mobile la killer application, infatti, investì molto nel 3G ma nell’ambito delle videochiamate (scarso successo) e della TV mobile. Fu con l’introduzione degli smartphone che l’internet mobile divenne fulcro della nuova telefonia mobile. Intanto, si era creata l’infrastruttura di base per sopportare lo scambio di grandi quantità di dati, e internet era diventato luogo di massa per miliardi di persone. In questi anni si inserirono gli smartphone, oggetti molto diversi dai classici telefonini; erano infatti un ibrido tra computer e cellulare: uno dei primi ad essere commercializzato fu quello dell’azienda canadese Blackberry, che possedeva una tastiera Qwerty. Questa nuova generazione di cellulari possedeva in un unico dispositivo alcune funzioni che erano possedute da più strumenti: macchina fotografica, rubrica per numeri, galleria di foto, radio, registratore… La capacità di effettuare determinate funzione degli smartphone si deve anche a sistemi operativi sviluppati apposta per questi dispositivi. Fino a metà degli anni 2000 le aziende di telefonini si concentrarono nell’hardware del dispositivo; dal 2007 in particolare 2 grandi aziende si iniziarono a concentrare anche sullo sviluppo di sistemi operativi apposta per i loro modelli: la Apple nel 2007 introdusse il suo software iOS, sviluppato per gli iPhone, lo stesso anno la Google Inc. commercializzò il sistema operativo Android basato su Linux per gli altri produttori di cellulari. Nel giro di poco tempo, i due colossi erano i padroni dell’intero mercato degli smartphone, provocando la caduta dei vecchi produttori Ericsson e Nokia. Con il loro successo emerse un nuovo business legato alla telefonia mobile, infatti, Apple e Google Inc. mettevano a disposizione dei loro utenti alcuni servizi (app) scaricabili dai loro negozi online. La grande crescita delle applicazioni software non fece altro che integrare ancora di più internet con gli smartphone. L’iPhone, ha avuto un grande impatto in questo campo, non solo in termini di innovazione, ma anche culturalmente. Grazie al suo sistema operativo flessibile si aveva la possibilità di scaricare applicazioni fornite da altre aziende e si poteva quindi personalizzare il proprio cellulare come si voleva. Nel 2013 le applicazioni scaricabili erano arrivate a 1 milione. iPhone è stata capace anche di dare significati simbolici ai suoi modelli, trasformando un oggetto, in un prodotto di consumo che attraeva molte persone. Grazie alla sua fascinazione nel mondo dei consumi, l’iPhone riuscì ad attrarre anche persone che solitamente non andavano dietro alle ultime tecnologie e riusciva a rendere accettabile, grazie alle sue caratteristiche (anche estetiche) l’elevato prezzo d’acquisto. Un nuovo standard è già tra noi in questi anni, il 4G, anche se dei servizi offerti dalle nuove generazioni sono difficili da prevedere. È chiaro, comunque, che il modo in cui politici e tecnici immaginano l’uso della tecnologia dovrà fare i conti con le istanze che emergeranno nei contesti d’uso grazie alle reinterpretazioni degli utenti. Possiamo dire, quindi, che ciò che si pensa che sia il futuro molto spesso si distanzia da quella che sarà la realtà. 4.6. La febbre mobile: ragioni globali Il telefono mobile possiamo dire che è lo strumento di più successo tra i mezzi di comunicazione digitale. Nel 2013, su 7 miliardi di persone, 6.8 miliardi possedevano un telefonino. La sua diffusione fu molto rapida, e andò anche a toccare continenti in cui la penetrazione dei mezzi di comunicazione era stata fino a quel momento scarsa (Africa, America Latina…). Possiamo anche notare come internet e il cellulare abbiano avuto una crescita parallela fino agli anni ’90 per poi, nel 2000, realizzare una frattura netta nei tassi di diffusione. La differenza principale tra la telefonia mobile e la rete internet sta nella semplicità d’uso: per utilizzare il web bisogna avere delle conoscenze già acquisite, come saper utilizzare il computer, saper navigare in rete… Nel caso del cellulare, invece, siamo davanti ad un oggetto molto più semplice da utilizzare, essendo un medium perlopiù orale e quindi poteva essere utilizzato anche da analfabeti. Questa riflessione ci porta al concetto di “digital divide”, per evidenziare le disparità di accesso e diffusione che i mezzi digitali creano. In questo caso, però, la digital divide fu analizzata solo nel contesto della rete, mentre la telefonia mobile fu scarsamente presa in considerazione perché avrebbe potuto sconfessare gli allarmismi in proposito. La fortuna del mobile è dovuta anche alla capacità di risolvere alcuni limiti delle precedenti comunicazioni a distanza. In Occidente ha permesso di coprire alcuni territori in cui la linea telegrafica, per motivi economici e climatici, non arrivava. L’impatto più evidente, però, lo vediamo nei paesi in via di sviluppo, in cui in questi anni la domanda insoddisfatta di una comunicazione a distanza era molto aumentata. In questi casi il mobile ha costituito un’innovazione così apprezzata che frenò lo sviluppo delle infrastrutture della telefonia fissa (come in Jamaica). Anche nei paesi arretrati sono queste le ragioni del successo; per alcuni studiosi, il successo è determinato anche dall’uso prettamente orale di questi strumenti che va a braccetto con la natura orale di queste società (come in Burkina Faso). Alcune nazioni che i passato avevano un ruolo secondario nel mercato dei media digitali, con l’avvento del cellulare, hanno iniziato a ricoprire un ruolo sempre più dominante, fino a diventare i leader di questo business, perché il telefono mobile è stato sempre considerato come uno strumento personale. Addirittura in alcuni paesi alcune persone possedevano più di un cellulare (2012, cellulari su 100 persone, Italia = 151,9, Russia = 182,9). Due esempi di “febbre del mobile”: • In India dal 2000 il tasso di penetrazione arrivò a coprire oltre il 70% della popolazione. Questo anche grazie a scelte strategiche delle aziende telefoniche, come la Vodafone che in India ha un numero elevatissimo di abbonati, e di conseguenza le aziende di telefonini hanno potuto offrire agli abbonati indiani telefonini ultra low cost. I risvolti culturali sono molto interessanti: secondo Doron e Jeffrey il mobile ha modificato radicalmente la società indiana. Il mobile ha fornito un punto di incontro tra i sessi e tra le varie classi, fornendo anche contenuti proibiti fino a quel momento (pornografia). Reti e mobile continuano a convivere in modo squilibrato con la povertà: in India il telefono mobile è più diffuso che i bagni nelle singole abitazioni. Possiamo quindi dire che i media digitali non sono solo esempi dell’avanzamento delle società, ma rappresentano anche gli squilibri e le ambiguità tipiche della globalizzazione. • In Africa, la diffusione del cellulare fu lenta ma costante: quelli che frenarono molti africani furono i costi d’uso del telefonino, ma questo problema fu risolto da molti con la tecnica della condivisione del dispositivo. Molte persone condividevano lo stesso apparecchio con altra gente, in alcuni casi un intero villaggio, sfruttando la pratica degli “squilli” con un linguaggio conosciuto dagli utenti. I telefoni utilizzati erano di vecchia generazione. L’uso più interessante del telefonino in Africa però è quello dell’M-Pesa, ovvero utilizzare il telefonino come portafoglio elettronico su cui caricare piccole somme di denaro da spendere per acquistare beni di prima necessità. Vennero fatti alcuni tentativi anche in Occidente, ma il sistema si affermò in Africa, perché le banche erano poche, il passaggio di denaro poteva essere fatto con un semplice sms e i pagamenti prescindevano dalla presenza di banconote. Dopo alcuni anni di sperimentazione venne, nel 2007, lanciato un progetto che riscosse successo soprattutto in Kenya. Questo nuova tecnologia, però, aveva un problema che toccava le relazioni sociali: questo metodo di trattamento del denaro veniva utilizzato soprattutto dagli uomini che lavoravano nelle città che spedivano i soldi, digitalmente, alle donne che vivevano nei villaggi fuori città. Molte di esse, infatti, constatarono che a causa di questi metodi veloci e più comodi, le visite dei mariti continuavano sempre più a diminuire. Anche se la diffusione del cellulare è abbastanza uniforme in tutto il pianeta, questo non significa che siano sparite le disuguaglianze. Molti territori disabitati non sono tutt’oggi coperti da rete telefonica (Amazzonia, Sahara…), gli oceani, i cieli. Vanno aggiunti luoghi dove è proibito utilizzare il cellulare come ospedali, aerei, biblioteche…. Quindi possiamo dire che il telefonino, come tutti gli altri media digitali, non è una forza inarrestabile: ci sono potenziali utenti che non sono interessati a questa tecnologia, persone la cui religione vieta l’uso di questi dispositivi, persone che non vogliono mettere a rischio la loro privacy… Anche il mobile, quindi, può essere rifiutato da potenziali utenti. Molti studiosi hanno interpretato la diffusione quasi globale del cellulare come esempio della globalizzazione della società contemporanea. Il mobile ha favorito fenomeni sociali molto simili tra culture profondamente diverse tra loro. Al contrario, alcuni autori ritengono che il mobile abbia evidenziato ancora di più le differenze tra le diverse società e culture. Entrambe le posizioni hanno elementi di validità. 4.7. Alcuni temi della ricerca globale sulla telefonia mobile A causa della sua larghissima diffusione e delle forme di dipendenza che provoca, il telefono è stato soggetto di ricerche per studiare le conseguenze che quest’oggetto ha sulla società. Green e Haddon hanno individuato alcune tendenze di lungo riguardo: • La capacità del mobile di sovvertire e rimescolare spazio pubblico e privato. Un altro elemento determinante per la diffusione della musica in MP3 fu l’introduzione dell’iPod, commercializzato dalla Apple nel 2001. Sul mercato c’erano già modelli di lettori di musica portatili, ma avevano una memoria molto ridotta. L’iPod fu il primo lettore di musica a poter contenere circa un migliaio di canzoni a cui si poteva accedere grazie ad un’interfaccia molto intuitiva. Per queste ragioni, nel giro di pochi anni, l’iPod divenne il lettore musicale più diffuso nel mondo, sia tra gli adolescenti, sia tra i personaggi pubblici, come capi di Stato e sportivi. Gli acquirenti dei primi iPod si trovavano in una situazione inedita, infatti, stavano acquistando un lettore musicale portatile senza avere un canale di vendita legale. Fu per questo che Apple, nel 2003, sviluppo l’iTunes Store. La modalità di vendita delle canzoni (99 centesimi l’una) riscosse un grandissimo successo facendo diventare iTunes nel primo negozio di musica degli USA e Apple il principale distributore nel mondo. Il doppio successo targato Apple con l’iPod e iTunes rende ancora più evidente la trasformazione industriale della musica e delle pratiche di consumo degli ascoltatori. In poco più di 5 anni, le grandi aziende discografiche persero il controllo di 2 settori fondamentali: la produzione di hardware e la distribuzione di contenuti. La prima fino a quel momento era gestita per la maggiorparte dalla Sony. Mentre le case discografiche controllavano la vendita dei contenuti. Con la digitalizzazione Apple diventò il nuovo punto di riferimento anche del mercato musicale. Un altro elemento che contribuì a espandere ancora di più la musica compressa era la possibilità di poter scambiare la musica in rete. La musica in MP3 è circolata almeno in 4 modalità: • Dal punto di vista commerciale: l’utente poteva accedere al negozio virtuale, come iTunes, e scaricare la musica pagandola. • Software di file sharing e sistemi peer-to-peer: sono l’evoluzione di Napster e come lui, infrangono le leggi sul diritto di autore provocando pirateria. Questo tipo di scambio raggiunse il suo apice nel 2006, quando negli usa il 20% della musica veniva scambiata in questo modo. L’uso di queste piattaforme iniziò a calare, anche se in alcuni paesi, come la Cina, sono ancora usatissime. L’uso dei file sharing, andò calando anche grazie all’introduzione di piattaforme che distribuivano musica. • Piattaforme online (YouTube): le piattaforme come YouTube mettono a disposizione degli utenti anche video musicali caricato dagli stessi utente o anche dagli artisti. Nel 2010 circa il 30% delle visualizzazioni su YT erano di video musicali. Sony e Universal, cercarono di approfittarne provando a riacquistare un po’ di controllo del mondo musicale e, in collaborazione con YT, crearono la piattaforma VEVO, dedicata solo ai video musicali. • Accesso allo streaming musicale tramite abbonamenti: è il caso di Pandora e Spotify, che costituiscono un ibrido tra broadcasting radiofonico, file sharing, streaming e logica di condivisione tipica dei social. Questo modello rappresenta quello che oggi viene chiamato cloud computing, ovvero una dispensa di contenuti a cui possono accedere solo determinati utenti. Il successo della musica digitale non ha “fatto morire” gli strumenti tradizionali, anzi, in questi anni siamo stati coinvolti nella totale rinascita del vinile a 33 giri. Il vinile è stato visto dagli artisti e appassionati come un oggetto capace di incorporare significati culturali e pratiche di ascolto in contrasto con quelli della musica digitale, seppur rimanendo un fenomeno di nicchia. La rinascita del vinile è la dimostrazione che digitale e analogico possono convivere e che il nuovo, anche se involontariamente, può favorire anche la rinascita del vecchio. 5.2. Stampa: libri e giornalismo Il mondo della stampa è uno dei settori più antichi. La digitalizzazione ha profondamente cambiato anche questo panorama, grazie, anche in questo caso, all’introduzione delle nuove tecnologie che hanno causato molte turbolenze nel mercato della stampa. Anche le modalità di lettura stanno lentamente cambiando, passando dalla lettura “cartacea” a quella digitale. L’ultimo mezzo secolo è quindi stato per la lettura e per la scrittura un tempo di grandi innovazioni, cominciate con l’introduzione delle nuove tecnologie: computer, software, dispositivi mobili. Possiamo individuare quattro fasi di questa evoluzione: • Prima fase (anni ’60-’70): iniziano a diffondersi computer in grado di gestire il lavoro di scrittura e di immagazzinamento di dati. • Seconda fase (anni ’70-’90): i testi scritti diventano molto popolari, con una traiettoria praticamente parallela alla diffusione dei PC. • Terza fase (anni ’90-2000): la scrittura e la lettura iniziano ad integrarsi con la rete, generando nuove forme di testi in circolazione. • Quarta fase (anni 2000 in poi): questa fase è ancora in evoluzione. È caratterizzata da una convergenza tra forme di stampa tradizionali e dispositivi digitali, si contraddistingue per il tentativo della stampa digitale di superare quella cartacea. Prima fase I computer ebbero un ruolo fondamentale in questa evoluzione infatti, la scrittura, fu tra i principali settori di applicazione dell’informatica. L’IBM, produttrice di mainframes, produsse dei sistemi di scrittura dedicati agli uffici. Fine anni ’60, iniziarono a diffondersi i primi computer destinati esclusivamente alla scrittura e negli anni ’70 vennero sviluppati i primi sistemi di archiviazione dei testi. Questi sistemi erano esclusivamente destinati ai grandi uffici. Seconda fase Con la diffusione del PC, però, questi sistemi di scrittura ed archiviazioni iniziarono ad uscire dagli uffici. Con i primi PC iniziarono a diffondersi i primi software di scrittura, che offrirono agli utenti una funzione identificabile, la scrittura. Il primo programma venne lanciato nel 1976, Electric Pencil. Anche Microsoft si impegnò in questo settore con il lancio di Word, ma solo nel 1983, diventando il software di scrittura standard solo nel 1989 con un aggiornamento Windows. In questa seconda fase, quindi, tutte le attività legate ai testi potevano essere gestite dagli utenti tramite PC, che potevano essere collegati a stampanti economiche. Terza fase La grande trasformazione, in questa fase, si concentrò sulla possibilità di far circolare i testi scritti in rete. Il primo tentativo fu nel 1971, quando Michael Hart, avviando il progetto Gutenberg, provò utilizzando uno dei primi nodi di ARPANET, a pubblicare in rete una serie di testi senza copyright, come la Dichiarazione di Indipendenza degli USA. Fu però dagli anni ’90 che la lettura e scrittura iniziarono a mutare in maniera consistente per 2 ragioni: • La possibilità di pubblicare in modo gratuito ed istantaneo • Per una nuova forma di scrittura che rese possibile scrivere e leggere in modo personalizzato e non lineare grazie all’uso di collegamenti all’interno del testo: l’ipertesto, il quale ha 3 fondamentali caratteristiche: o Non ha una sequenza lineare stabilita dal produttore, ma è il lettore o lo scrittore che decide come combinare gli elementi. o Non ha un inizio e una fine prestabiliti o Non è costantemente uguale Quarta fase La possibilità di creare ipertesti, fece sviluppare in rete spazi per gli utenti poco esperti che potevano facilmente pubblicare i propri testi, l’esempio più ovvio è quello dei blog: siti web in cui gli utenti potevano pubblicare gratuitamente e facilmente i propri diari o anche dei propri testi che volevano condividere con la rete. Nonostante queste innovazioni, nella terza fase, la scrittura e lettura digitale non riuscì a superare quella cartacea. Quest’obiettivo venne prefissato nella quarta fase, in cui si capì che quest’evoluzione, si poteva compiere solo con la diffusione di mezzi che svolgevano quasi unicamente lo stesso lavoro dei giornali e libri. Negli anni ’70 Kay progettò Dynabook, una sorta di libro elettronico educativo per disegnare. Negli anni ’90, Sony sviluppò il primo strumento mirato esclusivamente a sostituire il libro cartaceo: il Cybook, ma ebbe scarso successo. La reale concorrenza per la carta si ebbe negli anni 2000, con l’introduzione degli e-book: uno dei più venduti è il Kindle, messo in commercia da Amazon. Il successo del Kindle è si deve al fatto che attraverso ad esso sono integrati tutti gli elementi connaturati alla filiera del consumo di libri: Amazon è il primo produttori di libri cartacei, produce il dispositivo di lettura più venduto e distribuisce libri in codificati in un particolare standard leggibile solo su Kindle. È stata questa integrazione tra piattaforma online, dispositivo fisico e sistemi di codifica a fare la fortuna di Amazon e del Kindle. Un altro dispositivo è l’iPad della Apple, che non ha goduto solo dell’integrazione della sua piattaforma distributiva (iTunes), ma è stato anche favorito dall’influenza dell’onda della moda che si era generata intorno all’iPhone. La digitalizzazione della scrittura ha generato un grande cambiamento in questo mondo: negli USA nel 2012 la percentuale di libri scaricati sui libri totali acquistati era del 20% e del 27 l’anno successivo. Il formato cartaceo, però, è difficile che sparisca; in primo luogo perché è una delle tecnologie migliori della storia della comunicazione, è resistente alle cadute e agli agenti atmosferici ed è molto economico. Ci troviamo addirittura in un periodo in cui le versioni cartacee sono diffusissime proprio grazie ai colossi delle vendite online come Amazon. Si tratta di un fenomeno già visto come il vinile e la musica MP3: grazie ai media digitali quelli analogici stanno trovando sempre più spazio nella società di oggi. David Edgerton lo definisce come lo “shock del vecchio”, ovvero che i nuovi media possono esaltare quelli vecchi. Uno dei settori più colpiti da queste grandi innovazioni è, però, quello del giornalismo. Moltissimi giornali, anzi, quasi tutti, al giorno d’oggi hanno la loro versione digitale. Già nella seconda metà degli anni ’90, infatti, il NYT aveva inaugurato la sua versioni in rete. Con queste trasformazione sono mutate moltissime cose, che hanno sconvolto anche alcune particolari distinzioni, come quella tra giornalista e lettore, il quale è sempre più nel vivo nel campo della produzione e circolazione di notizie. YT in pochi anni è riuscito a diventare il punto di riferimento per la circolazione e il caricamento di video digitali. Un’ulteriore accelerata del processo di digitalizzazione delle immagini digitali in movimento è il rafforzamento della tecnologia analogica del registratore VHS. Questo processo è stato rafforzato grazie a delle nuove forme di servizio presenti su internet che hanno reso obsolete i vecchi metodi. Questo processo è esemplificato dall’avvicendarsi di due modelli di riferimento di noleggio film. Nel 2010 la nota azienda Blockbuster, famosa per il noleggio di cassette, dovette avviare la procedura di fallimento a causa della contrazione del mercato del noleggio film. Negli stessi anni, la sua diretta concorrente Netflix, decise di dare sempre la possibilità di affittare film, ma in maniera digitale grazie allo streaming. In questi ultimi anni questi 2 modelli convivono ancora e lo streaming si sta avvicinando alla circolazione dei formati fisici come i DVD. La circolazione dei film in rete, intrecciandosi con l’industria cinematografica, diede vita ad uno dei fenomeni più diffusi: la pirateria, conseguenza anche di alcune innovazioni tecnologiche: • File sharing: basato su modello peer-to-peer. Nei primi anni 2000 i software di file sharing si moltiplicarono velocissimamente permettendo di scaricare gratuitamente film dalle piattaforme di streaming. • Diffusione dei codec (software di codifica) DivX e Xvid: davano la possibilità di estrarre il pesante contenuto del DVD e comprimerlo e masterizzarlo in una altro CD. Nella seconda metà degli anni 2000 si svilupparono anche siti web che davano la possibilità agli utenti di guardare gratuitamente i film senza scaricarli. Questi siti vengono definiti cyberlockers. I film erano solitamente contenuti in server collocati in paesi dove era più facile scavalcare le leggi che tutelavano il diritto di autore. Uno dei primi fu Megavideo, creato nel 2005 e chiuso per violazione del copyright nel 2012 grazie ad una maxi operazione guidata dall’FBI. Nel suo migliore periodo questa piattaforma contava più di 5 mln di visitatori giornalieri e costituiva da solo l’1% delle ricerche del Nord America. Gli effetti economici della pirateria sono stati al centro di acceso dibattito dal quale sono emerso considerazioni ambivalenti. Alcuni ricercatori hanno messo in luce non solo i fatti negativi, nel settore economico, che la pirateria ha causato, ma ha anche analizzato e concluso che una così vasta diffusione dei film ha incrementato di molto la loro visibilità e popolarità. Il dibattito sul copyright e sui diritti d’autore ha messo in luce anche che le attuali tutele non riescono ad essere efficaci e a conciliare le diverse esigenze di attori ed utenti. I primi chiedono una maggiore tutela del diritto d’autore volendo vedere compensati gli investimenti fatti. Dall’altra parte c’è la richiesta degli utenti, che chiedono di poter liberamente accedere ai contenuti. 5.4. Fotografia La produzione e condivisione di fotografie in rete è una delle pratiche più comuni, grazie soprattutto alla possibilità di avere sempre con sé una macchina fotografica. La digitalizzazione delle fotografie, però, risale agli anni ’70 da alcuni progetti lanciati in un centro di ricerca americano, lo Xerox Park a Palo Alto. In questi anni fu creato SuperPaint, il primo sistema informatico dedicato alla produzione di grafiche cinematografiche. Negli anni ’80 si svilupparono molti software di questo tipo, ma utilizzabili solo per produzioni televisive e cinematografiche professionali; solo negli anni ’90 iniziarono a intravedersi alcuni software per usi domestici. Il programma più noto è Photoshop, lanciato nel 1990. La modifica di foto divenne una pratica così comune, che introdusse nel vocabolario un verbo apposito: fotoscioppare (to photoshop). Fin dagli inizi della sua storia la fotografia era al limite tra realtà e finzione: poteva rappresentare fatti veritieri o falsi, e con la possibilità di ritoccare le foto a proprio piacimento questo limite si è ancora di più assottigliato. Studiosi come Mitchell avevano fin da subito dopo l’introduzione della macchina fotografica digitale che ci saremmo ben presto trovati in un’era “post-fotografica”, dove il ruolo della fotografia sarebbe radicalmente cambiato. La veridicità delle foto iniziò a traballare dal mondo del giornalismo e della pubblicità, i settimanali e i quotidiani, infatti, cominciarono ad utilizzare sempre più costantemente software per ritoccare le foto, dando vita al fenomeno che Ritchin denomina “iperfotografia”, ovvero una comunicazione fotografica sempre più dominante rispetto agli altri media digitali. Negli anni 2000, modificare le foto divenne sempre più recente e costante, scatenando tra la gente il pensiero che ogni foto che si vedesse fosse truccata. La storia del fotoritocco è antica quanto quella della macchina fotografica: negli anni ’70, i fotoamatori popolarizzarono l’uso della camera oscura a livello amatoriale. L’intreccio tra “vecchio” e “nuovo” nel caso della fotografia è testimoniato anche da un altro fatto: il poter vedere istantaneamente lo scatto fatta. Questa caratteristica la possiamo, infatti, trovare già nelle Polaroid, commercializzate nel 1948. Anche in questo caso vediamo che le moderne tecnologie di oggi hanno origine dalle radici della storia della fotografia. Lo sviluppo delle fotocamere digitali è un processo avvenuto in qualche decina d’anni. Il primo prototipo fu fatto da un ingegnere della Kodak, mai commercializzato, che era in grado di fare foto in bianco e nero con una risoluzioni di 100x100 Pixel. La prima commercializzazione ci fu nella seconda metà degli anni ’80, quando la Canon (azienda giapponese) mise sul mercato una macchina fotografica dal costo elevato che salvava le fotografie sopra un floppy disk (modello utilizzato molto nel settore del giornalismo). Negli anni ’90 vennero commercializzate anche le macchine fotografiche ad uso domestico che utilizzavano come standard il JPEG, sviluppato nel 1992. Queste macchine avevano la risoluzione di un solo megapixel. La prima macchina fotografica digitale reflex fu immessa sul mercato dalla Nikon, la quale riuscì ad alzare la definizione fino a 3 megapixel. Nel corso degli anni, comunque, la qualità continuò ad alzarsi fino a permettersi la stampa su carta di qualità. La fotografia digitale presentava molti vantaggi rispetto a quella analogica: le foto si potevano trasferire immediatamente sul PC, erano manipolabili con software grafici ed erano condivisibili sulla rete. Al contrario del mondo della musica, in cui le aziende predominanti nel settore analogico persero la loro leadership, in questo caso le aziende riuscirono, passando dai sistemi analogici a quelli digitali, a consolidare il proprio predominio come nel caso della Canon e della Nikon, le più importanti aziende fotografiche del Giappone. Non tutte le aziende riuscirono a seguire le orme di quelle giapponesi, come la Kodak; l’azienda americana che, nel corso del ‘900, aveva raggiunto il primato di importanza negli USA come impresa di macchine fotografiche e produzioni di pellicole. Le ragioni del non- funzionamento nel campo digitale furono soprattutto le errate scelte di business dell’azienda: negli anni 2000, infatti, il simbolo delle foto stampate si stava sempre più opacizzando facendo, quindi, diminuire la richiesta di carta per stampare le foto. La Kodak era l’impresa numero uno che produceva questo bene. Negli anni 2000, con il totale abbandono della pellicola tradizionale, la Kodak scomparve dai radar del mercato e nel 2012 fu obbligata ad iniziare la procedura di fallimento. A metà degli anni 2000 questo periodo di transizione tra analogico e digitale ebbe una scossa, data soprattutto dall’introduzione di smartphone dotati di fotocamere da alta risoluzione: i cameraphone, rendendo così una cosa molto comune lo scattare foto, condividerle su social, blog… L’applicazione della fotografia alla rete si basa su 2 condizioni: • L’esplosione di smartphone dotati di obiettivo per fare fotografie • La diffusione della connessione a banda larga. Il primo, di conseguenza, richiese anche uno spazio virtuale in cui depositare tutte le foto scattate. Alla metà degli anni 2000, le applicazioni e piattaforme fotografiche si moltiplicarono velocissimamente, una delle più famose è Flickr, acquisita poi nel 2005 da Yahoo!. L’archivio di foto più importante al mondo, però, è Facebook; nato da una metafora fotografica (creare digitalmente l’annuario scolastico del college), divenne l’archivio di foto più grande del mondo. Nel 2012, Facebook ha acquistato anche il servizio di photo sharing Instagram, che aveva avuto successo grazie agli effetti fotografici che facevano fare fotografie molto simili a quelle dei sistemi analogici. Il successo di questa piattaforma, si lega ancora una volta al passato: da un lato c’è un fenomeno di nostalgia delle tecnologie analogiche; dall’altro le tecnologie analogiche utilizzate in contesto digitale assumono nuovi significati. 5.5. Televisione Nella seconda metà del ‘900 il ruolo della TV ha totalmente stravolto la vita quotidiana degli ascoltatori, modificando totalmente l’intera percezione del mondo. Negli ultimi anni, però, si è iniziato a parlare di una “crisi della televisione”. Se per un verso, la frammentazione di tempi e pubblici ha contribuito alla moltiplicazione di canali e dispositivi e di conseguenza ha minato il ruolo storico della TV, il consumo televisivo non risulta per nulla in calo. Possiamo dire con certezza che la TV è ancora oggi un medium centrale, anche se il processo di digitalizzazione ha trasformato il suo ruolo sociale almeno in 4 aspetti: • Evoluzione degli assetti proprietari nel settore televisivo verso la convergenza dei media: integrazione tra imprese televisive e di comunicazione. • Digitalizzazione del segnale analogico • Trasformazione del televisore sotto aspetti tecnologici: integrazione di strumenti e accessori digitali. • Traduzione delle forme culturali della televisione all’interno delle logiche di internet: con la diffusione di forme di produzione legate alle piattaforme di video- sharing. Prima dimensione Il fenomeno della convergenza dei media ha una lunga storia che ha trasformato profondamente 3 settori: informatica, telecomunicazione e editoria. La convergenza intendeva far intrecciare questi 3 settori e fu proprio questa idea a influenzare le mosse di business delle aziende produttrici di televisioni. Con l’affermarsi di queste culture partecipative il rapporto tra contenuti e pubblico si modificò radicalmente, rendendo i fan dei partecipanti attivissimi che influenzavano intensamente il successo e la popolarità di un contenuto. Un’altra dimensione introdotta dalle culture partecipative è la presenza di dati sempre più dettagliati e precisi sui gusti del pubblico. 5.6. Radiofonia La radio è il più antico media elettronico che ha le sue origini ai primi del ‘900. In questi anni è diventata il primo strumento nella costituzione di masse politiche, passando per una fase di ripensamento dei modelli di business e culturali a seguito del successo della TV negli anni ’50, per arrivare agli anni ’70 mettendo in luce nuovi formati ed idee per pubblici più segmentati. La radio, quindi, ha avuto una storia molto “colorata” e la digitalizzazione è l’ultimo tassello di essa. Possiamo schematizzare il processo di digitalizzazione della radio in 2 differenti aspetti: • La digitalizzazione del sistema di radiofonia: si sviluppò dalla metà degli anni ’80 in parallelo con la TV, distinguendosi però per i differenti ritmi di crescita e di diffusione. Il sistema di radiofonia digitale fu un progetto richiesto esplicitamente dall’Europa. Nel 1987 la CE finanziò il progetto Eureka-147 con l’obiettivo di sviluppare uno standard di trasmissione audio digitale. I risultati vennero ripresi sempre dal gruppo MPEG e in pochi anni venne sviluppato uno standard per la diffusione audio chiamato DAB. L’UE inizialmente vide l’acquisizione di uno standard comune come una possibilità per l’industria europea di emergere ed imporsi nel settore delle comunicazioni e di essere un’opportunità di sviluppo anche per altri settori dell’elettronica. Purtroppo, però, il processo di digitalizzazione ebbe innumerevoli ritardi, a causa del flop da parte del DAB sia a livello mondiale che europeo. Una delle prime delusioni per il DAB fu il mancato uso da parte degli USA, che svilupparono un sistema alternativo, l’HD RADIO che a differenza del DAB era parzialmente compatibile con le frequenze FM analogiche. La non adozione del DAB da parte degli USA segnò l’inizio della sua decadenza, arrivando ad essere snobbato anche dall’Europa. Alcuni stati lo sostituirono, mentre altri non lo presero addirittura mai in considerazione. Questi ritardi e incertezze della diffusione della radio hanno portato a osservare questo strumento, non come fallimento, ma bensì come un’innovazione che ha deluso visto le attese iniziali. Queste difficoltà sono molto sorprendenti se si guarda, invece, il successo che ha ottenuto il suo medium gemello, la televisione anche se, una delle ragioni del fallimento della radio fu proprio il confronto con la TV la quale, da un punto di vista politico, ha sempre avuto più rilevanza rispetto alla radio. Anche dal punto di vista tecnico la televisione digitale ha dato la possibilità alle famiglie di accedere a contenuti e servizi (come l’on demand), mentre la radio poteva garantire solo una maggiore qualità sonora. Infine, dal punto di vista culturale, la TV ha conservato un ruolo centrale nelle famiglie, anche con la digitalizzazione, la radio, invece, negli ultimi anni ha sempre più un ruolo marginale. • L’integrazione della radio nei modelli di comunicazione internet: la radiofonia web fu uno dei settori trainanti della prima diffusione di internet negli anni ’90. Visto che ne la rete e i computer erano in grado di trasferire formati audio-video, l’attenzione si focalizzò sulle offerte di broadcasting audio. Una delle prime radio fu creata nel 1993, l’Internet Talk Radio e il primo podcast fu il Geek ok the Week, che trattava interviste con esperti di computer. A metà anni ’90 si diffusero sia stazioni emittenti nate sulle rete, sia stazioni radio tradizionali che offrivano contenuti tramite il loro sito web. L’esplosione fu favorita anche dal rilascio del software RealAudio Player che garantiva una buona qualità allo streaming audio. Il successo della web radio è il risultato di una serie di fattori: da un lato, l’idea di fare una radio indipendente a basso costo aveva una solida tradizione, spesso comprendendo attivismo politico. Non è una casualità che le prime radio in Italia avevano come argomento principale la politica. Infatti, nel 2001 Radio Gap diventò la principale piattaforma di comunicazione alternativa del movimento No-Global. L’intreccio tra radio e rete ha dato vita anche a nuovi tipi di contenuti fruibili in asincrono, come i podcast. Il termine deriva dai file MP3 supportati dagli iPod. I podcast sono dei contenuti audio distribuiti con un sistema di broadcasting e fruibili su diverse piattaforme. Il podcasting, ha rotto una modalità che aveva connaturato la storia del broadcasting sin dalle sue origini: il palinsesto, grazie al quale veniva stabilita una griglia di programmi su scala giornaliera/settimanale. Questo, secondo Thompson, costituiva il potere del broadcasting del ‘900: la possibilità che le persone fruissero, in posti diversi, allo stesso programma nello stesso momento. Potendo riascoltare o rivedere il programma, il podcasting ha spezzato il legame sincrono tra spettatore e broadcaster. 5.7. L’intreccio tra digitale e analogico La digitalizzazione dei media presenta peculiarità in ogni settore che abbiamo trattato. Sono 2 le tendenze che sono quasi sempre riemerse: • La modificazione delle tradizionali distinzioni e confini tra produzione, distribuzione e consumo. • La costante tensione tra rottura dei modelli mediali esistenti e riproposizione di pratiche, culture e forme di consumo consolidate attorno ai vecchi media analogici. I confini tra produzione, distribuzione e consumo sono stati totalmente riconfigurati dalla digitalizzazione per una maggiore manipolazione dei contenuti, per i consumatori più creativi e anche per quelli non attivissimi. I costi e i tempi di produzione sono anch’essi profondamente variati, calando drasticamente rispetto a quelli passati, espandendo di conseguenza anche l’offerta di contenuti. La digitalizzazione ha fatto fondere anche differenti media, facendo fare ai vecchi media analogici un vero salto di qualità. A livello produttivo delle aziende hanno acquisito posizioni dominanti nel mercato dei media analogici e hanno spesso cercato di mantenere la loro posizione anche nel mondo digitale attraverso scelte tecniche e strategie di business in continuità con i modelli già preesistenti. Guardando la sfera del consumo possiamo affermare che alcune fasce della popolazione hanno modificato solo marginalmente le pratiche di fruizione dei vecchi media. Se guardiamo il campo dei dispositivi e supporti la digitalizzazione non ha prodotto la sostituzione delle vecchie tecnologie, anzi, alcune volte le ha fatte rinascere del tutto (seconda vita -> double birth). Possiamo dire quindi che la digitalizzazione dei media analogici non si presenta come un fenomeno coerente e lineare. Anzi, è un processo che assume diversi ritmi in base ai settori in cui si sviluppa e ai paesi in cui si diffonde. Il digitale mette alla prova idee politiche, strategie di business, innovazioni tecnologiche e modelli estetici prevedendo di conseguenza un riadattamento culturale