Scarica informatica 1 fondamenti e più Schemi e mappe concettuali in PDF di Fondamenti di informatica solo su Docsity! La parola informatica deriva da due termini INFORmazione autoMATICA. Essa si occupa dello sviluppo e della ricerca nell’automatizzazione dell’informazione, ed è a sua volta un campo della cibernetica, scienza che studia la formazione, la trasmissione, l’apprendimento e l’elaborazione delle informazioni. LA STORIA DELL’ INFORMATICA 1500 Leonardo da Vinci progetta una macchina per il calcolo meccanico. 1643 Blaise Pascal inventa una macchina calcolatrice meccanica, chiamata pascalina. 1834 Charles Babbage costruisce una macchina programmabile, ossia una macchina alla quale si può inserire in ingresso non soltanto i dati da elaborare, ma anche la sequenza di operazioni che la macchina dovrà eseguire. 1847 George Boole scrive le prime relazioni tra matematica e logica, che saranno la base dei circuiti elettronici del computer. 1871 l’ italiano Antonio Meucci inventa il telefono : nasce l’ era delle comunicazioni. 1895 Guglielmo Marconi trasmette il primo segnale via radio. 1936 Alain Turing dà il modello teorico del moderno calcolatore, la macchina di Turing. 1938 il tedesco Konrad Zuse realizza il primo calcolatore programmabile elettromeccanico che viene usato per i calcoli balistici sulle “bombe volanti”, che verso la fine della seconda guerra mondiale, i tedeschi lanciano sull’ Inghilterra. Anche gli inglesi iniziano la costruzione di un calcolatore elettromeccanico per decifrare i messaggi in codice dell’ esercito tedesco. 1939 il matematico George Robert Stibitz costruisce il primo calcolatore funzionante con codice binario, formato da 0 e 1. 1944 entra in funzione ad Harvard il calcolatore elettromeccanico Mark 1, costruito nei laboratori della IBM nel 1943 per scopi bellici (di guerra). Per la sua costruzione sono stati utilizzati 765.000 componenti e centinaia di chilometri di cavi. Una volta ultimato occupava una lunghezza di 16 metri e raggiungeva un peso di circa 4 tonnellate e mezzo. Riusciva a sommare due numeri di 23 cifre in meno di mezzo secondo. Una volta, durante un calcolo Mark 1 cominciò a dare dati errati, dopo una lunga ricerca venne trovato un insetto (bug) che era rimasto schiacciato dentro un relè. Da qui il termine bug che ancora oggi si usa per indicare un errore nell’esecuzione del programma. 1946 entra in funzione l’ENIAC (Electronic Numerical Integrator And Computer), finanziato dall’esercito americano prima della fine della seconda guerra mondiale con l’obiettivo di calcolare i dati balistici della artiglieria americana. L’ENIAC è costituito da: 10.000 condensatori, 18.000 valvole termoioniche, 70.000 resistenze, pesa 30 tonnellate, occupa una superficie di 180 metri, effettua 5.000 addizioni al secondo, ed ha una memoria di 200 byte. In quegli anni (1944 -1946) il matematico (ungherese poi naturalizzato americano) John Von Neumann teorizza il funzionamento dei computer moderni. Nasce così nel 1949 l'EDVAC (Electronic Discrete Variables Automatic Computer) la prima macchina digitale programmabile tramite un software basata sull'architettura di von Neumann (vedi figura). Il merito dell'invenzione, oltre che allo scienziato ungherese, va ad Alan Turing per l'idea: l'EDVAC, a dispetto della propria memoria finita, era la realizzazione della macchina universale inventata da Turing nel 1936, un computer programmabile nel senso moderno del termine. 1947 tre scienziati della Bell Corporation inventano un dispositivo più efficiente, più affidabile, più piccolo, più duraturo, più veloce e più economico delle valvole di vetro. Questo dispositivo riesce a trasmettere la corrente attraverso un resistore. Per questo viene chiamato "transmit resistor", o più comunemente "transistor". INFORMATICA E APPLICAZIONI DIGITALI 1950 nasce il primo computer costruito in serie UNIVAC 1. Pesa 5 tonnellate, la CPU (unità centrale di elaborazione) è lunga più di 5 metri e alta 2,5 m. Nel 1952 riesce a prevedere il risultato delle elezioni presidenziali americane, il primo exit poll dell’era moderna. DEFINIZIONE DI COMPUTER Spesso si sente dire che il computer è una macchina intelligente o viceversa completamente stupida. Queste affermazioni equivarrebbero a dire che un ferro da stiro o un televisore è intelligente o stupido. Tutto ciò in realtà non è vero per il semplice fatto che tutti questi “attrezzi” sono macchine inermi, né intelligenti né stupide. L’unica cosa che distingue il calcolatore elettronico, o computer, dal ferro da stiro e dal televisore, è il fatto che contiene una enorme quantità di piccoli interruttori (i transistor) ed è programmabile. Per il resto anche il computer, al pari del comune ferro da stiro o della TV, non contiene niente altro che fili. È, piuttosto, l’uomo, con la sua intelligenza, che rende il computer utile e “intelligente”, ammettendo che l’intelligenza consista soltanto nell’eseguire istruzioni ben precise e prestabilite dall’uomo stesso. Il computer, quando sbaglia, non sbaglia quindi per un errore proprio, ma perché colui che lo usa ha fornito comandi errati, proprio come chi lascia il ferro da stiro incustodito sulla camicia! Pertanto definiremo con il termine computer una macchina concepita per l’elaborazione elettronica, automatica e programmabile dei dati. L’accento su questa definizione va messo sulla parola automatica, la quale deriva dal greco e significa “che agisce di propria volontà”, “indipendente”. A un certo evento la macchina risponde in modo preciso, seguendo uno svolgimento prescritto, senza l’intervento dell’uomo e quindi in maniera automatica. Un esempio sono i distributori automatici: la grande differenza tra i normali distributori e i computer sta nel fatto che questi ultimi, disponendo di programmi differenti, possono risolvere problemi distinti (elaborare testi, grafici, numeri e così via). LE INFORMAZIONI NEL MONDO DEI COMPUTER: BIT E BYTE Come detto, il computer è una macchina programmabile che opera mediante la memorizzazione, l’elaborazione e la trasmissione di informazioni sotto forma di impulsi elettrici. Le informazioni, siano esse composte da testo, immagini, brani musicali, o video, gestite da un computer devono essere rappresentate con una specifica modalità basata sull’utilizzo di un solo elemento: il bit. Il bit (BInary digiT) permette di definire due possibili valori, in alternativa l’uno all’altro. Questi valori sono lo zero e l’uno, e tutto ciò che viene gestito all’interno di un computer viene rappresentato mediante una sequenza di bit. Nella nostra quotidianità utilizziamo il “sistema di numerazione arabico”. Questo sistema si basa sulle unità, decine, centinaia, migliaia e così via. Il dieci (il numero delle nostre dita) gioca un ruolo fondamentale in questo sistema e infatti si dice che il sistema di numerazione arabico utilizza una codifica posizionale basata su 10 differenti cifre (si parla infatti di sistema in base 10). Il valore che assume una cifra dipende dalla posizione in cui si trova. Ad esempio, la cifra 1 rappresenta le unità se è la cifra più a destra del numero, ma rappresenta le decine se si trova nella seconda posizione (da destra). Nei calcolatori non si utilizza un sistema a base 10, ma un sistema a base 2 incentrato sull’utilizzo dei bit e quindi nella memoria di un calcolatore possiamo trovare solamente due simboli: 0 (zero) e 1 (uno). Si parla in questo caso di “sistema di numerazione binario”. Anche questo sistema utilizza una codifica posizionale, ma questa utilizza 2 sole cifre. Con un bit possiamo quindi definire due possibili stati. Ad esempio, vero o falso; bianco o nero; caldo o freddo. Ma come è possibile che tutte le informazioni che si trovano dentro un computer siano caratterizzate da un solo bit? In effetti non è possibile rappresentare tutte le informazioni mediante un solo bit. Ciò che si può fare è rappresentare le informazioni con sequenze di bit. Per rappresentare lettere e numeri è necessario utilizzare gruppi di bit. Un raggruppamento di 8 bit viene chiamato byte ed è in grado di rappresentare 256 valori: questo numero si ottiene provando tutte le combinazioni possibili di 0 e 1 nelle otto posizioni disponibili del byte, per esempio 00000001, 00001111, 11111111, ecc.. Il numero 256 che corrisponde a 28, permette di considerare l’insieme dei caratteri alfabetici, dei segni di punteggiatura, dei caratteri accentati o speciali di controllo (come quello per l’avanzamento delle pagine da stampare). In concreto un singolo byte può rappresentare una lettera dell’alfabeto, un segno di punteggiatura, un numero o un carattere speciale (per esempio @). Il primo computer venduto con funzioni di grafica incluse. E’ rimasto in vendita fino alla fine del 1993. Complessivamente si stima ne siano stati venduti quasi 5 milioni di esemplari. 1980 APPLE III Nel 1980 APPLE presenta Apple III. Il computer fu un disastro commerciale. Non ebbe successo, dato che costava molto (4.340$ poi abbassati a 3.495$) e non vi furono programmi che sfruttassero adeguatamente le sue potenzialità; poi, fu soggetto a molti problemi tecnici, sia software che hardware. I primi modelli di Apple III soffrivano di alcuni problemi di affidabilità, dovuti al progetto iniziale del computer non sufficientemente testato, perciò Apple fu costretta a rivedere il progetto ed a posticiparne la commercializzazione, che iniziò nell'autunno del 1980. La scelta di non dotare il computer di ventoline di raffreddamento si rivelò infelice: il surriscaldamento causava la deformazione della scheda madre con la conseguenza che i chip lentamente si sfilavano dai loro zoccoli ed il computer iniziava a non funzionare più. A ciò va aggiunto che nel 1981 IBM presentò il suo PC a 16 bit che si affermò velocemente come standard per le macchine professionali da ufficio: l'Apple III, invece, per mantenere la compatibilità con l'Apple II, era stato dotato di una CPU ad 8 bit del 1975. Questi fattori limitarono la diffusione della macchina: alla fine del 1983 erano stati venduti solo 75.000 esemplari di Apple III, quanto l'Apple II registrava in un solo mese. L'introduzione dell'Apple III+ non aiutò il computer a risollevarsi commercialmente ed Apple decise di cessarne la produzione il 24 aprile 1984 togliendolo definitivamente dal listino nel mese di settembre del 1985. In totale sono stati venduti circa 120.000 computer, fra Apple III e III+. 1983 APPLE LISA (LOCAL INTEGRATED SYSTEM ARCHITECTURE) È stato presentato il 19 gennaio 1983 e messo in vendita nel mese di giugno dello stesso anno al costo di 9.995 dollari statunitensi. È rimasto in commercio fino al 1985. Molte delle innovazioni legate all'interfaccia grafica del Lisa sono derivate dal progetto ALTO della Xerox. Resterà un prodotto destinato all’utenza professionale, ma che ha lasciato il mondo degli appassionati a bocca aperta, con le sue caratteristiche rivoluzionarie. 1984 APPLE MACINTOSH In gennaio viene annunciato dalla Apple il personal computer Macintosh. Si tratta finalmente di una macchina interamente grafica, abbordabile come prezzo (2.495 $), anche se più cara di un pc IBM, ma non certo dal prezzo stratosferico del computer Lisa. Il monitor (rigorosamente in bianco e nero) è integrato con la CPU, la tastiera è povera di tasti, ma efficace al tocco, come il mouse, che presenta un solo tasto. L'interfaccia grafica è semplice e completa, simulando una scrivania, con le varie cartelle (in forma di icone), dispositivi di memorie (floppy e disco fisso) e cestino per i documenti da buttare. Viene fornito già corredato di scheda grafica e qualche semplice programma come editor di testi e di disegno. Il successo di Macintosh è indiscutibile; una macchina completamente diversa da tutto ciò che era ed è in circolazione. Questa peculiarità la famiglia dei Macintosh la conserverà per molti anni a venire, diventando in modo incontestabile la macchina prediletta dei grafici e dei compositori editoriali, ma non solo. E’ rimasto in vendita fino alla fine del 1993. Complessivamente si stima ne siano stati venduti quasi 5 milioni di esemplari. Contrariamente a tutti gli altri personal computer, Macintosh è una macchina chiusa. Utilizza un suo hardware fatto apposta, un suo sistema operativo concepito ad oggetti e una serie di programmi e linguaggi di sviluppo completamente autonomi dagli altri computer. Persino la scrittura su dischetti floppy non risulta compatibile. Questa caratteristica proteggerà Apple, ma la penalizzerà per molti anni, fino a quando sentirà anche lei la necessità di aprirsi al resto del mondo, consentendo lo scambio delle informazioni. I modelli dei computer Apple si sono via via, nel tempo, uniformati agli standard hardware presenti sul mercato abbandonando in parte la politica del Think Different; tutti i sistemi di input e output sono diventati da molto tempo standard e dal 2006, con l'introduzione di processori INTEL (non prodotti esclusivamente o quasi, come succedeva con Motorola e IBM) la Apple ha ottenuto una maggiore reperibilità dei componenti, ad un prezzo più concorrenziale e con prestazioni migliori. Inoltre, da questo momento il cuore dei Mac diventa lo stesso cuore di molti PC basati su Windows; questo comporta la possibilità di avviare Windows anche sui Mac. Il 10 novembre 2020 è stato presentato Apple M1, la nuova CPU della Apple che sgancia nuovamente i sistemi Apple da Intel. LA MEMORIA RAM La RAM (Random Access Memory, o memoria ad accesso casuale) è la memoria principale, o memoria centrale, del computer. Si tratta di un dispositivo in cui vengono caricati dati e programmi nel momento in cui devono essere elaborati. Quando si chiede al computer di eseguire un programma, il processore estrae dal disco rigido una copia, la “parcheggia” temporaneamente nella memoria RAM e quindi la esegue. La quantità di memoria RAM è cruciale per il buon funzionamento del PC: quanto maggiore è la RAM, tanto meno frequentemente la CPU deve rivolgersi alle cosiddette memorie secondarie (disco rigido, CD-ROM) per lavorare. I dati, però, restano nella RAM soltanto finché il computer è in funzione. Quando si spegne il computer, la RAM si svuota. Il sistema operativo e tutti gli altri file verranno prelevati dal disco rigido e caricati di nuovo nella RAM quando sarà riacceso. Il processore sfrutta la velocità della RAM per elaborare dati e informazioni nei tempi più rapidi. La RAM infatti è molto più veloce di qualsiasi altro supporto: se per estrarre un dato da un disco rigido sono necessari alcuni millisecondi (1 millisecondo è uguale a millesimo di secondo), per compiere un’operazione analoga della RAM di sistema bastano qualche decina di nanosecondi (1 nanosecondo è uguale a un miliardesimo di secondo). DI QUANTA RAM HA BISOGNO IL MIO COMPUTER? Più RAM un computer possiede, più è in grado di lavorare velocemente. Ma, naturalmente, dispositivi con memorie RAM potenti non hanno solo prestazioni più elevate, ma anche un prezzo più alto. 2 GB di RAM possono essere sufficienti per un tablet che viene utilizzato solo per navigare su Internet. Se pensiamo ad un PC per uso professionale, per esempio per eseguire lavori complessi come l’editing video o lo sviluppo di giochi, vale la pena investire in 8 GB o 16 GB di RAM. Possiamo usare i seguenti valori come base di partenza: - 4 GB di RAM: se usiamo principalmente il PC per navigare, inviare e-mail e lavorare con applicazioni Office, 4 GB di memoria RAM sono più che sufficienti. - 8 GB di RAM: per chi usa frequentemente il computer e ama eseguire diverse applicazioni allo stesso tempo. Questa dimensione è anche sufficiente per la maggior parte dei giochi attuali. - 16 GB di RAM: una RAM da 16GB è ideale per il gaming avanzato e le attività ad alta intensità di calcolo come l’editing video o la programmazione. LA MEMORIA ROM E IL BIOS Se al momento dell’accensione del computer la memoria RAM è vuota, dove sono conservate le informazioni che consentono al computer di ripartire e di eseguire i vari programmi? Le istruzioni di base devono essere trasmesse alla CPU all’avvio del sistema sono contenute nei circuiti delle memoria ROM (Read Only Memory), una memoria permanente, sempre in funzione, anch’essa presente sulla scheda madre. Come dice il nome, è una memoria a sola lettura il cui contenuto è stato registrato in fase di costruzione del computer e quindi non dovrebbe essere modificato. Ogni volta che viene acceso, il computer esegue un piccolo programma contenuto nella ROM che gli permette di: - Identificare il processore installato sulla scheda madre; - Controllare la quantità di memoria RAM in dotazione e verificarne il funzionamento; - Esaminare il disco rigido ed eventuali periferiche aggiuntive (ad esempio CD-ROM); - Leggere la traccia, cioè il settore del disco rigido, in cui sono contenute le istruzioni per l’avvio del sistema. In particolare la ROM che avvia il sistema è chiamata BIOS (Basic Input/Output System). NB : In realtà oggi il BIOS non è più completamente indelebile, ma è stato registrato su un chip di ROM che può essere aggiornato in caso di necessità, per esempio per eliminare eventuali difetti sfuggiti al costruttore oppure far riconoscere alla scheda madre microprocessori messi in commercio in tempi successivi. Il BIOS, inoltre, interfaccia i meccanismi di Input/output del PC e fornisce altri servizi di sistema tra cui la gestione della tastiera, del disco, della stampante, delle comunicazione e della data. È proprio nel corretto funzionamento del BIOS che si sono concentrate le maggiori preoccupazioni relative al Millennium Bug (difetto informatico che si manifestò al cambio di data tra il 31 dicembre 1999 e il 1º gennaio 2000 in alcuni sistemi di elaborazioni dati). UEFI 57 UNIFIED EXTENSIBLE FIRMWARE INTERFACE UEFI è la nuova l'interfaccia che di recente ha sostituito l'ambiente BIOS. Caratteristiche: - consente ai produttori di integrare nel firmware della scheda madre applicazioni e nuove funzionalità, fra cui strumenti per la diagnostica e il ripristino dei dati, servizi di crittografia e gestione dei consumi. - riduce, anche drasticamente, i tempi di caricamento del sistema operativo, quindi supporta forme di avvio quasi istantaneo. - introduce un'interfaccia grafica efficace, facile da usare e in grado di supportare le risoluzioni video permesse dalle moderne schede grafiche. LE MEMORIE DI MASSA Poiché la memoria RAM è soltanto temporanea (una «memoria volatile»), dati e programmi per non essere perduti devono essere salvati su memorie permanenti, le memorie di massa. Le più importanti e diffuse memorie di massa sono il disco rigido (hard disk), le memorie flash e i CD e DVD-ROM. Flash, CD e DVD-ROM sono i supporti più adatti al trasporto di dati e per la lettura di software commerciali. Il disco rigido rappresenta il principale dispositivo per la memorizzazione dei dati. IL DISCO RIGIDO È un’unità molto capiente in cui dati programmi possono essere archiviati proprio come in un grande magazzino di stoccaggio. Disco rigido è la traduzione letterale dell’inglese hard disk. Anche disco fisso è utilizzato come sinonimo, dato che un hard disk è un dispositivo che non si estrae facilmente dal computer. Il termine disco rigido sta diventando sempre più d’uso comune rispetto a disco fisso, l’hard disk è uno dei pochi componenti del personal computer che presenta componenti meccanici oltre che a elettronici. L’hard disk è alloggiato su un lettore (drive) ed è costituito da una serie di dischi o piattelli impilati l’uno sull’altro, che ruotano a velocità molto elevate. Su ogni faccia di ciascun piattello vi è una testina magnetica che legge e scrive i dati. Le testine sono tutte fissate sul medesimo supporto e quindi si muovono sempre tutte insieme. NB : Le testine magnetiche sono in grado di leggere e scrivere i dati su ogni piattello del disco rigido senza toccare la superficie (data la velocità di rotazione, se toccassero la rovinerebbero immediatamente) perché “galleggiano” su un cuscino d’aria microscopico, creato dalla rotazione dei dischi. Il disco rigido è chiuso in un contenitore sottovuoto e visto dall’esterno di una scatola grigia, sul retro della quale si trovano due connettori: uno per l’alimentazione e l’altro per il cavo piatto del bus, adibito alla trasmissione dei dati. La parte inferiore della scatola è costituita da un circuito stampato, o piastra logica, in cui sono situati i componenti elettronici che controllano il movimento dei dischi de delle testine. NB : Le informazioni sono memorizzate sul disco rigido “per cilindri”: prima è riempita una determinata traccia (per esempio la numero 10) e poi, dal momento che la testina sono posizionate sullo stesso cilindro, tutte le restanti tracce di quel cilindro. Finché un cilindro (per esempio il decimo) non è stato riempito completamente, la testina non si può spostare su un’altra traccia e quindi su un altro cilindro. Questo criterio semplifica le operazioni di lettura e scrittura, perché le informazioni correlate si trovano sullo stesso cilindro e comunque su cilindri successivi, facilitando il lavoro delle testine. I DVD-ROM Apparentemente solo la scritta “DVD-Video” distingue un DVD (Digital Versatile Disk) da un CD, ma in realtà questo supporto ha una capacità molto maggiore di immagazzinare dati: può contenere l’equivalente di circa sette CD-ROM: 4,7GB ma anche più. Se il CD nacque principalmente come supporto per ascoltare musica in formato digitale, il DVD deve la sua comparsa all’esigenza di riprodurre su un supporto digitale interi film. BLU-RAY Il Blu-ray Disc è il supporto ottico proposto dalla Sony agli inizi del 2002 come evoluzione del DVD per permettere di visualizzare filmati in alta definizione (Full HD - 1920 × 1080 pixel). Grazie all'utilizzo di un laser a luce blu, riesce a contenere fino a 50 GB di dati, quasi 12 volte di più rispetto a un DVD. LA SCHEDA VIDEO Dato il continuo sviluppo dell’interfaccia grafica, dei videogiochi, delle applicazioni multimediali e del Worldwideweb, la scheda video, il dispositivo responsabile delle immagini che appaiono sullo schermo è diventata uno dei componenti fondamentali del pc. La scheda video è dotata di un suo processore, di una sua memoria ROM e RAM, in grado di visualizzare filmati e animazioni sempre più “reali” per definizione delle immagini e qualità del colore. All’interno di essa si trovano diversi componenti elettronici che ne determinano la velocità e l’efficienza: - La GPU, l'equivalente della CPU in un computer vero e proprio, è un circuito elettronico realizzato per monitorare e manipolare il funzionamento della memoria grafica e accelerare la costruzione di immagini da visualizzare sullo schermo. - BIOS VIDEO Ogni scheda grafica è dotata di una memoria rom dove è installato un software, che viene utilizzata all’avvio del computer. Nelle prime fasi d’accensione del dispositivo la GPU legge ed esegue le informazioni presenti nella porzione di memoria per iniziare a elaborare le immagini da inviare alla periferica dell’output video. - MEMORIA VIDEO Anche la scheda video ha una memoria di lavoro che fa da mediatore tra le informazioni dell’hardware e quelle in uscita verso lo schermo. Dato che la GPU e gli altri elementi della scheda video devono accedere contemporaneamente alla RAM, vengono impiegate memorie molto veloci o a porta multipla come la RAM. - RAMDAC: Acronimo di Random Access Memory Digital-to-Analog Converter, è necessaria per convertire in formato analogico i dati in uscita in formato digitale dalla GPU e renderli digeribile dai vecchi schermi a tubo catodico. COME FUNZIONA LA SCHEDA VIDEO Il funzionamento di una scheda video è molto semplice. La RAM video, esattamente come la RAM utilizzata dal computer, è divisa in tante locazioni o celle (una locazione è un piccolissimo circuito elettrico composto da un condensatore e un transistor dove vengono fisicamente conservati i dati). Nel caso della RAM video, ogni locazione contiene le specifiche per visualizzare il colore di un pixel dello schermo: maggiore, quindi, la quantità di RAM della scheda video, maggiore i pixel e i colori visualizzabili nello stesso momento dalla scheda grafica. Il chip grafico (la GPU) si limita a leggere in sequenza le locazioni sulla RAM, a registrarne le modifiche e trasformarle nel segnale digitale che sarà visualizzato dal monitor. USCITE VIDEO A seconda della tipologia di scheda video, questa potrebbe avere una o più uscite video grazie alla quale collegare il computer ad un monitor, ad un televisore o anche ad un proiettore. Qui di seguito alcune tra le più note. - Video Graphic Array (VGA): È un’uscita standard analogico per collegare un monitor a tubo catodico e altre periferiche video analogiche. Oggi è usata per i video ad altissima risoluzione. - Digital Visual Interface (DVI): È un’uscita standard piuttosto recente realizzato con la crescente diffusione dei monitor digitali. Permette di aggirare alcuni dei problemi dell’uscita VGA, facendo corrispondere a ogni pixel della scheda grafica un pixel sullo schermo - High Definition Multimedia Interface (HDMI): È lo standard più recente e permette di trasferire il segnale audio e video non compresso a dispositivi compatibili. Dovrebbe sostituire i vecchi standard analogici. Il mercato delle schede grafiche è sostanzialmente dominato dal duopolio NVIDIA e ATI (così come il mercato dei processori è nelle mani del duopolio Intel – AMD). NVIDIA e ATI tentano di miniaturizzare i circuiti elettrici che compongono il microchip della GPU. Più circuiti elettrici sono presenti all'interno del processore, maggiore il numero di operazioni grafiche che questo potrà realizzare nell'unità di tempo e maggiore, quindi, la sua potenza di calcolo. LE IMMAGINI L’Immagine fotografica (analogica) è composta da milioni di pigmenti colorati molto piccoli e spazialmente irregolari. Si parla di grana della fotografia: sulla pellicola fotografica sono posti dei materiali fotosensibili che alterano il loro stato se colpiti dalla luce. L’immagine è ottenuta per analogia con la quantità di luce che ha impresso i diversi punti della pellicola durante la fase dell’esposizione. L’Immagine digitale è composta da pixel (picture element) disposti su una griglia. I diversi colori che rappresentano le immagini sono memorizzati come numeri: - in fase di acquisizione delle immagini digitali (macchina fotografica digitale/scanner) ad ogni colore è associato un numero. - in fase di visualizzazione (monitor) ad ogni numero è fatto corrispondere un colore. Il processo che trasforma un’immagine in una sequenza ordinata di numeri è detto digitalizzazione. La digitalizzazione avviene con uno scanner (per una singola immagine) o con le macchine fotografiche digitali. - Campionamento spaziale, operazione con la quale un’immagine continua è trasformata in un insieme di rettangoli più o meno grandi (immagine come matrice di pixel) - Quantizzazione cromatica, ad ogni pixel è associato un colore dato dalla media dei colori presenti all’interno della porzione di immagine sottesa al pixel. Pixel: elemento minimo d’informazione. LE IMMAGINI: APPROSSIMAZIONE Aumentare il numero di pixel (e ridurre quindi la loro dimensione) migliora la definizione dell’immagine. I monitor dei computer usano lo stesso procedimento per visualizzare le immagini. La dimensione ridotta dei pixel e il numero elevato di colori fanno apparire al nostro occhio le immagini come se fossero formate da linee continue e infinite sfumature di colore. LE IMMAGINI: RISOLUZIONE Si definisce risoluzione dell’immagine: - il numero dei pixel (normalmente misurato in righe e colonne) - la profondità di colore (la dimensione della palette). I monitor dei personal computer usano normalmente risoluzioni che partono dagli 800 x 600 pixel e 65 536 (216) colori, fino a superare i 1920 x 1200 pixel con palette a 32 bit. LE IMMAGINI: COMPRESSIONE Per limitare l’occupazione di memoria si ricorre a rappresentazioni compresse. Alcune tecniche di compressione mantengono inalterata la qualità dell’immagine, eliminando soltanto le informazioni ridondanti. Altre riducono il numero di byte complessivi ma comportano anche perdita di qualità. FORMATO DEI FILE GRAFICI - senza compressione: non c’è nessun risparmio di spazio - con compressione: vi è un risparmio proporzionale al grado di compressione e può essere con perdita di informazione o senza perdita di informazione. FILE NON COMPRESSI Risultano particolarmente voluminosi in termini di spazio occupato e possono essere: - La tecnica RAW (in inglese: grezzo) consiste in un particolare metodo di memorizzazione dei dati di un'immagine. Viene usata per non avere perdite di qualità nella registrazione su un qualsiasi supporto di memoria. I formati di file RAW sono sempre più diffusi nei flussi di fotografia digitale, poiché offrono ai creativi un maggior controllo sui progetti. Tuttavia, le fotocamere utilizzano spesso formati diversi, le cui specifiche non sono sempre disponibili. Ciò significa che non tutti i file RAW possono essere letti da tutte le applicazioni software. Di conseguenza, l'utilizzo di file RAW proprietari come soluzione di archiviazione a lungo termine può risultare rischiosa e la condivisione di tali file, attraverso flussi di lavoro complessi, estremamente difficile. - Il Bitmap. Per ogni pixel sono indicati 3 byte, corrispondenti al rosso, al verde e al blu o sono contenute altri informazioni necessarie per la corretta visualizzazione dell’immagine come numero di pixel in una riga, risoluzione spaziale, profondità di colore Dimensione file bitmap o area * risoluzione grafica * profondità di bit o esempio: un'immagine di dimensioni fisiche di 5,3 inch × 4,6 inch ha una risoluzione grafica di 150 dpi ed una profondità di colore RGB di 8 bit per canale cromatico. Quanta memoria occupa complessivamente? (5,3 × 4,6) × (150 × 150) × 3 = 1.645.650 byte = 1,57 Mb FILE COMPRESSI Le immagini salvate con un algoritmo di compressione dati lossless occupano meno spazio nei dispositivi di memorizzazione, mantenendo inalterata tutta l'informazione originale: png, gif. - GIF, Formato sufficientemente leggero per poter essere trasferito in rete l’idea fu di estrarre per ogni immagine, dai 16 milioni di colori possibili, un sottoinsieme di 256 colori che meglio degli altri rappresentano i colori dell’immagine. o poiché l’immagine contiene solo 256 colori è facile avere sequenze di pixel simili in punti diversi dell’immagine e quindi è possibile comprimere i dati o file di piccole dimensioni - PNG, Non ha molte delle limitazioni tecniche del formato GIF. Può memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori). JPEG JPEG è il formato di compressione lossy più usato per la conservazione delle immagini. L’idea è eliminare tutte le informazioni che il nostro cervello non è in grado di percepire. Si ottiene un’immagine contenuta in un file molto più leggero ma simile all’originale. L’algoritmo è basato sullo studio della percezione umana rispetto agli stimoli visivi ed è adatto per la memorizzazione di fotografie e immagini realistiche, se le memorizzassimo in bitmap avremmo dei file mastodontici. In fase di salvataggio l’utente decide la qualità dell’immagine: minore è la qualità dell’immagine più leggero è il file ma minori sono i dettagli presenti nell’immagine risultante.