Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Informatica generale, Appunti di Elementi di Informatica

Domande relative al libro J. VALACICH-C. SCHNEIDER-A. CARIGNANI-A. LONGO-L. NEGRI, ICT, sistemi informativi e mercati digitali, Pearson Italia, 2011

Tipologia: Appunti

2011/2012

Caricato il 08/07/2012

feelsogood
feelsogood 🇮🇹

4.5

(162)

12 documenti

Anteprima parziale del testo

Scarica Informatica generale e più Appunti in PDF di Elementi di Informatica solo su Docsity! Quali sono le principali caratteristiche distintive del Web 2.0 rispetto al Web 1.0? Molto più spesso sentiamo parlare di web 1.0 e web 2.0 senza sapere, però, esattamente di cosa stiamo parlando e quali siano le differenze tra i due. Bisogna ricordare, inoltre, che ormai si parla anche del web 3.0 o web semantico capace di dedurre automaticamente i concetti,orientato al 3D, alle intelligenze artificiali e ad un unico database e 4.0 - ubiquitous computing. Web 1.0: le pagine di tipo Web 1.0 sono "statiche" e non contengono gli strumenti per quel livello di interazione che il Web 2.0; sono, tuttavia, perlopiù scritte in HTML e visualizzate dal nostro browser che si occupa di "comporle" caricando immagini, attivando link, come indicato nel codice HTML ma non appartengono alla pagina nel senso del "copia-incolla" di Word. Web 2.0 o Partecipativo: con il web 2.0, termine coniato da Tim O'Reilly, si è iniziato, per la prima volta, a dare grande importanza all'usabilità ( grado in cui un prodotto può essere usato da determinati utenti per raggiungere determinati obiettivi con efficacia, efficienza e soddisfazione in un dato contesto) e al modo di condividere i contenuti. Questo Web deriva da bisogni di espressione con individualità ma anche dalla necessità di socialità delle persone. (un esempio moderno sono appunto i Social Network come FaceBook,Twitter) Con il web 2.0 si è cercato di far interagire l'utenza del web, mettendo in comunicazione e stretta relazione tutti quanti condividendo (share) immagini, testi, foto; commentando, facendo recensioni o dando voti ad Hotel esempio; creando BLOG, mash-up, profili, linked-in,...etc. Un'applicazione del web 2.0 molto famosa è Wiki che condivide contenuti e conoscenze seguendo la logica del concetto di Collaborazione, Partecipazione e Condivisione tra gli utenti. Le caratteristiche che differenziano il web 1.0 dal Web 2.0 sono: - il passaggio dai personal websites in cui si raccontavano semplicemente fatti e situazioni vissute a blog dove è possibile commentare le stesse esperienze e quindi interagire tra utente e utente; -il passaggio dalla pura pubblicazione alla partecipazione diretta a una pubblicità o un evento; - il passaggio da taxonomy a folksonomy in cui sono gli stessi utenti che creano classificazioni e definiscono identità di altre persone attraverso il processo di tag ("etichettando") A proposito di sistemi cellulari, descrivi le caratteristiche della prima "generazione" di reti che hanno abilitato la comunicazione mobile. La comunicazione mobile si sviluppò a partire dagli anni 80 con il primo "telefonino" Motorola lanciato sul mercato nel 1983. L'infrastruttura dell'epoca, denominata di "prima generazione" si basava sul protocollo di trasmissione analogica TACS, in una frequenza compresa tra 25 e 30kHz, e consentiva la trasmissione del solo traffico voce. L'infrastruttura di trasmissione si basava sulla divisione del territorio in celle (da qui il nome "cellulare") all'interno delle quali si trovava una stazione ricetrasmittente che metteva in contatto il telefono del chiamante con quello del ricevente, attraverso il passaggio del segnale da una cella ad un altra fino a raggiungere l'interlocutore. Questa infrastruttura aveva dei limiti: innanzitutto non vi era uniformità nei protocolli di trasmissione tra i diversi Paesi e quindi non poteva essere usato il proprio cellulare all'estero; in secondo luogo la trasmissione in quanto radio e non a pacchetto vincolava la base di utenza al numero di canali radio disponibili. Che cosa significa overload informativo? Quali strumenti possono aiutarci a "filtrare" le informazioni? Il concetto di overload informativo si riferisce alla crescita esponenziale di contenuti sul web. Questa tendenza è destinata ad aumentare in un contesto mediale sempre più 2.0, che quindi per sua natura richiede un sempre maggior contributo da parte degli utenti. L'aspetto positivo di questo fenomeno è l'abbondanza di fonti, che teoricamente dovrebbe garantire una democrazia informativa. Vi è però anche un aspetto negativo, in quanto un aumento di quantità si realizza a danno della qualità. Per poter navigare in questi mare di informazioni l'utente deve sviluppare una significativa capacità di discernimento, deve vagliare le fonti e non limitarsi ad un ristretto numero. Un aiuto all'utente giunge dai motori di ricerca, che assolvono il compito di vaglio delle fonti, se pur in questo modo sia accessibile solo una ristretta porzione del patrimonio di informazioni. Definisci un’architettura di tipo client-server. Quali altre topologie di reti locali conosci? Descrivile brevemente. L'architettura hardware di tipo client-server è una rete LAN, ossia una rete locale che copre un'area limitata e che non attraversi il suolo pubblico, come un edificio o un locale preciso. Questa architettura presuppone la presenza di un computer che svolge il ruolo di server e più computer come client: - il server si distingue dagli altri computer per aspetti hardware e software infatti contiene un sistema operativo di tipo server che permette di accedere a file, stampare documenti e fornire servizi agli utenti della rete. Ha un processore più avanzato e una quantità di memoria maggiore; - i client sono computer che nella rete richiedono servizi al server. Un altro tipo di architettura delle reti LAN e quella del tipo peer-to-peer in cui i computer collegati in rete non hanno un ruolo definito ma possono comportarsi sia da client che da server richiedendo o fornendo i servizi. Le altre reti conosciute sono la rete a bus, comoda e diffusa, in cui è possibile utilizzare un server e aggiungere nel momento di bisogno sempre nuovi pc e la rete a maglia che permette di poter comunicare tra vari computer anche se uno di essi subisce un crash infatti sono tutti collegati tra di loro. La user-experience e’ la prima cosa di cui tenere conto nella progettazione di un sito web. Spiega questa affermazione. Per user-experience s’intende l’esperienza di navigazione dal lato dell’utente. Il punto di vista dell'utente è la prima cosa di cui tenere conto nella progettazione e produzione di un sito web per determinarne il suo successo e quindi far si che si verifichi la stickiness (ciò che rende attraente il sito al punto da incollare i visitatori alle sue pagine, invogliandoli a ritornare spesso) . Un sito perciò deve avere rilevanza (dei contenuti), coinvolgimento per l’utente e deve essere di facile navigazione e di utilizzo. Un sito per avere successo deve avere un’interfaccia accattivante esteticamente che lo distingua dai suoi concorrenti attraverso combinazioni di colori, sfondi e immagini e la presenza di un layout chiaro e ordinato che permetta all’utente di accedere con chiarezza alle informazioni. ma anche di accertarsi dell'identità del mittente o del destinatario, grazie alla modalità della doppia chiave. Perché nell'era dei social network l’identità è un patrimonio? Quali sono le implicazioni della mancanza di questa consapevolezza? Sono relative solo al mondo virtuale? Al giorno d’oggi è sempre più importante prestare attenzione alle informazioni che si forniscono sul web, in quanto molto spesso possono essere in vari modi intercettate da terzi. Pertanto, nell’era dei social network, “l’identità è un patrimonio” in quanto trattasi di una serie di informazioni che sarebbe meglio non pubblicare su internet. Chiunque oggi, semplicemente digitando pochi dati su un motore di ricerca, potrebbe conoscere l’identità di moltissime persone: si pensi, ad esempio, oltre ai social network, anche ai molti forum e siti che contengono foto ed informazioni degli utenti ad essi iscritti. Quando si effettua l’iscrizione ad un sito, infatti, bisognerebbe leggere attentamente le informative sulla privacy ed il trattamento dei dati, ed in ogni caso prestare attenzione a quello che verrà reso pubblico. Le conseguenze della mancanza di questa consapevolezza possono essere la violazione della privacy ed il furto d’identità, considerato un crimine. Ciò potrebbe accadere anche al di fuori del mondo virtuale: basti pensare a tutte quelle occasioni in cui le proprie informazioni potrebbero essere rese pubbliche oppure rubate (un esempio limite potrebbe essere la clonazione della carta di credito o del bancomat). In generale, senza demonizzare la Rete, è opportuno acquisire consapevolezza e senso di responsabilità rispetto alla diffusione sia dei dati personali (informazioni, foto, ecc.) che dei dati sensibili (numeri di carta di credito, password, account, ecc.). Inoltre, occorre tenere presente che le informazioni che rendiamo consapevolmente "pubbliche" delineano la nostra identità, a prescindere dal fatto che appartengano alla nostra sfera privata o professionale, al mondo reale o virtuale. Occorre prestare attenzione: l’identità è un patrimonio e dobbiamo salvaguardarla. Aspetti percettivi, cognitivi e culturali: spiega perché’ il colore gioca un ruolo fondamentale nella progettazione di siti web usabili e quali sono i principali criteri da adottare nella scelta. Con usabilità intendiamo il grado di efficienza, efficacia e soddisfazione che noi attribuiamo ad un determinato oggetto, o nel nostro caso ad un sito web. Il colore gioca un ruolo fondamentale in un sito web, poiché dipende non solamente da aspetti culturali (ad esempio noi vediamo il bianco con un significato di purezza mentre nella tradizione cinese si intende il lutto), cognitivi (associazioni semantiche) e percettivi (legati all'occhio umano) ma anche dall'associazione dei colori. Colori tra loro complementari nella ruota di Itten tendono a scontrarsi, mentre colori tra loro analoghi tendono a confondersi; per questo motivo è molto utile utilizzare il colore bianco ad esempio per rendere più fruibile la lettura. Inoltre, è molto importante anche tenere conto della coerenza dei temi del sito, e dell'utilizzo dei colori caldi(per web-radio) e dei colori freddi (per siti bancari ad esempio) e delle varie anomalie legate alla vista, come il daltonismo, poiché è necessario rendere accessibile a tutti il contenuto del sito. Quali sono i più importanti mezzi trasmissivi di tipo "wired" nell’ambito delle telecomunicazioni? Spiega il concetto di "banda larga". I più importanti mezzi trasmissivi di tipo "wired" sono: -Il doppino in rame che ,grazie alla semplicità di installazione, è il più diffuso ed economico. I suoi svantaggi sono di essere soggetto facilmente ad interferenze e di avere una banda stretta (1-128 Mbits/s). Esso supporta non solo modalità di trasmissione analogica, ma anche digitale (ADSL). - I cavi coassiali, che hanno una larghezza di banda maggiore rispetto al doppino, sono meno sensibili ad interferenze ( il filo di rame è infatti ricoperto da una guaina metallica e di plastica). Lo svantaggio è quello di avere un installazione difficile, e quindi costosa, che li rende poco diffusi. -La fibra ottica, che è immune ad interferenze, è in grado di trasferire una grossa quantità di informazioni ad alta velocità grazie alla sua banda larga. il sistema di misurazione della banda di trasmissione, cioè il bit/s. Gli svantaggi sono quelli di essere molto costosa, poiché creata con migliaia di filamenti di vetro attraverso i quali viaggiano impulsi luminosi, e inoltre di avere un' installazione e manutenzione complesse. Per banda larga si intende l'elevata capacità dei computer o dei mezzi trasmissivi di trasmettere informazioni. Che cos’è un database? Quali sono i tre passaggi in cui si articolano la progettazione e la creazione di un database? Spiega perché è importante rendere indipendenti le applicazioni dai database. Si definisce database una raccolta organizzata di file correlati. Esso è di fondamentale importanza per un’azienda, al fine di attuare determinate strategie competitive e prendere decisioni in merito all’attività economica. La realizzazione di database si articola in tre passaggi: progettazione concettuale, logica e fisica. Si consideri come esemplificazione la creazione di un database dell’università. La progettazione concettuale utilizza un particolare modello, chiamato “schema entità relazioni” (ERM). Esso è formato da: le entità (ossia gli attori del mio dominio, nel nostro esempio studenti, professori e così via), gli attributi (ossia l’insieme di dati che voglio raccogliere in merito alle entità. Il primo degli attributi viene definito “attributo identificatore” ed è quel dato che mi permette di identificare in modo univoco ogni occorrenza dell’entità), le occorrenze (ossia i valori che assumono gli attributi, nel nostro caso numero di matricola, cognome, nome e così via) e le relazioni che possono verificarsi tra le varie entità (ad esempio: uno studente svolge la tesi con un professore). In merito alle relazioni è necessario specificarne la cardinalità (ossia il numero massimo di occorrenze coinvolte nella relazione, per ciascuna entità), la quale può essere di tre tipi: uno a uno (codice fiscale), uno a molti (un professore segue la tesi di molti studenti) e molti a molti (molti passeggeri prenotano molti voli). In particolare l’ultima cardinalità deve essere gestita introducendo “l’entità associativa”, la quale sarà legata alle due entità mediante cardinalità uno a molti. L’attributo identificatore dell’entità associativa è formato dalla coppia di attributi identificatori delle due entità che vengono associate (esempio: un passeggero fa molte prenotazioni, un volo ha molte prenotazioni). Una volta completata la progettazione concettuale passo a quella logica. Anch’essa è caratterizzata da vari modelli, di cui quello usato più frequentemente è il modello relazionale. Questo modello comporta la trasformazione delle entità in tabelle, le cui colonne sono denominate campi e rappresentano gli attributi dell’entità (l’attributo identificatore è il primo campo e prende il nome di chiave primaria), mentre le righe sono denominate record e rappresentano le occorrenze. Ogni tabella, infine, è denominata file: i file sono correlati tra loro. Le cardinalità delle relazioni sono ancora 1:1 , 1:n , n:n. Nel caso 1:n bisogna introdurre il concetto di “chiave esterna”, ossia il campo chiave primaria della tabella a cui voglio collegare la tabella di partenza. Nel caso della cardinalità n:n invece, dopo averla scomposta in due relazioni 1:n, l’entità associativa diventa una terza tabella, la cui chiave primaria è denominata chiave composta, ed è formata dalle due chiavi primarie delle tabelle poste in relazione. L’ultimo passaggio della creazione di un database è la progettazione fisica, che consiste nell’implementare il database. Negli anni ’70 si è raggiunta la separazione tra applicazioni e database: mentre prima ogni programma aveva il proprio database, adesso tra i due c’è indipendenza (grazie al DBMS), e questo è importante per evitare problemi di ridondanza, perché quando ad esempio si modifica un programma, non è più necessario dover modificare anche il database. Che cosa significa “ridondanza” dei dati? Che cosa significa “inconsistenza” dei dati? Quali sono le tre principali anomalie che si verificano quando non si compie un’accurata progettazione di un database? Ridondanza e inconsistenza sono le conseguenze più comuni di un'errata progettazione del database. Per "ridondanza" si intende la ripetizione dei dati, che causa disguidi in quanto un dato ripetuto più volte può non essere aggiornato in tutte le sue posizioni, mentre per "inconsistenza" si intende la non corrispondenza dei dati. Le principali anomalie che si verificano sono: l'anomalia di cancellazione, che si verifica quando si cancella un dato che era l'unico presente e pertanto si perde quell'informazione, l'anomalia di aggiornamento che si verifica quando non si aggiornano tutti i record necessari e infine l'anomalia di inserimento che si verifica quando si vuole inserire un nuovo dato ma non vi è il valore della chiave primaria. Spiega il concetto di cardinalità di una relazione. Come si semplifica una relazione di cardinalità molti a molti? Definire e spiegare il significato di entità, attributo, attributo identificativo e occorrenze. Il database viene progettato in modo concettuale, logico e fisico. Nella progettazione concettuale abbiamo analizzato il modello entità relazioni in cui è necessario definire alcuni concetti: - l'entità che definisce gli attori del dominio Con la terza generazione di telefonia mobile, negli anni 2000,è nata la tecnologia UMTS (Universal Mobile Telecommunication System), che ha permesso lo sviluppo di una forma alternativa di commercio elettronico: il mobile commerce, una transazione effettuata mediante dispositivi wireless o reti mobili. Per questo tipo di transazioni vengono utilizzati generalmente smartphones, che supportano la connettività "always on" e il trasferimento di dati ad alta velocità. NFC è l'acronimo di Near Field Communication. Sono servizi mobili che permettono di utilizzare i telefoni cellulari come ad esempio per pagare i biglietti del treno ecc. anche quando i cellulari sono spenti; nei telefoni viene infatti installato un microchip che ha la funzione di carta di credito. Secondo te, il concetto di “adeguato livello di sicurezza” di un’organizzazione aziendale è il medesimo per tutte le imprese? Motiva la risposta. Ogni organizzazione aziendale ha il suo livello di sicurezza adeguato, in quanto dipende da ciò di cui essa si occupa. Esistono infatti diversi sistemi per mettersi al riparo oppure per tutelarsi da eventi disastrosi e non: uno di essi riguarda ad esempio il firewall, struttura hardware, software o mista, programmata per rilevare le intrusioni e impedire l'accesso non autorizzato a una rete. Un firewall è scalabile, ovvero può comportare una soluzione molto semplice o molto complessa a seconda che l'utente sia un privato o una grande impresa, per la quale infatti è previsto anche il controllo di ogni pacchetto di dati che, attraverso la rete aziendale, entra/esce da essa. Le policy di sicurezza aziendale variano a seconda dell'azienda, infatti ad esempio in caso di calamità naturali la Borsa di Milano deve avere un sistema di mirrorato a caldo, che le permette di essere immediatamente operativa, mentre per altre aziende è sufficiente un sistema di mirrorato a freddo, che impiega una decina di minuti per entrare in funzione. Esistono però anche metodi di sicurezza che per legge devono essere adottati da ogni azienda, come ad esempio la Pec è diventata obbligatoria per le imprese dal 29 novembre 2011. Negli ambienti mission-critical (come la Borsa di Milano), i tempi di inattività possono avere un serio impatto economico. L’utilizzo del sistema più affidabile che esista non esonera il responsabile dei sistemi informativi dall’impostare un adeguato programma di backup e di disaster recovery. Se l’azienda vuole che il sistema informativo non si fermi per qualunque guasto si ricorre ad una copia dei server con le stesse caratteristiche dei principali (mirrorati, cioè gemelli dei principali) che sono aggiornati in tempo reale con le modifiche dei server principali. In caso di guasto il secondo sistema subentra automaticamente al primo senza creare interruzioni del servizio. In un’architettura fault-tolerant (cioè capace di tollerare i guasti) come quella descritta, con sistemi in stand-by "a caldo" i tempi di indisponibilità del servizio sono di solito inferiori a quelli di un’architettura con stand-by dei sistemi "a freddo". Risulta evidente che il costo da una soluzione "a freddo" è sostanzialmente differente dal costo di una soluzione di tipo evoluto ("a caldo"); soluzioni di continuità operativa (Business Continuity) richiedono ulteriori investimenti finalizzati alla duplicazione delle apparecchiature di storage (database) e di elaborazione (server) su due poli aziendali (geograficamente distanti tra loro) ed alla connettività tra i poli stessi. Prodotti standard: perche’ questa e’ una caratteristica importante nell’e- commerce? Fondamentalmente i prodotti standard sono quelli identificabili senza ambiguita', la cui qualita' e' costante (a parte eventuali problemi/malfunzionamenti che si verificano anche nelle vendite tradizionali), per valutare i quali non e' necessario ricorrere ai sensi del tatto o del gusto o dell'olfatto e le cui caratteristiche sono definite mediante parametri e riferimenti universalmente riconosciuti. I prodotti più adatti ad essere venduti online sono quelli standardizzati per diversi motivi: -hanno un raggio d'azione globale, in quanto ad esempio è più facile vendere un cellulare o un computer piuttosto che un capo di vestiario, in quanto i prodotti digitali sono "universali", mentre l'abbigliamento varia da paese a paese. -i prodotti standard non hanno bisogno di essere testati di persona come invece potrebbe accadere per i capi d'abbigliamento -per quanto riguarda il ramo del commercio B2C (Business to Consumer) solitamente le aziende possiedono nei magazzini una quantità maggiore di prodotti standard rispetto ai prodotti particolari, quindi in questo caso sarebbero inferiori i tempi di spedizione e ricezione dell'acquisto. -in caso di malfunzionamento che causi la sostituzione del prodotto, si ha più possibilità di farsi rispedire l'identico prodotto che si era acquistato, e non uno simile Una policy aziendale per la sicurezza dei sistemi cosa può prevedere per gestire il rischio di calamità naturali? Per supplire ai danni provocati da disastri o calamità naturali un'azienda deve attuare un investimento nelle policy aziendali, affinché tutti i loro dati non vengano persi. Le politiche aziendali possono prevedere "Disaster Recovery" a caldo o a freddo, con l'obiettivo di ripristinare l'intero sistema informativo. Per Disaster recovery si intende infatti un piano di recupero dei disastri, un metodo per recuperare i file o dati importanti; un corretto piano di recupero dovrebbe rispondere a domande del tipo quali strumenti hardware e software sono necessari, cosa si deve fare per preparare il sito di backup, quali eventi sono definiti disastrosi e chi deve accertarsi che essi veramente lo siano. Molto importanti per la completa disponibilità di una copia di file sono il tempo di recupero e gli obiettivi di punto di recupero: con il primo si stabilisce il tempo massimo entro il quale si deve riparare al disastro, con il secondo si chiarisce quale deve essere il livello di aggiornamento dei siti di backup. Il backup, o salvataggio dei dati, può essere effettuato secondo due tipologie: a caldo e a freddo. il backup a caldo consiste nel salvare i dati mentre è ancora in uso il programma del quale è necessario salvare il file. I dati possono quindi risultare modificati mentre il backup è in corso. Il backup a freddo consiste nel salvare i dati quando nessun utente è connesso. Anche nell'eventualità di un blackout l'azienda deve limitare la perdita di informazioni utili: a questo proposito è stato creato l'UPS (Uninterruptible Power Supply) per mantenere l'alimentazione elettrica delle componenti più importanti dell'azienda. I sistemi informativi ed i sistemi informativi informatici sono la stessa cosa? Spiega la tua risposta. Per definizione un sistema informativo è un insieme di persone apparecchiature che permettono all'azienda di disporre di informazioni nel posto giusto al momento giusto. Può essere visto come l'insieme di componenti fisiche e procedurali sia umane che tecnologiche le quali interagiscono scambiando dati e producendo informazioni. Tuttavia questo sistema non necessariamente fa ricorso a strumenti automatici propri delle tecnologie dell'informazione e delle comunicazioni (ICT). Quando ciò avviene si parla di sistema informativo informatico, ovvero quando il sistema informativo è automatizzato. I sistemi informativi diventano informatici quando, dato un input, è possibile eseguire una elaborazione mediante specifiche procedure che automatizzano il lavoro precedentemente svolto manualmente per ottenere l'output richiesto. Definisci e spiega che cos'è un DBMS. I database sono raccolte organizzate di file correlati; tali file contengono enormi quantità di dati che vengono gestiti grazie a un software chiamato DBMS (database managment system). Esso svolge operazioni di archiviazione, lettura e modifica dei dati e permette l'accesso al database da parte di uno o più utenti. il DBMS gestisce gli input attraverso moduli o form mentre per gli output ci sono generatori di report, ossia interfacce, che sono il risultato di una ricerca, una query (interrogazione rivolta al database) che mi permette di visualizzare certi dati vincolati al mio interesse. il linguaggio di programmazione delle interrogazioni è chiamato SQL. Il DBMS(database management system) consente di specificare l'organizzazione logica di un database e di accedere e utilizzare le informazione contenute. Un DBMS è costituito da cinque componenti software: motore DBMS: accetta le richieste logiche dagli altri moduli del DBMS, le converte nel loro equivalente fisico e accede al database e al dizionario dei dati memorizzati in una periferica di archiviazione di massa. MODULO DI DEFINIZIONE DEI DATI: consente di creare e gestire il dizionario dei dati e di definire la struttura delle tabelle di un database. MODULO DI MANIPOLAZIONE DEI DATI: consente di aggiungere, modificare ed eliminare le informazioni in un database e di eseguire operazioni di ricerca e analisi avanzate. MODULO DI GENERAZIONE DELLE APPLICAZIONE: consente di sviluppare applicazioni in grado di effettuare un elevato numero di transazioni. MODULO DI AMMINISTRAZIONE DEI DATI: consente di gestire l'ambiente globale di un database, mettendo a disposizione degli utenti strumenti di backup e ripristino. E-commerce B2C: spiega la strategia click and mortar e fai un esempio. Il commercio elettronico B2C (Business to Consumer)è quella branca dell'e-commerce che prevede la transazione economica tra un'azienda e un privato senza intermediari. Le aziende possono adottare diverse strategie, una delle quali è quella "click and mortar" che prevede che l'organizzazione oltre ad uno più negozi fisici disponga anche di un sito online (negozio sul web) attraverso il quale può vendere ai consumatori. Non tutte le aziende accettano questa tipologia, in quanto ad esempio le aziende "brick and mortar" la rifiutano perché considerano il sito online solamente una "vetrinetta". Esistono anche aziende "click only", ossia che non dispongono di negozi fisici, come ad esempio Expedia (invece, è una società di tipo click-only, leader a livello mondiale nel settore del turismo e dei viaggi con un’ampia offerta di prodotti e servizi per i mercati business e consumer disponibili negli Stati Uniti ed in altri paesi del mondo attraverso una serie di marchi.) o Amazon. Per le aziende click and mortar (come ad esempio Peck, un negozio di gastronomia di altissimo livello oppure Esperya.net ) ci sono alcuni vantaggi, come ad esempio la strategia multichannel: offrire beni e servizi attraverso più canali consente di aumentare il fatturato dell'azienda. trovano i sistemi informatici. L'accesso ai file è limitato solo agli aventi diritto, molte organizzazioni hanno un sistema di registrazione delle transazioni, che memorizza ogni accesso o tentativo ai dati. SICUREZZA LOGICA: gestione oculata della password e dei diritti di accesso agli utenti. SICUREZZA DI RETE: garantire la sicurezza delle comunicazioni in rete, per tutelare la riservatezza dei dati critici e sensibili. Oggi per la gestione della sicurezza viene predisposto un sistema di protezione delle informazioni contro disastri, guasti e accessi non autorizzati. Le tre componenti della gestione della sicurezza sono: AUTENTICAZIONE E CONTROLLO DEGLI ACCESSI: si definisce autenticazione il processo attraverso il quale il computer verifica che il mittente da cui ha ricevuto la comunicazione sia realmente chi dice di essere. RISERVATEZZA: la riconoscibilità di un mittente e di un destinatario avviene tramite tecniche di crittografia, ovvero attraverso un processo di trasformazione dei dati attraverso algoritmi matematici. Dopo questo processo i dati risultano illeggibili per chi non possiede una chiave di decriptazione. Integrità DEI DATI E DEI SISTEMI viene preservata mediante un mix di approcci alla sicurezza, di tipo fisico, logico e di rete. Definire il concetto di Business intelligence e l'architettura di riferimento. La Business Intelligence è un insieme di concetti e tecnologie volto a migliorare i processi decisionali all'interno di un'organizzazione. Raccogliendo e riorganizzando un enorme insieme di dati aziendali in continuo aggiornamento permette difatti, ai lavoratori del livello direttivo-top, di prendere decisioni in “real time” in merito a situazioni sia interne che esterne all'organizzazione di riferimento. Un valido supporto è dato anche al livello operativo tramite l'introduzione di sistemi di elaborazione delle transazioni (TPS). Il loro fine è quello di rendere automatici e quindi più veloci, meno costosi e maggiormente efficienti i processi ripetitivi come: la gestione dei magazzini, degli stipendi e dei rifornimenti. Per implementare i sistemi di Business Intelligence all'interno di un'azienda è fondamentale disporre di database con grandi capacità di archiviazione, in grado di storicizzare i dati e distribuirli alle diverse unità organizzative. Si tratta dei cosiddetti “Data warehouse” NON "ricoprono un ruolo ben più importante di semplici database", ma sono fondamentali per sviluppare la Business inteligence come lo sono i database per realizzare i sistemi TPS. Al fine di conseguire migliori performance di elaborazione, più alti livelli di sicurezza e per riordinare le informazioni secondo logiche ed esigenze differenti, i dati vengono comunemente archiviati anche all'interno di “Data mart”, ovvero di database dedicati ciascuno ad una specifica attività. Tramite i software di elaborazione analitica online (OLAP) tali dati vengono poi interpretati sfruttando processi di analisi multidimensionale e ricorrendo inoltre a rappresentazioni di tipo grafico, ad esempio il “cubo OLAP”. Infine, i migliori sistemi di Business Intelligence non mancano di un altro sofisticato sistema di analisi: il “Data mining”. Tramite complessi algoritmi esso scova tra i dati relazioni predittive e regole nascoste che suggeriscano ai manager nuove e vincenti strategie competitive. Nata negli anni '90, la business intelligence è un insieme di concetti e di metodi basati sull'utilizzo intelligente dei dati con lo scopo di supportare le decisioni ed i processi aziendali. Attraverso la business intelligence è infatti possibile attuare una pianificazione continua, fondamentale per l'azienda per avere un vantaggio competitivo all'interno del mercato. Le organizzazioni all'interno dell'azienda sono strutturate in tre livelli: esecutivo, manageriale ed operativo, ciascuno dei quali necessita di una determinata applicazione della business intelligence. A livello operativo la business intelligence viene utilizzata per ottimizzare e velocizzare processi ripetitivi; a livello manageriale viene utilizzata per fornire le informazioni ai livelli più elevati dell'organizzazione, come ad esempio analisi di prestazioni e previsioni di vendita; a livello esecutivo, infine, viene utilizzata per ottenere riepiloghi di tendenze e previsioni per il futuro. Gli input della business intelligence provengono spesso dagli output dei sistemi di elaborazione delle transazioni (TPS), ossia sistemi con l'obiettivo di automatizzare processi aziendali ripetitivi (i TPS spesso risiedono nel livello operativo di organizzazione). Per sfruttare al meglio i processi di business intelligence, è fondamentale per un'azienda essere dotata di data warehouse, ossia un enorme archivio di dati (simile ad un grande database) caratterizzato da dati non volatili e dal caricamento di questi attraverso procedure ETL (extract, transfert, load). In alternativa al data warehouse troviamo anche i data mart, ossia archivi di dimensioni minori che contengono un sottoinsieme di dati per ogni aspetto dell'attività dell'impresa. Gli strumenti più importanti utilizzati per individuare informazioni necessarie alla business intelligence sono l'analisi multidimensionale (OLAP), che consente l'analisi di dati strutturati in più dimensioni (ad esempio in tre dimensioni, cubo OLAP, o più), e il data mining, che integra l'analisi OLAP scoprendo relazioni “nascoste” nei dati. In questo modo un'azienda, attraverso corrette creazioni di database e l'utilizzo di sistemi di business intelligence è in grado di avere numerose informazioni che le consentono di migliorare le strategie competitive e, di conseguenza, di affermarsi sul mercato. WAP, GPRS, UMTS: definisci e spiega le differenze. Il WAP (Wireless Application Protocol) è un protocollo, nato nella seconda generazione dei telefoni cellulari, attraverso il quale si possono ottenere informazioni di internet sui telefonini. Il primo è stato Omnitel, ma fu un fallimento perchè comportava tempi di attesa piuttosto lunghi, lo schermo del cellulare era piccolo e si pagava sulla base del tempo di connessione. Il GPRS (General Packet Radio Service) appartiene alla generazione 2.5 ed è lo standard che rende possibile l'introduzione della trasmissione dati utilizzando la commutazione a pacchetto, al posto della commutazione a circuito su cui si basava il sistema GSM. Esso permette per la prima volta di essere sempre connessi (always on) e di accedere velocemente ai dati. L'UMTS (Universal Mobile Telecommunication System) è un sistema che appartiene invece alla terza generazione e, grazie ad una banda più larga, permette una maggiore capacità di trasmissione dei dati, e comporta, inoltre, la nascita di MMS, Mail, M-commerce e così via. La differenza fra i tre è che il primo è un protocollo, ossia un software composto da determinate regole che permette ai sistemi di comunicare. Lo standard GPRS, invece, è l'evoluzione del GSM, ossia di un sistema di trasmissione digitale. L'UMTS, infine, è una soluzione adottata in Europa che fa parte di una famiglia di sistemi differenti, ma compatibili (che permettono, dunque, la mobilità). Virus e cookie: spiega le differenze a livello di “minaccia” per i sistemi. I virus sono software appartenenti alla categoria malware e hanno l'unica finalità di danneggiare i dati contenuti nel pc. Per farlo inseriscono una copia di se stessi sul disco fisso. I cookie invece non possono essere considerati veri e propri malware essendo che normalmente vengono usati per scopi legittimi. Per esempio salvano i dati di autenticazione in modo da non doverli inserire nuovamente la volta seguente, oppure permettono un identificazione del utente in modo da proporli dei contenuti web personalizzati(se non erro quando si cerca un determinato prodotto per esempio la fotocamera digitale go pro poi su siti come facebook viene riproposta la pubblicità dei prodotti visualizzati) I cookie sono messaggi trasmessi dal server web al browser. La loro potenzialità dannosa però esiste in quanto rischiano di salvare dati sensibili(magari nell'acquisto online),poi accessibili una volta effettuato l'accesso non autorizzato al pc. Invece, a proposito di cookie, è corretto dire che si tratta di piccoli file testuali che, generalmente, vengono sfruttati dai vari siti Internet ad uso statistico, quindi senza alcun intento di danneggiare dati o violare la nostra privacy. I siti Internet che li sfruttano, ne fanno uso, solitamente, oltre che per controllare quante volte uno stesso utente accede al sito web, anche per memorizzare informazioni che possano rendere migliore la navigazione di una persona all'interno di uno stesso sito (ad esempio, quale programma è stato utilizzato per la navigazione, la cronologia ecc.). Trattandosi di dati anonimi, non si dovrebbe porre un problema di tutela dei dati personali. Tuttavia, se i dati contenuti nei cookie vengono raffrontati ed integrati con altre informazioni sull'utente raccolte on line oppure offline, essi diventano idonei ad identificare l'utente e dunque rilevanti da un punto di vista di tutela della riservatezza. Per evitare problemi sarebbe comunque opportuno accettare cookie solo dai siti Internet "fidati" evitando di scaricare quelli provenienti da siti di dubbio contenuto . Spiega che cos’è l'outsourcing nell'ambito dei sistemi informativi, i punti di forza e di debolezza. è possibile configurare una situazione di outsourcing quando la realizzazione dei sistemi informativi è delegata completamente all'esterno. Si ricorre all'outsourcing quando non c'è un adeguata know-how aziendale o se il fornitore esterno garantisce un livello superiore. L'outsourcing può rappresentare uno strumento di pianificazione di strategie con il quale misurare i costi proporzionalmente allo sviluppo delle attività aziendali; per l'azienda però può anche voler dire dipendenza dall'outsourcer selezionato. Tra i vantaggi troviamo: concentrazione delle risorse e mezzi interni su attività aziendali strategiche, possibilità di accedere ad aree di frontiera per l'innovazione tecnologica, rapidità nello sviluppo di nuove applicazioni, risparmi sui costi di sviluppo. Tra gli svantaggi troviamo: il know-how tecnologico non può essere sfruttato per la produzione di sistemi informativi, dipendenza da altre azienda, costi aggiuntivi, nessuna collaborazione con l'utente finale in fase di sviluppo, mancanza di barriere all'entrate. Che cos’è il Phishing? Come è possibile difendersi da questo tipo di malware? Il phishing (simile a fishing per dare l'idea di pescare delle vittime) è un tentativo di frode ai danni di titolari di conti correnti o carte di credito. Per questo tentativo di truffa vengono usate dei messaggi spam, che vengono inviati a molti utenti nella speranza che almeno una parte di loro abbocchi. Una volta cliccato sul messaggio spam si viene mandati su un sito "falso"(una copia fasulla)con tutte le caratteristiche di quello vero che chiederà dati personali(normalmente vengono usati i siti di banche, ebay e altri siti nei quali è necessario fornire numeri riguardanti i conti correnti)per impadronirsene. I metodi di difesa elencati nel video sono di controllare l'indirizzo web, passarci sopra con il mouse senza selezionarlo e controllare, nel caso provenga da un vostro amico di chiamarlo per verificare e soprattutto il buon senso, se sembra troppo bello per essere vero è cosi, non è vero.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved