Riassunti TECNOLOGIA DEI CICLI PRODUTTIVI - PROF. F.D'ASCENZO - ECONOMIA SAPIENZA - Tecnologia e Produzione CEDAM, Domande di esame di Economia. Università degli Studi di Roma La Sapienza
jakfiamma
jakfiamma
Questo è un documento Store
messo in vendita da jakfiamma
e scaricabile solo a pagamento

Riassunti TECNOLOGIA DEI CICLI PRODUTTIVI - PROF. F.D'ASCENZO - ECONOMIA SAPIENZA - Tecnologia e Produzione CEDAM, Domande di esame di Economia. Università degli Studi di Roma La Sapienza

DOC (3 MB)
19 pagine
6Numero di download
555Numero di visite
Descrizione
Riassunti ben fatti, utili per superare a pieni voti l'esame di TECNOLOGIA DEI CICLI PRODUTTIVI con il Prof. F. D'ascenzo. Riassunti sui principali argomenti richiesti all'esame. Libro di riferimento TECNOLOGIA E PRODUZI...
2.99
Prezzo del documento
Scarica il documento
Questo documento è messo in vendita dall'utente jakfiamma: potrai scaricarlo in formato digitale subito dopo averlo acquistato! Più dettagli
Anteprima3 pagine / 19
Questa è solo un'anteprima
3 pagine mostrate su 19 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 19 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 19 totali
Scarica il documento
Questa è solo un'anteprima
3 pagine mostrate su 19 totali
Scarica il documento

TELECOMUNICAZIONI Le telecomunicazioni, comprendono le tecniche e i procedimenti usati per trasmettere e ricevere segnali elettrici, tramite sistemi elettrici, elettromagnetici ed ottici, su cavo e tramite onde elettromagnetiche. Un sistema di telecomunicazioni, è formato da un sistema emittente; un mezzo di trasferimento dell'informazione; un sistema ricevente. Le reti di telecomunicazione, si classificano in rete urbana, rete nazionale, rete internazionale, rete integrata. L'evoluzione delle reti di telecomunicazioni, è legata allo sviluppo di nuove tecnologie nella microelettronica, nelle fibre ottiche, nei satelliti. Nel 1969, nasce la prima rete integrata, Arpanet, sviluppata dall’Arpa, con lo scopo, durante la guerra fredda, di creare una rete di comunicazione veloce, affidabile, facile da gestire e mantenere, capace di lavorare in modo affidabile in caso di guerra. Arpanet, collegava tra di loro i computer centrali delle istituzioni statunitensi, legate al dipartimento della difesa. Arpanet, funzionava per mezzo di un protocollo di comunicazione, TCP/IP (Transmission Control Protocol/Internet Protocol). Agli inizi degli anni 80, la National Science Foundation, incoraggiò la costruzione di reti tra università americane connesse con Arpanet, che nel frattempo era stata divisa in due sezioni, una a scopi militari e una di ricerca. Nacquero così, delle reti universitarie, NSFNet, interconnesse tra loro, che offrivano una nuova connotazione, non più esclusivamente militare, ma dedita alla ricerca, tanto che a fine anni 80 Arpanet, cessò di esistere per lasciare spazio alle nuove reti. Nel corso degli anni 90, NSFNet fu ceduta a privati e la rete prese la denominazione di internet. Esistono poi le reti intranet (reti chiuse, non accessibili dall’esterno da utenti non autorizzati, usate nel contesto aziendale) ed extranet (reti chiuse non accessibili dall’esterno, usate non solo nel contesto aziendale, ma anche tra luoghi fisicamente distanti, ad esempio tra due aziende distanti tra loro). Abbiamo poi la rete, ISDN, che è una rete integrata, che consente la trasmissione di voce, dati e immagini attraverso un doppino telefonico, con una connessione standard. La connessione ad Internet ad alta velocità, avviene mediante la connessione a banda larga. La Digital Subscriber Line (DSL) in associazione ai cable modem, è una tecnologia di consumo, capace di trasmettere 512 Kbps e di ricevere fino a 20 Mbps. L`evoluzione tecnologica, ha portato all'introduzione dell`ASDL che permette l'accesso ad Internet ad alta velocità. La velocità di trasmissione, va dai 256 Kbps per secondo in su, a differenza dei modem tradizionali di tipo dial-up, che consentono velocità massime di 56 Kbps, e delle linee ISDN che arrivano fino a 128 Kbps. Con l`ADSL il segnale, viene codificato in maniera digitale e la velocità di invio dati è asimmetrica. In passato le telecomunicazioni erano monopolizzate, ma, grazie alla deregolamentazione del mercato americano e all’evoluzione tecnologica la situazione è cambiata. Nel 1998 si ebbe la caduta del monopolio di telecom italia, e venne instituita l’autorità garante delle comunicazioni. Nascono nuovi operatori (Wind, Tiscali, Infostrada) e nel 1999 Telecom Italia viene privatizzata e la maggioranza azionaria viene acquisita da Olivetti. Ad inizio 2000, il mercato delle telefonia urbana viene aperto ai nuovi operatori e a metà 2000, viene istituita la preselezione automatica dell'operatore, cioè la possibilità di non dover più digitare il prefisso di ogni singolo operatore, ma di poter usufruire dell’instradamento automatico. La liberalizzazione, si conclude nel Febbraio 2001, con l’accesso disaggregato alla rete locale e quindi la possibilità da parte di nuovi operatori, di utilizzare componenti e servizi di Telecom Italia. Inoltre l’introduzione del sistema UMTS, nato per sostituire il sistema GSM (che rimane tuttora il più diffuso), ha ulteriormente arricchito il panorama degli operatori.

EDITORIA ELETTRONICA I servizi di telecomunicazione si suddividono in tre categorie: editoria elettronica, servizi multimediali e servizi di diffusione. L' editoria elettronica, affermatasi con l' avvento del computer, ha rappresentato un' innovazione epocale. L'editoria elettronica, comprende molti prodotti, supporti e servizi. La prima applicazione, si ebbe agli inizi degli anni 70 con l'organizzazione delle prime banche dati online, che rappresentano la forma originaria dell' informazione elettronica. Ai servizi finanziari degli anni 80, fecero seguito le prime edizioni elettroniche dei giornali (New York Times e Wall Street Journal negli USA; Financial Times e Guardian in Europa). Esistono 2 tipi di editoria elettronica: online (siti internet di quotidiani e riviste) e offline (che non richiedono connessioni a internet, come i cd, dvd, e-book). La multimedialità, è l'integrazione di testi, suoni, immagini, colori e movimenti e può definirsi come "il dialogo interattivo tra uomo e macchina, basato sull'integrazione tra video, audio, testi ed immagini, il tutto basato su una tecnologia digitale che permette di trasportare velocemente, una grande quantità di dati e informazioni. La multimedialità nacque dalle opportunità offerte dalla rivoluzione del digit, cioè dalla trasformazione in bit di voci, dati e immagini da elaborare elettronicamente, trasmettere a distanza e ricompattare. Alla multimedialità si abbina il concetto di interattività, caratteristica del sistema, il cui comportamento varia a seconda dell’input dell’utente.

TELEVISIONE INTERATTIVA La televisione interattiva, nasce grazie all’affermazione della televisione digitale, tuttavia prima della televisione interattiva si ebbe il passaggio dalla televisione analogica a quella digitale. La televisione analogica, va dagli anni 40 fino alla metà degli anni 90. Il periodo, dagli anni 40 ai 70 è il periodo della televisione generalista, destinata ad una pluralità di utenti, negli anni 80 nascono i canali tematici, dedicati a particolari argomenti e a partire dalla metà degli anni 90, il segnale viene trasmesso in modalità digitale (via parabola, via cavo, via terrestre), nasce in Italia Tele+. In Italia fino al 2008, l’unica modalità di servirsi del segnale digitale, era via satellite, e l’unico fornitore era Sky, nato dalla fusione di Tele+ e Stream. A partire dal 2008, inizia ad affermarsi la televisione digitale terrestre, conclusasi nel 2012 su tutto il territorio nazionale. Lo sviluppo della televisione digitale, ha aperto la strada alla televisione interattiva. Le principali tipologie di televisione interattiva sono la pay per view (pagare per vedere canali, programmi con contenuti aggiuntivi), la tv on demand (che consente di scegliere tra una serie di programmi diffusi in continuazione ad intervalli di tempo prefissati, ad esempio la ripetizione di film ogni ora) e la Video on demand (che consente allo spettatore di scegliere un’ampia serie di film da vedere quando vuole). I principali servizi di diffusione sono tre: audiotex, teletext, telefonia mobile. L’Audiotex è l’insieme di servizi aggiuntivi, che consente di ottenere informazioni sotto forma di messaggi vocali preregistrati, utilizzando la rete telefonica o la tastiera del telefono. Il teletext, o televideo è un servizio editoriale diffuso in Italia dal 1990. Per quanto riguarda l’evoluzione della telefonia mobile, essa può essere così sintetizzata: - 1G (I generazione): TACS, noto come sistema analogico a diffusione nazionale – cellulari analogici - 2G (II generazione): GSM, sistema digitale più diffuso; tale sistema da la possibilità di comunicare senza frontiere con il proprio telefono in qualsiasi paese, dove sia presente una rete GSM, attraverso accordi di roaming tra i vari paesi; inoltre viene abbandonata la modalità di accesso WAP e il telefono può essere collegato ad un computer e funzionare da modem. - 2.5G: GPRS, versione di GSM più veloce. - 2.75G: EDGE, versione di GPRS più veloce. - 3G (III generazione): UMTS, sistema digitale, sfruttabile a livello mondiale, nato per sostituire il sistema GSM. Tuttavia, poiché i cellulari UMTS sono del tipo dual-mode UMTS/GSM, quando un dispositivo UMTS si sposta verso un’area non coperta dalla rete UMTS, il dispositivo passa automaticamente alla rete GSM; al contrario, i terminali GSM non possono essere usati all’interno di reti UMTS. - 3.5G: HSPA - 4G (IV generazione): OFDM

INTELLIGENZA ARTIFICIALE - SISTEMI ESPERTI Per intelligenza artificiale si intende l’insieme di studi e tecniche che permettono di realizzare macchine capaci di risolvere problemi tipici di per se, dell’intelligenza umana. Si può descrivere come la convergenza di concetti tipicamente umani (percezione, il confronto e l’analisi, la decisione) con altri tipicamente meccanicistici (la ripetizione, la precisione, la gestione dei dati). Le applicazioni dell’intelligenza artificiale riguardano tutte le aree dell’automazione industriale: i sistemi esperti; la visione artificiale; il riconoscimento della voce; il linguaggio naturale. Il grande successo degli studi sull’intelligenza artificiale, è rappresentato dei sistemi esperti, ovvero dei programmi che grazie alla conoscenza posseduta, su uno specifico settore, sono in grado di risolvere i problemi, emulando il lavoro di una persona umana. Un sistema esperto è costituito da tre elementi: una base di conoscenza, inserita in un data-base ; un motore inferenziale, ossia un meccanismo in base al quale, utilizzando la conoscenza a disposizione, è possibile fornire soluzioni più appropriate ai problemi; una interfaccia utente, ossia un modulo computerizzato, dove l’operatore umano pone i quesiti alla macchina che ricevendo l’insieme di soluzioni individuerà la soluzione più appropriata al problema; l’interfaccia utente consente anche di aggiornare il data-base del sistema, inserendo sempre nuove informazioni nella memoria. I sistemi esperti elaborano un gran numero di variabili, superando di gran lunga la mente umana. Tuttavia, essi dipendono totalmente dall’uomo, per la qualità e quantità delle informazioni e conoscenze possedute. Il metodo con cui operavano i sistemi esperti della prima generazione, consisteva nel tentare di risolvere uno specifico problema, confidando sulla potenza espressiva, di un dato paradigma di rappresentazione della conoscenza o sulla presunta efficacia di una certa tecnica algoritmica. I sistemi esperti della seconda generazione, lavorano sulla base di un nuovo metodo, basato sulla capacità, da parte del cosiddetto Knowledge engineer, di acquisire e concettualizzare un processo decisionale, solitamente complesso, in modo da renderlo rappresentabile e risolvibile con l’ausilio di una macchina.

MAPPA DELL’AUTOMAZIONE INDUSTRIALE L’automazione è un concetto diverso dalla Meccanizzazione, in quanto la meccanizzazione permette di sostituire la forza lavoro mediante macchine, l’automazione invece è un insieme di tecniche e metodi usati per sostituire il controllo umano, mediante macchine. L’automazione industriale è l’insieme di sistemi o componenti, che hanno al loro interno, tutte le informazione per svolgere funzioni di progettazione, gestione della produzione e produzione. L’insieme dei sistemi dell’automazione industriale può essere rappresentato tramite la mappa dell’automazione industriale. La mappa dell’automazione industriale è costruita inserendo su un piano cartesiano tutti i sistemi dell’automazione industriale, le dimensioni del piano cartesiano costituiscono due principi di base: il primo principio è quello dell’integrazione tra organi meccanici e controlli elettronici, tra sistemi di controllo e software di sistema, tra sistemi di controllo e gestione della produzione e intelligenza artificiale. Il secondo principio è quello della sistematizzazione, cioè dell’integrazione in rete di tutti i precedenti elementi. La mappa dell’automazione suddivide i sistemi dell’automazione industriale in classi e sottoclassi - per area funzionale, a loro volta classificati per progettazione - gestione della produzione - produzione - per area tecnologica, a loro volta classificati tra hardware informatico -hardware elettronico - software - meccatronica - telecomunicazioni - per sistemi, a loro volta classificati tra robot - FMS - sistemi di controllo del processo La mappa si sviluppa su due dimensioni: una dimensione supporto-contenuto, dove gli elementi che costituiscono la parte hard vengono collocati nella parte sinistra e quelli che costituiscono la parte soft vengono collocati nella parte destra. Al centro vi sono gli elementi che rappresentano l’integrazione tra hard e soft (CIM, CAD). L’altra dimensione è quella del prodotto-sistema, dove nella parte bassa vi sono i sistemi isolati e nella parte alta i sistemi integrati. il 1° quadrante, è il quadrante dei SISTEMI DI SUPERVISIONE E CONTROLLO INTEGRATO ed include tutti i sistemi che permettono il controllo tramite sistemi informatici ed elettronici sia dei processi continui e molto più raramente dei processi discontinui o discreti. Comprende sistemi CN (controlli numerici, ovvero apparecchiature elettroniche per il controllo di posizionamento, i CN sono in grado solo di ripetere una sequenza fissa e ripetitiva di movimenti memorizzati su un supporto magnetico e il passaggio a un altro programma richiede l’intervento di un operatore); CNC (controlli numerici computerizzati, ovvero elaboratori dedicati per il controllo di una macchina attraverso i programmi inseriti, il CNC è un sistema più avanzato del CN, contiene più programmi di lavoro e invia volta per volta al centro di lavoro il programma necessario senza necessità di interventi umani); DNC (dispositivi per il controllo e l’invio di programmi a più centri di lavoro); PLC (controlli logici programmabili, ovvero apparecchiature capaci di generare sequenze di comando di organi attuatori, in funzione di segnali provenienti dal processo controllato). I sistema di supervisione, sono formati da un calcolatore che raccoglie i dati dei sottosistemi ad esso collegati, li elabora e da rapporti sulla situazione, segnalando agli operatori eventuali situazioni anomali. I sistemi di controllo integrato sono costituiti da un’unità di controllo centrale collegata via rete alle unità di controllo locali

il 2° quadrante, è il quadrante dei CONTROLLI PER AUTOMAZIONE INDUSTRIALE ed include i sistemi relativi all’automazione flessibile dei processi discontinui. E’ il quadrante dei controlli elettronici e comprende i sistemi di controllo al livello “basso”, cioè a diretto contatto con le macchine e che controllano una sola macchina. Comprende sistemi PLC; CN; CNC; ma anche controlli per FMS (sistemi di produzione flessibile, formati da più stazioni di lavoro, oltre 3, collegate tramite un sistema di trasporto automatico); controlli per i Robot; controlli per i magazzini e sistemi di movimentazione automatici. il 3° quadrante, è il quadrante dei SISTEMI MECCATRONICI include i sistemi relativi all’automazione flessibile dei processi discontinui. E’ il quadrante della meccatronica e comprende i sistemi meccatronici, FMS e Robot. il 4° quadrante, è il quadrante dei SISTEMI CAD/CAE ed include i sistemi (hardware e software) utilizzati per la progettazione (disegno, analisi delle caratteristiche, funzioni del prodotto) e l’ingegnerizzazione (definizione del processo produttivo, delle macchine necessarie) di nuovi prodotti. Il Software può essere a 2 o 3 dimensioni, cioè limitarsi solo alla funzione di disegno, o essere esteso anche alle funzioni di progettazione, ingegnerizzazione ed al CAD/CIM, cioè alla produzione automatica del programma di lavoro, per le macchine a controllo numerico. il 5° quadrante, è il quadrante degli ATTUATORI, SENSORI, TERMINALI, ATE ed include gli apparati elettronici che rilevano e trasmettono dati e segnali. Gli attuatori sono apparecchi che eseguono un’azione fisica trasformando il segnale elettronico in un’azione meccanica. I sensori acquisiscono dati. I terminali sono sistemi di interfaccia tra uomo e macchina. Gli ate sono sistemi per il test di schede e altri componenti elettronici il 6° quadrante, è il quadrante dei SISTEMI DI INTEGRAZIONE SUPERIORE CIM, sistemi utilizzati per l’integrazione tra le funzioni di progettazione - gestione della produzione – produzione. L’integrazione superiore CIM rappresenta il massimo livello di integrazione, quello interfunzionale il 7° quadrante, è il quadrante dei SISTEMI DI GESTIONE DELLA PRODUZIONE ed include sistemi (hardware e software) utilizzati per funzioni gestionali specifiche della produzione:programmazione e controllodella produzione. il 8° quadrante, è il quadrante dell’INTELLIGENZA ARTIFICIALE PER L’AUTOMAZIONE INDUSTRIALE. Per intelligenza artificiale si intende l’insieme di studi e tecniche che permettono di realizzare macchine capaci di risolvere problemi propri di per se dell’intelligenza umana. Si può descrivere come la convergenza di concetti tipicamente umani (es. la percezione, il confronto e l’analisi, la decisione) con altri tipicamente meccanicistici (es. la ripetizione, la precisione, la gestione dei dati). Le applicazioni dell’intelligenza artificiale riguardano tutte le aree dell’automazione industriale: i sistemi esperti; la visione artificiale; il riconoscimento della voce; il linguaggio naturale

INNOVAZIONE – RIVOLUZIONI INDUSTRIALI Secondo schumpeter l’invenzione è la scoperta di una tecnologia potenzialmente utile, un’esternalità, una variabile esogena. Egli distingue tra invenzione e innovazione: Invenzione è il concetto, idea o percezione di nuove tecnologie utili; Innovazione è la realizzazione della nuova tecnologia nelle mani di chi la usa. Secondo schomookler l’invenzione è una variabile endogena. Egli afferma che invenzioni ed investimenti muovono le stesse variabili, producono innovazioni. Ma spesso invenzioni ed innovazioni sono il risultato di un unico processo. Il progresso tecnologico è andato sempre più crescendo grazie alle varie rivoluzioni industriali che si sono susseguite nel tempo. La 1° Rivoluzione Industriale (1770-1840) Caratterizzata dalla nascita della macchina a vapore - fonte di energia il carbone. Principali settori: tessile, chimico-tessile, fonderie, motori a vapore. Fattori chiave: cotone, ferro La 2° Rivoluzione Industriale (1830-1890) Caratterizzata dal dominio della macchina a vapore - fonte di energia ancora il carbone. Principali settori: ferrovie, acciaio, elettricità. Fonti chiave: carbone, trasporti La 3° Rivoluzione Industriale (1880-1940) Caratterizzata dall’uso dell’elettricità - del motore a scoppio - dell’industria siderurgica - dell’industria chimica. Principali settori: ingegneria elettrica, elettrotecnica, grande industria, automobili, aerei, telecomunicazioni, petrolio. Fattori chiave: l’acciaio La 4° Rivoluzione Industriale (1930-1990) Caratterizzata dalla produzione di massa (fordismo) - dalla petrolchimica – dall’elettronica. Principali settori: automobili, aerei, petrolchimica, computer, prodotti farmaceutici, TV, radio, autostrade. Fattori chiave: l’energia (il petrolio) La 5° Rivoluzione Industriale (1980-?) Caratterizzata dell’informatica - dalla microelettronica. Principali settori: computer, telecomunicazioni, fibre ottiche, robot. Fattori chiave: chips

I MODELLI DI RICERCA – INNOVAZIONE TECNOLOGICA La ricerca, può essere definita come l’insieme di attività creative, intraprese in modo sistematico allo scopo di accrescere la conoscenza. La ricerca scientifica si distingue in ricerca di base; ricerca applicata; sviluppo sperimentale; attività innovativa industriale. Il progresso tecnologico è il risultato di invenzioni ed innovazioni. L’innovazione Tecnologica, permette di introdurre sul mercato nuove tecnologie e innovazioni sotto forma di prodotti, processi o servizi, metodi di produzione o di commercio. L’innovazione tecnologica può essere radicale o incrementale. E’ radicale quando da origine a nuovi paradigmi tecnologici, cioè nuove invenzioni ed è incrementale quando sviluppa paradigmi preesistenti, ovvero cerca di migliorare prodotti o processi già esistenti. Le innovazioni tecnologiche, nascono da attività di ricerca e sviluppo. L’analisi dei processi innovativi fa riferimento a due modelli principali, il modello lineare e il modello a catena. Il Modello Lineare è un modello tecnocratico, dove l’innovazione, precede, in modo sequenziale, attraverso le fasi della ricerca base, applicata, dello sviluppo, della messa a punto del processo di fabbricazione, della produzione e del commercio. Alcuni studiosi hanno interpretato il modello lineare come un modello Science Push, dove le scoperte scientifiche, innescano il processo di trasmissione della conoscenza e di produzione dell’innovazione (r&s – development – production – marketing). Altri studiosi hanno interpretato il modello lineare come un modello Market Pull, dove l’innovazione è vista come il soddisfacimento di una necessità derivante dal mercato (market need – r&s – manufacturing – marketing). Il modello a catena di Kline e Rosenberg, parte dalla definizione di un mercato potenziale e prosegue con la fase di design analitico, dove nascono le innovazioni. Una novità nel modello a catena è la presenza di feedback. Gli effetti di un innovazione tecnologica a breve e medio termine possono essere la crescita della domanda di lavoro in alcuni settori e la diminuzione in altri - la crescita della domanda totale di lavoro - il miglioramento delle tecniche produttive - lo sfruttamento di nuove risorse naturali - la nascita di gap tecnologici tra paesi. La riduzione dei costi di produzione - l’aumento di produttività - il miglioramento dei controllo della produzione - nuovi prodotti e di qualità superiore Gli effetti di un innovazione tecnologica a lungo termine posso essere i cambiamenti della struttura del mercato - dei fattori strategici - degli assetti economici internazionali Un'altra tipologia di innovazione è l’eco innovazione, nota come innovazione di prodotto, processo, servizio che porta ad un maggiore rispetto per l’ambiente e va ad affiancare la “green economy” ossia un modello di sviluppo economico che tiene conto dell’impatto ambientale e dei potenziali danni creati. Il ciclo di vita di un’innovazione tecnologica è caratterizzato da quattro fasi: - lancio (settore fortemente innovativo -- rapido sviluppo della tecnologia -- si realizzano varie tecniche alternative) - crescita (settore non molto innovativo -- si entra nella fase di standardizzazione della tecnologia -- la diffusione è rapida) - maturità (il tasso innovativo rallenta ulteriormente -- la dimensione del mercato raggiunge il massimo) - obsolescenza (la tecnologia diventa sorpassata e deve essere rinnovata)

TRASFERIMENTO DI TECNOLOGIA Ricerca interna della tecnologia-Acquisto di tecnologia dall’esterno-Scambio di tecnologie-Vendita della propria tecnologia. I vantaggi della ricerca interna della tecnologia di interesse, sono l’arricchimento che ne potrebbe derivare dalla vendita; il vantaggio competitivo rispetto alla concorrenza; l’assenza di vincoli sulla gestione e sul commercio della propria tecnologia. Gli svantaggi sono gli investimenti elevati; i costi non sempre preventivabili; l’incertezza di perseguire gli obiettivi in tempi utili. I vantaggi dell’acquisto di tecnologia dall’esterno sono i minori costi di investimenti in ricerca e sviluppo; la preventiva valutazione dei costi, dei tempi e del rischio. Gli svantaggi sono la possibilità di non reperire, sul mercato, la tecnologia che si vuole comprare; la dipendenza da chi fornisce la tecnologia; i costi elevati per l’acquisto della tecnologia; i problemi connessi al trasferimento della tecnologia. I metodi usati per il trasferimento di tecnologia sono sei: Il licensing è una sorta di cooperazione a lungo termine con la quale un’impresa (il licenziante) concede ad un’altra (il licenziatario) l’uso temporaneo ed esclusivo della propria tecnologia. I vantaggi sono, che il licenziante può sfruttare la propria tecnologia e una volta che non gli serve più di cederla; per il licenziante vi è un ritorno economico delle spese sostenute per la tecnologia ceduta e questo gli consente di investire in nuove tecnologie, riducendo i costi di ricerca e sviluppo. Gli svantaggi sono il rischio di potenziali concorrenti; inoltre il licenziante non ha il controllo diretto, sulla diffusione della tecnologia trasferita. Esistono vari tipi di licensing: licensing di brevetto, ovvero la richiesta del licenziatario di essere autorizzato ad avere pieno uso dal brevetto del licenziante - licensig di tecnologia, ovvero il licenziante da al licenziatario informazioni industriali segrete - licensing miste, ovvero la concessione dei diritti di brevetto e di informazioni segrete. Abbiamo poi il licensing out (nel caso di cessione di licenza) – licensig in (nel caso di acquisto di licenza) – licensing cross (nel caso di scambio di licenze) La joint venture, intesa come la nascita di una vera e propria nuova società. Vi una sorta di collaborazione tra aziende che partecipano in eguale misura ai rischi e agli utili e uniscono le proprie risorse (tecnologie, beni, conoscenze, clientela). Per il trasferente di tecnologia esistono sia prospettive di profitto ma anche prospettive di rischi legati agli investimenti. Per l’acquirente di tecnologia invece, il coinvolgimento diretto del trasferente nell’iniziativa, offre maggiori garanzie in termini di validità della tecnologia e di miglioramenti tecnologici L’investimento diretto, cioè il trasferimento di tecnologia da un paese all’altro, che consente ad un impresa di superare barriere o altri impedimenti all’entrata. Un impresa che intende espandersi all’estero ha due possibilità: o aprire una nuova filiale o acquisire il controllo di una società già esistente, che opera nel settore di interesse Gli accordi di tipo partecipativo,ovvero accordi tra imprese di diverse dimensioni e competenze tecnologiche. Si costituiscono dei consorzi tra imprese di grande e piccole dimensioni ed eventualmente Enti o amministrazioni pubbliche. Si tratta di joint-venture, limitate, alla gestione ed allo sfruttamento di particolari innovazioni

La produzione su commissione (Toll Production) ovvero, un’azienda affida la produzione ad un’impresa terzista per motivi come la necessità di disporre di una maggiore capacità produttiva o per realizzare l’innovazione che si è sviluppata, in quanto il passaggio dalla fase di laboratorio a quella di industrializzazione richiede la disponibilità di impianti sofisticati e molti investimenti. L’accordo tra le due aziende avviene per mezzo di un “patto di segretezza” che vincola chi riceve la commissione a non divulgare le informazioni ricevute, per un certo periodo di tempo. Il ventur capital è un finanziamento, con capitale di rischio, di imprese giovani, per l’avvio di progetti relativi a prodotti o processi innovativi, con prospettive di rapido sviluppo ed elevato rischio. È adatto soprattutto nei casi in cui, un’azienda, voglia diversificare le proprie attività, verso aree tecnologicamente avanzate e con elevati ricavi (le biotecnologie) e quindi l’impresa con disponibilità economiche, investe in imprese giovani con potenzialità di sviluppo tecnologico. Gli investimenti, avvengono tramite: partecipazione in fondi di venture capital o tramite investimenti diretti in società sussidiarie o affiliate; nel primo caso l’investitore può seguire da vicino i nuovi settori, nel secondo caso vi sono programmi che controllano gli sviluppi. Lo Spin Off indica la nascita di una nuova impresa (start up). Si crea un spin off quando soggetti industriali, accademici o istituzionali, danno vita ad una iniziativa imprenditoriale grazie alle proprie e distinte conoscenze. Lo spin off, è un entità giuridica, perché viene costituita come società di capitali. Lo spin off è usato come strumento di trasferimento tecnologico, il cui obiettivo è favorire la diffusione della conoscenza, allo scopo di averne un applicazione sul campo produttivo ed accrescere il territorio. Generalmente ai trasferimenti di tecnologie si accompagna la fornitura di alcuni servizi. Ad esempio, nel caso di vendita di un impianto con tecnologia incorporata si possono avere due contratti: contratto chiavi in mano e contratto mercati in mano. Nel caso di vendita di impianti, con contratto chiavi in mano, l’impianto viene fornito completo di tutte le apparecchiature principali ed ausiliarie, delle tubazioni, dell’impianto elettrico, delle strumentazioni e di quanto occorra per la produzione. Nel caso di vendita di impianti, con contratto mercati in mano, il contratto prevede che il trasferente oltre a fornire l’impianto, debba garantire la collocazione sul mercato di tutta o di una parte della produzione, ottenuta dall’impianto. Le forme di pagamento per il trasferimento di tecnologia possono avvenire: in contanti – tramite Lump-sum (somma fissa pagata in una o più rate) - tramite Royalties (pagamento protratto nel tempo sotto forma di percentuale sul fatturato annuo) - in merce/counter-trade - in tecnologia

ORGANIZZAZIONE DEL LAVORO L’organizzazione del lavoro è fenomeno dinamico ed evolutivo determinato da fattori oggettivi, quali la diffusione di principi innovatori e scelte discrezionali del management. Secondo gli esperti non esiste un’unica “migliore forma organizzativa”, tuttavia un metodo per vedere se un’organizzazione possa funzionare o meno è quello di sottoporla al test delle 7S: strategia (insieme di azioni intraprese, il cui obiettivo è il vantaggio competitivo); struttura (complesso di rapporti); sistemi (processi e procedure in base ai quali, vengono svolti ogni giorno i vari compiti); staff (tutti i membri dell’organizzazione, considerati non come singole entità ma come popolazione aziendale); skills (la capacità di cui dispone l’azienda nel suo complesso); stile (comportamento che contraddistingue i dirigenti, in base all’impiego del tempo, attenzione, azioni simboliche); sistema di valori prevalente (idee di ciò che è giusto e auspicabile, condivise dalla maggioranza dei membri). Immaginando il modello delle 7S come un insieme di frecce, se queste frecce sono orientate nello stesso verso si ha una buona organizzazione, altrimenti no. Nel tempo vi sono susseguiti diversi modelli organizzativi. Nel modello meccanico adottato dal 1900 fino al 1970, l’impresa è paragonata ad una macchina che ha come obiettivo il miglioramento dell’efficienza trovando la one best way. Nella logica meccanicistica ogni addetto alla produzione deve svolgere in modo ripetitivo, una funzione semplice al fine di minimizzare gli errori umani e gli sprechi e massimizzare la produzione e di diminuire attraverso lo sfruttamento delle economie di scala, il costo medio di produzione. Gli obiettivi di efficienza prevalgono sugli obiettivi di efficacia, i beni tangibili (es. macchinari) assumono maggiore importanza rispetto a quelli intangibili (es. conoscenze possedute dall’impresa), i costi fissi hanno una elevata incidenza sui costi totali. Il modello meccanico, è sistema è chiuso, che non interagisce con l’ambiente esterno, i lavoratori si considerano solo come macchine. Nel modello organico, adottato dal 1970 in poi, l’impresa è vista come un essere vivente che come tale si concepisce, nasce, si sviluppa, si stabilizza, declina e muore. I pregi rispetto alla visione meccanicista sono l’apertura verso l’ambiente esterno, una considerazione maggiore dei lavoratori, visti non più come macchine da utilizzare ma come componenti del sistema che operano, si per funzioni specializzate, ma non per delega

ORGANIZZAZIONE TRADIZIONALE - TAYLORISMO (1856-1915) l’idea fondamentale di Taylor era che i lavoratori producessero molto meno di quanto avrebbero potuto. Se i lavoratori avessero ricevuto opportuni incentivi salariali, ci avrebbe portato ad un miglioramento della produttività, dei profitti e dei salari, e il conflitto tra padrone e lavoratore sarebbe scomparso e si sarebbe risolto “il problema del lavoro”. Il principio innovatore di Taylor non è tecnologico ma amministrativo-organizzativo. Viene annullata la discrezionalità del lavoratore, il lavoro manuale viene separato da quello intellettuale e nasce la catena di montaggio. I punti caratteristici del modello organizzativo di Taylor erano la divisione verticale del lavoro, ovvero la divisone delle fasi di progettazione, esecuzione e controllo; la parcellizzazione del lavoro, ovvero un ulteriore divisione delle fasi di progettazione, esecuzione e controllo; la progettazione accurata delle posizioni di lavoro e dei movimenti degli operatori, in modo da renderli il più possibile armonici e funzionali all’avvio e alla conduzione delle macchine; la struttura del compenso; la suddivisione precisa del lavoro e delle responsabilità, tra direzione e manodopera e l’instaurazione di rapporti di stima e collaborazione tra questi. La figura professionale era il capo reparto, che aveva mansioni tecniche-produttive

ORGANIZZAZIONE TRADIZIONALE - AUTOMAZIONE RIGIDA (1900-1960) dagli inizi del 1900 fino al 1960 presero vita prima il Meccanicismo (introduzione di macchine al posto dell’uomo), e poi l’Automazione Rigida. Durante il periodo del meccanicismo nelle macchine specializzate non universali, entrava sempre lo stesso input ed usciva sempre lo stesso output (produzione in serie). Durante il periodo dell’automazione rigida invece si iniziò a collegare macchine singole, tramite rapporti di interdipendenza reciproca, in sistemi meccanici rigidi. L’automazione Rigida fu caratterizzata da una automazione limitata a poche aree tecnologiche; non c’era flessibilità produttiva, poichè era l’industria a governare il mercato, essendo la domanda superiore all’offerta; la qualità dei prodotti che si realizzavano era scarsa; le imprese dovevano sostenere alti costi per potenziare le macchine; i tempi per le operazioni di attrezzaggio e manutenzione erano molto lunghi; i lavoratori diretti prevalevano sui lavoratori indiretti (manutentori, attrezzisti collaudatori) e i lavoratori diretti erano addetti ad operazioni manuali (carico, scarico). La figura professionale era il Manutentore, un operaio indiretto ad elevata professionalità conseguita in scuole professionali

ORGANIZZAZIONE ALLARGATA - AUTOMAZIONE INDUSTRIALE MECCANIZZAZIONE FLESSIBILE (1970) Gli anni 70 sono stati anni difficili per il sistema imprenditoriale, furono anni caratterizzati da un estrema rigidità nell’utilizzo della manodopera, per imposizione dei sindacati; dal rincaro delle materie prime; dall’instabilità finanziaria internazionale. Le imprese dunque per rispondere alle richieste della clientela, dovettero aumentare la flessibilità produttiva. Si ebbe l’introduzione dei magazzini polmone, detto anche fattore di discontinuità, ovvero un magazzino di semilavorati, che si interponeva, tra le varie fasi del processo produttivo. Grazie ai magazzini polmone, una parte di input poteva essere trattenuto sotto forma di semilavorati, invece di avviarlo direttamente alla trasformazione finale. Il magazzino polmone si è rilevato molto utile, per far fronte a blocchi improvvisi, di alcune fasi del processo produttivo (guasti o aggiustamenti sindacali). L’automazione industriale è stata caratterizzata dalla sostituzione delle macchine a logica meccanica con macchine a logica elettronica. I macchinari erano capaci di autoregolarsi meccanicamente, ma non erano ancora collegati in rete. Per quanto riguarda i lavoratori, non si ebbero grandi cambiamenti rispetto agli anni 60, tuttavia i lavoratori si inseriscono in un contesto produttivo meno rigido e parcellizzato; si ebbe inoltre un arricchimento delle mansioni (Job enrichment) ed un allargamento delle attività (Job enlargement). Nacque la figura professionale del Meccatronico, un manutentore con attività polivalente ma con responsabilità monofunzionale, cioè responsabile della sola manutenzione.

ORGANIZZAZIONE SISTEMICA - AUTOMAZIONE FLESSIBILE (1980) Alla fine degli anni 70 vennero introdotte le intelligenze artificiali applicate alle macchine utensili. L’organizzazione flessibile fu caratterizzata dalla flessibilità produttiva, sui volumi e sul mix produttivo. Vennero corretti i piani di produzione e consegna, in quanto come abbiamo detto vi fu l’introduzione delle intelligenze artificiali e quindi, le macchine erano dotate di sistemi di allerta e di correzione. Con la nascita delle intelligenze artificiali, nacquero anche nuove opportunità per le aziende. Le macchine erano caratterizzate da elevata complessità ed elevata velocità di lavorazione. Nacque la figura professionale del Conduttore, lavoratore con alta professionalità, che interpretava i dati informatici, svolgeva funzioni di trasformazione; programmazione di primo livello; manutenzione; attrezzaggio; controllo di qualità delle lavorazioni; di movimentazione dei materiali; di inventario dei flussi

ORGANIZZAZIONE INTEGRATA (FINE ANNI 80) l’organizzazione integrata tipica dell’area Orientale, fu caratterizzata dalla piena integrazione dei compiti attribuiti a ciascun lavoratore ai quali venne affidato un ruolo gestionale che gli conferiva la facoltà di accelerare o ritardare il flusso dei materiali nel processo produttivo. La discrezionalità era massima. Nacque la figura professionale del Gestore, addetto con un elevata competenza tecnico- scientifica.

ORGANIZZAZIONE SNELLA (ANNI 90) durante i primi anni 90 vi fu la caduta della domanda dei beni di largo consumo e strumentali, a causa dei cambiamenti comportamentali dei soggetti economici. I fattori, che hanno determinato mutamenti nel comportamento dei soggetti economici sono stati i repentini cambiamenti tecnologici; l’entrata di nuovi soggetti competitivi nel mercato (Corea, Hong-Kong); l’interconnessione tra mercati geograficamente distanti fra loro; la ricerca di nuovi equilibri politici e sociali mondiali. Vi fu una frantumazione dell’organizzazione. Si iniziarono ad attuare esternalizzazioni (outsourcing) di alcune attività produttive, ovvero si affidavano a soggetti terzi, le proprie attività produttive; Vi fu un decentramento produttivo per conseguire una riduzione dei costi di produzione. Si ebbe, l’accorpamento di funzioni e ruoli organizzativi, che diminuirono così i livelli gerarchici. L’accorpamento nacque dalla necessità di concentrare il potere decisionale, in un ristretto numero di soggetti, per risolvere situazioni complesse e per tenere sotto controllo e governare le funzioni aziendali, per raggiungere, obbiettivi di qualità e quindi la Customer Satisfaction

ORGANIZZAZIONE IN PRESENZA DI PRODUZIONE MODULARE (2000) l’organizzazione modulare fu caratterizzata dall’esternalizzazione (outsourcing) di alcune strutture produttive, ovvero affidare a soggetti terzi le proprie attività che venivano tuttavia svolte all’interno dell’aziendale principale. L’impresa committente operava in outsourcing all’interno ed era dunque una sorta di impresa multi societaria, ovvero un impresa, intesa come un contenitore di imprese diverse e autonome, che condividevano lo stesso impianto. Era necessario tuttavia che le varie aziende, fossero coordinate tra loro, per non subire interruzioni o ritardi nel processo produttivo e ottenere così la

massima efficienza produttiva. Nacque la figura professionale del Produttore di integrazione, ovvero un operaio altamente qualificato e privo di ruolo gerarchico, in grado di comunicare con i clienti e fornitori ed elaborare informazioni e dati, al fine di facilitare la collaborazione tra le imprese.

COORDINAMENTO E CONTROLLO L’organizzazione industriale, fu caratterizzata da molte forme di coordinamento delle risorse e di controllo dei processi decisionali. Il primo modello organizzativo, fu il modello gerarchico, sviluppatosi secondo tre tipologie: gerarchico puro o tradizionale; gerarchico funzionale; line-staff. Il modello gerarchico puro, era un modello stabile, in quanto all’inizio del 900, la velocità di cambiamento del mercato, era inferiore alla velocità di cambiamento dell’azienda, alla quale era sufficiente gestire uno o pochi prodotti, per sopravvivere. Tale modello, ha forma piramidale, il processo decisionale è di tipo Top-down, i livelli superiori, avevano la piena autorità, responsabilità, competenza, controllano e delegavano i compiti da svolgere ai livelli inferiori, tuttavia quando i livelli inferiori non erano in grado di risolvere un problema, dovevano rivolgersi ai livelli alti. I vantaggi, erano la facilità nell’elaborare il budget, un miglior controllo tecnico, la flessibilità nell’utilizzo della forza lavoro, un miglior controllo del personale, dato che si faceva riferimento ad un solo capo. Con lo sviluppo dei mercati, nacque l’esigenza di ampliare i prodotti. Si passò dunque, da un modello statico a un modello dinamico, e nacque il modello gerarchico funzionale, il quale aggiunse ai criteri gerarchici, il criterio della competenza. Il primo livello, era costituito dal top management e quindi da un limitato livello gerarchico. Il secondo livello, si differenziava in base alle principali funzioni aziendali (produzione, vendita, amministrazione). I livelli successivi, erano basati sulla responsabilità e autorità, su raggruppamenti di attività omogenee o risorse. Ai criteri gerarchici, si aggiunse il criterio di competenza, che era controllata e coordinata dal top management. In un primo momento, venne instituito un coordinatore di prodotto-progetto, all’interno di ciascun dipartimento, alle dipendenze del capo funzionale, che tuttavia era considerato da parte degli altri colleghi, come un aumento di status e di potere. In un secondo momento, venne creata una task-force di prodotto-progetto, formata dai rappresentanti di ciascun dipartimento funzionale, che esaminava i problemi e prendeva le decisioni. Tuttavia, questa task-force, fu controproducente per vari aspetti, e dunque i capi funzionali, ripresero il controllo sulle decisioni. Per rimediare al modello gerarchico funzionale, venne creato il modello line- staff, nel quale i dipartimenti vennero inglobati in un’unica divisione. Il controllo del prodotto-progetto, era affidato ad uno staff con l’obiettivo di completare il prodotto-progetto, e il project manager venne separato dal capo funzionale, e aveva il ruolo di monitorare le attività riferendo al capo divisione; doveva assegnare i compiti al personale che lavorava nel dipartimento funzionale, e svolgere la funzione di controllo. Il modello divisionale, venne introdotto nel 1920. Tale modello, era innovativo rispetto ai precedenti, in quanto, al di sotto del top management, vi era un project manager per ogni attività raggruppata per prodotto-progetto-mercato, cioè un dirigente aziendale di seconda linea, responsabile delle decisioni strategiche, amministrative ed operative. Nel modello divisionale, dunque vi erano più gerarchie, e si venne a creare una struttura multidivisionale, con personale specializzato nell’ufficio di direzione.

Vennero introdotti due nuovi criteri: la separazione tra attività amministrativa e strategica e la differenziazione interna in base al prodotto-progetto-mercato. I vantaggi erano che: il project manager, aveva la completa autorità su tutti gli elementi del progetto; i partecipanti al progetto lavoravano per il project manager; vi era molta comunicazione; vi era un ottima reattività al tempo; il project manager era un’unica interfaccia con il cliente; l’alta direzione era più libera di fare il proprio lavoro. Gli svantaggi erano che: nel caso di aziende multi progetto, si dovevano sostenere maggiori sforzi, e le risorse erano inefficienti; il coordinamento dei progetti doveva essere elevato; non vi erano trasferimenti di know-how tra i progetti; il personale rimaneva in stand-by finchè non veniva assegnato ad nuovo progetto. Il modello per matrice venne introdotto dopo la II guerra mondiale. La prima versione dell’organizzazione per matrice, fu l’organizzazione per puro progetto o a matrice pura, ovvero, alla struttura gerarchica funzionale, si affiancò una seconda struttura, formata da progetti o gruppi di progetti, che si avvaleva delle risorse umane, della prima struttura, e le gestiva in piena autonomia. Una stessa unità organizzativa, rispondeva a due o tre diverse strutture di autorità e competenza, di cui una era la struttura funzionale e l’altra era una struttura che controllava raggruppamenti di attività. E’ utile ricorrere all’organizzazione matriciale, quando l’output è rappresentato da prodotti complessi, con ciclo di vita breve; quando nei progetti, c’è una forte dose innovativa e devono essere ultimati in poco tempo e quanto i rapidi cambiamenti della domanda, impongono rapidi cambiamenti dei prodotti. La prima versione del modello a matrice, è adatta ad aziende non grandi con pochi progetti, mentre per aziende grandi e con molti progetti, è necessaria una seconda versione del modello, che prevede la presenza del direttore dei projects managers, che deve coordinare i progetti; fornire i mezzi e l’ausilio per l’applicazione del project manager; sovrintendere al planning e ai cambiamenti organizzativi. Il modello del Lean Management, è caratterizzato da un sviluppo di tipo orizzontale e consente la finalizzazione, delle funzioni d’impresa al sistema di obiettivi. E’ una modello molto complesso nel quale vi è un conflittuale, tra responsabilità e autorità. Quindi per un buon funzionamento, serve una forte leadership dei responsabili operativi, e una buona organizzazione. Il modello reticolare, si basa su interazioni e interscambi tra un sistema di imprese, autonome. La grande impresa, si chiede cosa conviene fare dentro (make) e cosa conviene acquistare (buy). Il processo di esternalizzazione, fa nascere un sistema di piccole e medie aziende collegate a rete con la grande impresa. Per la grande impresa, l’organizzazione reticolare avviene attraverso una holding che controlla un successivo livello di strutture autonome, anche se con modelli diversi, quali: un impresa centrale e poli

operativi, che possono o meno far parte dell’impresa centrale; e una macro-impresa, costituita da una rete di piccole e medie imprese.

PROCESSI PRODUTTIVI Un processo produttivo si avvale di macchine e da tutti i fattori per realizzare il prodotto (materie prime, semilavorati, componenti). Ha la capacità di autoregolarsi grazie a flussi in entrata (input) e flussi in uscita (output). Un processo produttivo è condizionato dagli input; dalle risorse interne (lavoratori, macchinari) e dagli output. Richiede l’interazione tra componenti interne ed esterne al sistema. Un processo produttivo può essere orientato al prodotto o alla funzione (processo). Il processo produttivo orientato al prodotto, è indicato per produrre grandi quantità di beni standardizzati. Il processo produttivo è dedicato e automatizzato; il flusso dei materiali è standardizzato. Nel processo produttivo orientato al processo, si da più attenzione al processo che al prodotto. I macchinari sono raggruppati in base alle funzioni da svolgere (stampaggio, verniciatura), tutti i prodotti condividono gli stessi macchinari e il flusso dei materiali è irregolare e varia a seconda del prodotto che si sta realizzando. Sulla base della costruzione di una matrice secondo due variabili (dimensione dei lotti di produzione e tipologie di processo) si possono individuare quattro tipologie produttive: job shop, batch, line, flusso continuo. Un altro metodo per rappresentare gli aspetti comuni e le principali differenze dei diversi processi produttivi è quello basato sulla costruzione della “matrice prodotto- processo”di Hayes e Weekwright. Si individuano cinque tipologie produttive: La produzione a progetto, è un processo produttivo orientato al prodotto. Si realizzano esemplari unici (costruzioni edili, cantieri navali); i lavoratori e i materiali vengono portati e impiegati direttamente sul posto, e per questo i costi sono in genere elevati; i macchinari sono sofisticati, costosi e dedicati La produzione Job-Shop, è un processo produttivo orientato al processo. Si svolgono le stesse funzioni su prodotti diversi; il flusso di lavorazione è irregolare e dipende volta per volta dalla funzione da svolgere. I vantaggi sono la flessibilità produttiva; la scarsa ripetitività del lavoro. Gli svantaggi sono i costi elevati per la movimentazione dei prodotti; la bassa produttività; il controllo complesso della produzione La produzione a Lotti, è un processo produttivo orientato al processo. Si realizzano economie di scala, eseguendo le stesse attività su più prodotti; i macchinari sono raggruppati per funzione; il flusso dei materiali è standardizzato. Tale modello produttivo viene utilizzato per produrre mobili, calzature e abbigliamento La produzione a Linea, è un processo produttivo orientato al prodotto. E’ un modello produttivo con cicli organizzati e automatizzati, orientato ad una produzione continua e di massa, con un flusso di lavorazione continuo. I vantaggi sono i bassi costi di movimentazione dei materiali, in quanto è tutto automatizzato; l’uso di lavoratori non specializzati data la semplificazione dei compiti; le ridotte attività di controllo. Gli svantaggi sono la mancanza di flessibilità; la ripetitività delle operazioni; i costi fissi elevati per l’acquisto di impianti sofisticati e specializzati. La produzione a Flusso Continuo, è un processo produttivo orientato al prodotto. Gli li impianti sono automatizzati e operano come singola unità integrata; sono dotati di poca flessibilità e sono molto costosi. Tale modello produttivo è indicato per produzioni standard, a ciclo rigido immodificabile e molto veloce; viene utilizzato nelle acciaierie, negli zuccherifici, nelle cartiere.

MODELLI PRODUTTIVI I vari modelli produttivi, dopo quello manuale, che si sono susseguiti nel tempo sono stati: La Produzione di Massa (automatizone rigida) che usava macchine in cui entrava sempre lo stesso input ed usciva sempre lo stesso output. La produzione di massa mirava ad ottenere un prodotto standardizzato e di media qualità, le tecnologie produttive erano rigide e la forza lavoro era dequalificata. Il tutto era gestito da un’organizzazione scientifica, gerarchica e piramidale. Tale sistema si sviluppò in seguito a fattori sociali - economici – tecnologici. La lavorazione veniva fatta in serie, in grandi volumi e su anticipo. L’organizzazione del lavoro era caratterizzata dalla netta distinzione tra il management e i lavoratori, con un processo decisionale di tipo top-down; dalla parcellizzazione del lavoro su base funzionale; dalla burocratizzazione delle procedure; dalla struttura rigida L’Automazione Flessibile (sistema automatizzato) è la risposta Occidentale alla flessibilità dell’offerta. Si progettano e si realizzano per via automatica, varietà di prodotti per ampliare la propria gamma di prodotti. Si abbattono i costi attuando politiche di decentramento produttivo, ricorrendo a soggetti terzi per far fronte a picchi di domanda, con il risultato di ammortizzare meglio le variazioni di mercato. Il progressivo passaggio dalla produzione di massa di piccoli volumi, ad una elevata varietà di prodotti è stato determinato dal passaggio dall’economie di scala, alle economie di gamma - dal passaggio dalle curve di apprendimento alla multi specializzazione del personale - dal passaggio dall’efficienza di uomini e macchine, alla flessibilità dell’intero sistema. Si realizzano economie di scopo e gamma che permettono di risparmiare, ottenendo prodotti diversi utilizzando gli stessi fattori produttivi. La Produzione snella (Lean Production) Toyota System (sistema integrato) rappresenta la risposta Orientale ai problemi della produzione di massa. Il Toyota system vuole raggiungere la perfezione, portando i costi ad un livello più basso rispetto alla produzione di massa e all’automazione flessibile. Viene adottata la politica dell’azzeramento, ovvero zero scorte, zero attese, zero blocchi, zero difetti, zero trasporti, zero ordini inevasi, zero ritardi nelle consegne. Qualità e tempo rappresentano fattori strategici molto importanti per differenziarsi dalla concorrenza. Si combatte costantemente la lotta agli sprechi quali sovra-lavorazione - sovrapproduzioni - rilavorazione - giacenza - non sfruttare le idee migliorative degli operatori - trasporto di materiale inutile - spostamenti inutili compiuti dagli operatori - tempi di attesa. Per eliminare gli sprechi ci si affida al kaizen ovvero un miglioramento continuo

mediante la politica dei piccoli passi. In questa strategia di progressiva eliminazione di tutto quanto sia superfluo, non vi è mai un punto di arrivo ma vi è sempre un margine, seppur piccolo, di miglioramento. Il Toyota system, inoltre cerca di identificare il valore per il cliente - comprendere il processo di creazione del valore - creare il flusso del valore - far tirare il flusso del valore dal cliente. Gli assi su cui poggi la produzione snella sono il just in time e il total quality management (TQM)

JUST IN TIME è la tecnica di gestione della produzione a logica pull, che consente di ridurre le scorte, migliorando la qualità dei prodotti e i tempi di attraversamento del processo produttivo. Attraverso JIT si vuole migliorare l’efficienza della produzione combattendo la lotta agli sprechi e migliorando i processi esistenti. Le tecniche del JIT fanno riferimento a cinque aree: del prodotto, del processo, della gestione, dell’organizzazione del lavoro, dei fornitori Gli obiettivi nell’area del prodotto: - semplicità del progetto del prodotto - minor costo del prodotto Gli obiettivi nell’area del processo: - continuità spazio-temporale del processo produttivo - uniformità temporale del mix di prodotto - affidabilità operativa, ovvero alta prestazioni riducendo scarti e guasti Gli obiettivi nell’area della gestione sono quelli più innovativi e permettono la realizzazione di una produzione a flusso a logica pull, alla scopo di portare il più possibile il mercato dentro la fabbrica anziché il prodotto sul mercato. Per raggiungere ciò occorre un livellamento della produzione e un controllo pull del flusso Gli obiettivi nell’area dell’organizzazione del lavoro sono quelli del pieno coinvolgimento e della massima motivazione dei lavoratori, obiettivi realizzati, attraverso la flessibilità della manodopera e dell’autonomia decisionale; attraverso le tecniche dell’allargamento e l’arricchimento delle mansioni. Attraverso l’adeguamento della manodopera alla variabilità della domanda. Gli obiettivi nell’area dei fornitori sono quelli di coinvolgere i fornitori nell’impresa e di accrescere il clima di reciproca fiducia per ottenere alta affidabilità e piena sincronizzazione delle consegne. Tali obiettivi vengono realizzati mediante la riduzione del numero dei fornitori; riducendo la distanza tra fornitore e impresa committente; inoltre il fornitore deve acquistare quote di partecipazione dell’impresa; la certificazione di qualità delle forniture; attraverso rifornimenti a logica pull, a piccoli lotti ad alta frequenza e ad alto assortimento

SISTEMA AUTOMATIZZATO E SISTEMA INTEGRATO Il sistema automatizzato è il modello dominante dell’area Occidentale che ha come obiettivo, il funzionamento autonomo di un ciclo complesso di operazioni, dunque richiede poca manodopera. E’ un sistema non autoadattivo al cambiamento, dove sono possibili solo variazioni ex-post, ossia non in tempo reale. E’ un sistema predisposto sulle punte massime della domanda quindi non regolabile in discesa, ovvero quando la domanda è in diminuzione occorre fermare l’impianto per qualche ora al giorno o rallentare la velocità. Il sistema automatizzato riduce al minimo il costo del lavoro di trasformazione. VEDI AUTOMAZIONE FLESSIBILE Il sistema integrato è il modello dominante dell’area Orientale. E’ un sistema di uomini e macchine con il compito di correggere i rapporti fra tutte le variabili in gioco per ottimizzare i risultati e minimizzare il costo totale. Nel sistema integrato tutte le variabili si influenzano reciprocamente e l’integrazione e’ tanto più elevata quanto più stretto è l’intreccio delle reciproche influenze. Il sistema integrato è una filosofia organizzativa e corrisponde alla tecnica del Just in Time. E’ un sistema autoadattivo al cambiamento. Il sistema integrato, è volto, a minimizzare il costo totale di trasformazione. VEDI TOYOTA SYSTEM

WORLD CLASS MANUFACTURING è un modello produttivo che nasce negli anni 90. E’ una sorta di rivisitazione del modello Toyota in chiave Europea. Tale modello può essere descritto più come una sintesi tra il modello Toyota basato sull’assunzione di responsabilità da parte degli operatori, e di quello taylorista, fondato sulla precisa e puntuale misurazione dei tempi e delle mansioni. Si tratta di un sistema, che come il modello Toyota, mira a ridurre errori e sprechi all’interno del processo produttivo, errori e sprechi visti come causa di sfasamento temporale e quindi di calo di produttività. Si cerca di abbattere costi, tempi, attese, scorte. Un altro obbiettivo, come il modello Toyota, è quello dell’orientamento al cliente, ovvero cliente visto come soggetto da soddisfare ad ogni costo. Si punta al continuo miglioramento attraverso la riduzione dei costi delle inefficienze. Gli operatori devono essere coinvolti all’interno della vita aziendale e a loro vanno destinati investimenti per la formazione e all’aggiornamento continuo. Vengono svolti programmi di manutenzione preventiva che possono scongiurare il rischio di interruzione dell’attività a causa di un malfunzionamento di un macchinario. Le novità introdotte dal WCM rispetto al modello Toyota o al Taylorismo, sono l’attenzione alla sicurezza e alla riduzione del numero di incidenti e la competizione fra stabilimenti differenti che appartengono allo stesso gruppo. Inoltre come il modello Toyota anche il WCM si basa su concetti quali Just in Time, Total Quality Management e il coinvolgimento dei dipendenti.

PRODUZIONE MODULARE è intesa come la capacità di un sistema di essere suddiviso in diversi componenti senza danneggiare l’integrità del sistema. Gli obbiettivi sono gli stessi della produzione snella, cioè alta flessibilità, alta qualità, abbattimento di tempi e costi. La produzione modulare è caratterizzata da una struttura reticolare, dove non esiste una sola impresa ma si crea un’impresa virtuale come somma di più imprese che scambiano conoscenze e competenze al fine di raggiungere la massima efficienza. Diverse aziende lavorano ciascuna per la propria parte a vantaggio di un unico sistema. Si crea dunque un sorta di azienda olonico-virtuale. Olonica perché l’azienda può cambiare configurazione a seconda delle esigenze e virtuale perché non esiste un'unica azienda ma esiste un sistema di aziende. Nella produzione modulare si determina un’esternalizzazione (outsourcing) di alcune attività che restano all’interno del sistema di produzione. Due sono i concetti chiave: modularità di processo e modularità di prodotto. La modularità di Processo fa riferimento alla cessioni di fasi della produzione, tecnologie e lavoratori. Intere fasi del processo produttivo vengono cedute ad imprese terze e ne diventano proprietà pur continuando ad operare all’interno degli stabilimenti dell’azienda committente. La fabbrica modulare è rappresentata da un organizzazione in cui aziende differenti operano in uno spazio comune. Sulla stessa linea di produzione si trovano a lavorare operatori che di fatto sono dipendenti di imprese diverse La modularità di Prodotto fa riferimento alla cessione di interi componenti che vanno a costituire il prodotto finito, che sono ottenuti da aziende differenti. Nella modularità di prodotto vi è molta competitività sul mercato e vi è una rapida risposta alle richieste del cliente grazie alla possibilità di personalizzare il prodotto e garantire tempi di esecuzione più che competitivi. All’interno della produzione modulare svolgono un ruolo molto importante la tecnologia; la logistica e l’organizzazione. La tecnologia è un elemento molto importante per quanto riguarda lo scambio di informazioni e dati, relativi alla produzione tra imprese committenti e imprese terziarie. Si può ottenere la massima efficienza solo grazie ad un attento e accurato controllo informatico dello svolgimento dei processi produttivi. Molta importanza, ha l’approvvigionamento delle imprese con le aziende fornitrici, per poter garantire il livello di zero scorte. La logistica svolge un ruolo di grande importanza per garantire la riduzione dei tempi di attesa. Gli operatori logistici, devono essere incorporati all’interno della catena di fornitura, per consentire al sistema, di operare con la massima efficienza L’organizzazione assume una connotazione diversa rispetto al passato, in quanto adesso i lavoratori non rispondono più tutti allo stesso committente ma sono dipendenti di aziende diverse e sono orientati alla ricerca della massima competitività

GESTIONE DELLA PRODUZIONE La gestione della produzione prevede: La pianificazione, cioè stabilire obiettivi e strategie, politiche, programmi e procedure necessarie per conseguire tali obiettivi. La programmazione, cioè stabilire cosa deve essere effettuato, in che quantità e in che tempi. Il controllo, cioè stabilire quanto produrre, dove produrre, come produrre, inoltre controlla le operazioni ed evidenzia rapidamente errori nel sistema di produzione e li corregge PIANIFICAZIONE Per controllare la produzione esistono vari piani: piano strategico aziendale; piano strategico della produzione; piano aggregato; piano principale della produzione (master schedule) Il piano strategico aziendale è un piano di lungo periodo (3-10 anni), e si suddivide in: - piano finanziario, ovvero come finanziarsi - piano R&S, ovvero quali nuovi prodotti introdurre e quali miglioramenti apportare hai prodotti esistenti - piano di produzione, attraverso il quale si devono reperire i lavoratori e i materiali per la produzione Il piano strategico della produzione è un piano di lungo periodo (3-5 anni). Cerca le risorse necessarie (tipi di impianti, capacità professionali) per conseguire gli obiettivi previsti dal piano strategico aziendale Il piano aggregato è un piano a medio termine con orizzonte temporale minimo 1 anno. Controlla se la domanda di beni è aumentata o meno, e decide se attuare o meno una politica di costituzione delle scorte. E’ costruito sulla base degli ordini dei clienti, delle previsioni delle vendite. L’obiettivo è pianificare la produzione con anticipo sufficiente a gestire tutte le risorse del medio periodo e di adeguare la capacità produttiva alla domanda aggregata Il piano di produzione principale (Master Schedule) è un piano di breve periodo (1-6 mesi). Stabilisce quali, quanti e quanto i prodotti debbono essere realizzati. Si chiama principale perché da esso si possono ricavare tutti gli altri piani di produzione e si ottiene per disaggregazione del piano aggregato lungo le dimensioni tempo e prodotto. Il piano principale di produzione si ricava dagli ordini dei clienti e dalle previsioni. Si suddivide in 3 zone di tempo con livelli di dettaglio diversi. - nella zona 1 il livello di dettaglio è massimo. Il piano di produzione è definito sulla base delle commissioni effettivamente prenotate dai clienti o dalle previsioni a breve termine per rifornire il

magazzino. I dati richiesti dal sistema fanno riferimento a prodotti finiti e quindi si può usare una comune, distinta materiali - nella zona 2 il livello di dettaglio è intermedio. Le commesse dei clienti non sono prenotate o lo sono solo in parte o in quantità inferiori alla capacità produttiva. Per compensare dunque la perdita di precisione, delle previsioni, bisogna trasferire i dati delle previsioni e del piano di produzione, alle famiglie di prodotti - nella zona 3 il livello di dettaglio è minimo. Bisogna far riferimento a grandi gruppi di prodotti o all’intera linea di prodotti ed è necessario stabilire nuove relazioni tra gruppi di prodotti e materie prime, il che comporta un ulteriore definizione della distinta base

CONTROLLO Il controllo della produzione, deve garantire assemblaggi accurati di prodotti; deve comunicare ai lavoratori e ai manager informazioni rapide e precise sullo stato delle ordinazioni, dei materiali e della produzione, per consentire rapide azioni correttive; stabilisce le priorità da svolgere. Il controllo della produzione si suddivide in: controllo della priorità, controllo e le della capacità, sheduling.

CONTROLLO DELLA PRIORITA’ da informazioni rapide e precise sullo stato della produzione e sulla disponibilità di materiali e componenti. Il controllo delle priorità, deve stabilire le priorità di lavorazione, di prelievo e di movimentazione dei materiali. Le priorità di lavorazione, tuttavia cambiano in continuazione sia per ragioni esterne che interne alla fabbrica. Tra le ragioni esterne vi sono: le nuove norme di sicurezza, che portano alla riprogettazione delle specifiche dei materiali o del loro disegno; le nuove esigenze dei clienti, che possono cambiare le specifiche, le quantità, anticipare, ritardare, cancellare l’ordine; le forniture errate di componenti; la perdita di componenti durante i trasporti. Tra le ragioni interne vi sono: il ciclo di lavorazione non corretto; lotti errati; scarti di lavorazione eccedenti; difetti dovuti un controllo di qualità non adeguato; smarrimento degli ordini Le tecniche usate per il controllo delle priorità sono: il Dispatching; il Kanban; il Syncro-MRP Il Dispatching consiste nel preparare una lista delle priorità da eseguire. E’ indicato per produzioni non ripetitive a logica push. Il dispatching fissa alcuni parametri (data di consegna dell’ordine, tempo di lavorazione) ed autorizza la movimentazione dei materiali dal magazzino, al primo centro di produzione, dove i pezzi, a lavorazione eseguita, vengono spinti al centro di lavorazione successivo, secondo la lista delle priorità Il Kanban introdotto in Giappone dalla Toyota, è indicato per produzioni ripetitive a logica pull. Nel kanban svolgono una funzione molto importante tre cartellini: il cartellino di identificazione (indica cosè il prodotto); il cartellino di istruzione (indica quale prodotto, per quanto e in che quantità deve essere realizzato); e il cartellino di trasporto (indica il luogo di prelievo e di destinazione del prodotto). Molto spesso però si usa il kanban a due cartellini: il kanban-prelievo che corrispondente al cartellino identificativo e di trasporto e il kanban-produzione che corrispondente al cartellino identificativo e d’istruzione. In ogni centro di lavoro sono collegate delle cassette per raccogliere sia i kanban-prelievo e sia i kanban-produzione e il numero di kanban presenti nelle due cassette rappresenta il quantitativo esatto di pezzi che si deve produrre. I contenitori delle scorte iniziali (materie prime) hanno tutti attaccato un kanban-prelievo. Il centro di lavoro preleva un contenitore, stacca il kanban che vi è attaccato e lo deposita nell’apposita cassetta produzione. Tuttavia anche i contenitori delle scorte finite (prodotti finiti) hanno tutti attaccato un kanban-produzione, che viene prelevato e portato al centro di lavoro a valle (linea di montaggio). Il kanban-produzione può essere deposto in una rastrelliera, divisa per tipologia di prodotto. Il kanban è dunque un sistema di controllo, che permette una visuale perfetta delle funzioni, del sistema di produzione. La differenza tra il kanban e il dispatching, sta nel fatto che l’assegnazione delle priorità nel kanban è stabilita dai kanban- produzione, e in questo modo secondo la logica pull, i materiali vengono tirati dal centro di produzione a monte a quello a valle.

Il Syncro-MRP è una tecnica di controllo mista che fa riferimento sia al dispatching che al kanban, quindi sia a produzioni ripetitive, sia a produzioni non ripetitive. Il Syncro-MRP è indicato per produzioni semiripetitive a logica push-pull. Il Syncro-MRP prevede la preparazione di un programma master di guida del sistema MRP, con periodicità di 10 giorni. Il Syncro-MRP fornisce ad ogni centro di produzione ripetitivo, dei cartellini denominati Syncro e fornisce un programma giornaliero delle parti che bisogna produrre. Il Syncro-MRP fornisce invece ai centri di produzione non ripetitivi, una dispatching, una lista giornaliera con date previste e priorità. L’autorizzazione a produrre un altro contenitore standard, richiede che sia prevista nel programma, la preparazione di un contenitore standard per quel giorno, che il materiale necessario sia disponibile e che uno o più cartellini Syncro siano pervenuti da centri di lavorazione a valle. Nel Syncro-MRP, l’uso effettivo dei materiali viene sincronizzato con una procedura simile al kanban. Il Syncro-MRP programma le fasi a monte e a valle del processo produttivo.

CONTROLLO DELLA CAPACITA’ verifica se i centri di lavorazione sono in grado di soddisfare o meno la capacità produttiva pianificata, in quanto molto spesso una produzione apparentemente fattibile, non è realizzabile, in quanto i mezzi a disposizione dell’azienda non sono sufficienti per la produzione. Per sapere se un piano di produzione è fattibile, è importante misurare la capacità effettiva dell’impresa, e confrontare questa capacità con i livelli pianificati, e così facendo si può rilevare la quota di sovra o sottoutilizzazione, del centro di lavorazione, e attuare azioni correttive. Il controllo della capacità, si suddivide in: controllo della capacità produttiva effettiva e controllo della capacità produttiva pianificata

La capacita produttiva effettiva rappresenta la massima quantità di prodotto finito, che è possibile ottenere La capacità produttiva pianificata rappresenta la quantità di prodotto finito, che si prevede ottenere. Confrontando la capacità produttiva effettiva e la capacità produttiva pianificata si determina la quota di sovra o sotto utilizzazione dell’impianto. Se la capacità produttiva effettiva è superiore alla capacità produttiva pianificata, si sta producendo meno di quello che è la quantità massima effettivamente raggiungibile, e dunque, gli impianti sono sottoutilizzati Se la capacità produttiva effettiva è inferiore alla capacità produttiva pianificata, si sta producendo di più di quello che è il carico massimo sopportabile dagli impianti, che si dicono sovrautilizzati. Nel caso di sotto utilizzazione degli impianti corre far ricorso al subappalto, al lavoro straordinario, ridistribuire la forza lavoro e rivedere il piano di produzione. Nel caso di sovra utilizzazione degli impianti, occorre ridurre l’orario di lavoro, ridurre l’organico, ridurre i subappalti, ridistribuire la forza lavoro e rivedere il piano di produzione

SHEDULING – STRUMENTI VISIVI DI CONTROLLO Per scheduling si intende l’allocazione delle risorse in tempi ben precisi, allo scopo di raggiungere determinati obiettivi, ad esempio massimizzare il tasso di utilizzo delle macchine e della manodopera; minimizzare i tempi di attraversamento (lead Time) e minimizzare le scorte, i componenti e i semilavorati; rispettare i tempi di evasione degli ordini. Per il controllo dello Sheduling si possono seguire due vie: - la programmazione a capacità infinita, ovvero programmare gli ordini in base all’effettiva capacità degli impianti, per verificare se la capacità produttiva di cui si dispone è sufficiente o meno a soddisfare gli ordini. Se il sovraccarico è troppo elevato occorre rivedere gli ordini, in caso contrario si procede ad evaderli. Eventuali deficit vengono rimossi facendo ricorso agli straordinari o alla subfornitura. - la programmazione a capacità finita, ovvero programmare gli ordini in base alla reale capacità degli impianti. Nella programmazione a capacità finita non si hanno deficit di capacità, ma si stimano le date di consegna degli ordini. Gli strumenti visivi usati per il controllo dello sheduling sono il controllo a diagonale e il controllo a colonna. Il controllo a diagonale riporta l’avanzamento della produzione, lungo una diagonale. Le lavorazioni in programma formano una diagonale che parte dall’angolo in alto a destra e arriva all’angolo in basso a sinistra. Le lavorazioni in ritardo sono rappresentati dalle linee sopra a sinistra della diagonale formata dalle lavorazioni che sono al punto giusto in tabella. Le lavorazioni che sono più avanti sono rappresentati dalle linee sotto a destra della diagonale. Il controllo a colonna indica l’avanzamento della lavorazione lungo una colonna che rappresenta il giorno corrente di lavorazione. Mostra le lavorazioni che sono state programmate in differenti giorni di produzione e la cui durata varia. La durata è indicata dall’intero rettangolo, mentre la produzione già conclusa è indicata dalla parte scura dei rettangoli.

Il Lead Time è il periodo, compreso, tra l’inizio della prima attività e la fine dell’ultima attività, di un ciclo di produzione. Il lead time è dato dalla somma dei tempi necessari, per compiere tutte le attività sequenziali (attività operative, i set-up, i controlli, le attese, i trasporti). Un buon lead time consente all’impresa: di rimanere competitiva nei riguardi della concorrenza; di ridurre i costi di produzione, attraverso una maggiore incidenza dei costi di gestione della produzione; di mantenere i clienti, soddisfatti da una consegna rapida del prodotto

TECNICHE DI PREVISIONE Le previsioni, sono tanto più affidabili quanto maggiore è la popolazione statistica. Per ragionare su grandi numeri è necessario ricorrere all’aggregazione lungo due dimensioni: il tempo e il prodotto. Aggregando lungo la dimensione tempo si hanno diversi orizzonti temporali di vendita. Aggregando lungo la dimensione prodotto si ottengono diverse previsioni di vendita di una famiglia di prodotti finiti, per omogeneità di prodotto o segmento di commercio. Le tecniche di previsione si dividono in quantitative e qualitative. Le tecniche di previsione quantitative, utilizzano due modelli: Modelli basati sulle serie storiche, che si basano su dati quantitativi, della storia passata della domanda, e cercano di isolare i trend che ci si aspetta di veder ripetuti in futuro Modelli casuali, che oltre ai dati di serie temporali sulla domanda, utilizzano dati di serie temporali basati su altre variabili I modelli basati sulle serie storiche si dividono in tre classi: Regole semplici, che si basano sulla domanda di periodi precedenti. Identificazione e scomposizione del trend, che si basano su regole più sofisticate di quelle semplici. Si elaborano i dati della storia passata, cercando di eliminare le variazioni e mettendo in evidenza il trend generale, isolando le componenti casuali delle variazioni nella domanda passata. Utilizzo ponderato dei consuntivi di rendita recenti, che si serve di quattro tecniche: Media mobile: il valore di previsione è la somma ponderata dei valori reali passati. Attenuazione esponenziale: si basa solo sulle previsioni passate e sulla domanda corrente per fare previsioni sulla domanda futura. Filtri adattivi: è una tecnica più raffinata, perché utilizza medie ponderate delle domande effettive passate, con i pesi che variano da periodo a periodo in modo da ridurre il margine dell’errore di previsione. Box-jenkins: è una tecnica ancora più sofisticata e molto complessa, che utilizza una grande quantità di dati, per previsioni di lungo periodo I modelli casuali si dividono in due classi: Regressioni a equazioni singole, dove il termine di previsione, chiamato variabile dipendente, si ipotizza che vari in modo sistematico con una o più variabili indipendenti, costruite con l’uso di dati di serie temporali, con i valori passati della variabile dipendente e con variabili di comando. L’analisi di regressione, approssima, la variabile indipendente alla variabile dipendente, utilizzando i dati storici, ciò comporta la stima dei coefficienti delle variabili indipendenti del modello. La previsione, può essere effettuata assegnando, valori futuri attesi, alle variabili indipendenti e risolvendo l’equazione stimata per il valore della variabile dipendente. Regressioni a equazioni multiple (modelli econometrici), fa riferimento a un insieme di equazioni di regressione, dove alcune variabili dipendenti in un’equazione, diventano variabili indipendenti in altre equazioni, e i dati sulla domanda sono costosi e la stima è difficile.

Le tecniche di previsione qualitative si basano su metodi di previsione differenti, basati sull’esperienza di particolari persone, il più diffuso è il Metodo Delphi che utilizza un insieme di esperti, ai quali vengono sottoposte delle domande e le risposte vengono successivamente raccolte e classificate, e vengono passate al gruppo di esperti che elabora un’altra serie di previsioni, sulla base delle informazioni raccolte. Le risposte vengono di nuovo raccolte, riassunte e diffuse, finchè non si raggiunge il consenso generale. Le tecniche quantitative, di serie temporali semplici, sono facili da usare e si applicano a previsioni di brevissimo periodo su singoli modelli di prodotto e sulle loro modificazioni. Le tecniche quantitative, di serie temporali complesse, si usano quando esistono diverse componenti di trend nei dati. Le tecniche causali e qualitative sono usate nell’orizzonte temporale più lungo; in particolare le tecniche qualitative sono necessarie quando le previsioni non possono essere basate sulla storia passata. Poiché spesso le previsioni sono sbagliate, è necessario, per costruire un piano principale di produzione valido, effettuare un overplanning, una sovra-stima, ossia un aumento della quantità da produrre, un eccesso di scorte, tuttavia questo procedimento è controllato e consente flessibilità produttiva. Per disporre di un buon piano di produzione è necessario disporre di previsioni precise; applicare l’overplanning ai componenti a basso grado di prevedibilità; suddividere il piano in zone temporali. Occorre disporre di previsioni affidabili, per scegliere bene l’articolo di programmazione: - Nel caso di una realtà produttiva, tipo Cantiere navale (molti input pochi output) l’articolo del piano pricipale di produzione è il prodotto finito e il sistema di pianificazione dei materiali si ha a monte. - Nel caso di una realtà produttiva, tipo Cartiera (pochi input molti output) la pianificazione inizia a valle, cioè a livello dei prodotti iniziali per soddisfare i fabbisogni dei diversi prodotti finali. - Nel caso di una realtà produttiva, tipo Industria automobilistica, si esegue una programmazione a livello di moduli, lasciando ad una altra fase di specificare il prodotto finito che si vuole produrre attraverso distinte basi modulari.

PROJECT MANAGEMENT Un progetto nasce individuando un obiettivo, che l’azienda traduce in progettazione ed esecuzione di un’opera, inoltre molto importante è la realizzazione in tempo del progetto, per rispettare le date di scadenza. Il project management può essere definito come un insieme di uomini, risorse e fattori organizzativi, riuniti temporaneamente, per raggiungere obiettivi unici e con vincoli limitati di tempo, costo, qualità e risorse. Il project management è indicato per realizzare grandi opere civili ed industriali, ma anche per realizzare stabilimenti “chiavi in mano”, grandi sistemi urbanistici, servizi, macchinari, sistemi di trasporto, magazzini automatici, supermercati, software, ed è utilizzato anche nel settore aerospaziale, agricolo, bancario e delle telecomunicazioni. Per pianificare un progetto, si analizza l’ambiente interno (capacità dell’organico, disponibilità di risorse e tecnologie, previsioni di vendita) ed esterno (situazione economica, sociale, politica, legislativa, quadro tecnologico, situazione competitiva, situazione dei mercati, livelli di concorrenza). Il ciclo di vita di un progetto comprende le fasi di fattibilità, realizzazione, esercizio, smantellamento. Importante è raggiungere il punto di pay back period, dove i flussi di cassa positivi, sono uguali a quelli negativi. Verificata la fase di fattibilità, vi è la fase di realizzazione, dove è necessario predisporre un piano che evidenzi cosa fare, come, quando e a che costo. Le tecniche di pianificazione di un progetto sono: La tecnica di H. Gantt, dove il progetto viene rappresentato su un piano cartesiano dove, sull’asse delle ordinate vengono riportate le attività, e sull’asse delle ascisse le unità di tempo. La rappresentazione grafica, delle attività, è data da delle barre, con date di inizio e fine lavori. La tencina del W.B.S (work break down structure), dove il progetto viene rappresentato graficamente, dividendo il lavoro in vari livelli, ottenendo così una struttura gerarchica ad albero rovesciato. Questa tecnica è utile per progetti dove la quantità dei dati e la complessità delle informazioni, non consente l’uso di metodi tradizionali. Attraverso questa tecnica, prima si individuano programmi legati da pochi vincoli, poi si individuano le persone fisiche o giuridiche, poi le operazioni omogenee ed infine le operazioni elementari che possono presentare un eccessivo frazionamento, che appesantisce la struttura o un ridotto frazionamento, cioè il rischio di tralasciare importanti interconnessioni. Questa tecnica inoltre è un ottimo strumento operativo e di governo. La tecnica reticolare, basata sulla teoria dei grafi, che utilizza dei simboli (punti o nodi, linee o archi, orientati o no) per rappresentare una data situazione. I punti rappresentano luoghi, persone, eventi; le linee rappresentano itinerari, parentele, legami. Le principali tecniche reticolari sono: Il Critical Path Method (C.P.M) (metodo del sentiero o cammino critico), dove la sequenza delle operazioni è rappresentata da un diagramma di precedenza, cioè un reticolo logico a rappresentazione frecce e nodi o arrow, che indica che alcune attività devono precede altre, e che molte attività possono procedere insieme. Il C.P.M opera unicamente per operazioni in serie o parallele e non tiene conto dei tempi di attesa tra due operazioni.

Il Metra Potential Method (M.P.M), dove il nodo rappresenta l’attività con la sua durata, e l’arco descrive il tipo di legame con cui l’attività è correlata alle altre. Il M.P.M consente una maggiore flessibilità dei legami, e la possibilità di inserire ritardi o sovrapposizioni tra le attività. Nelle tecniche C.P.M e M.P.M la durata delle attività è certa. Il Program Evaluation and Review Technique (P.E.R.T), dove la attività hanno durata incerta. Ogni attività ha una durata normale (probabile), una durata minima (ottimistica), una durata massima (pessimistica) ed una serie di elaborati calcoli di probabilità per individuare il più probabile cammino critico e la più probabile durata totale del progetto. Il Graphical Evaluation and Review Tecnique (G.E.R.T), dove è possibile trattare un’attività che presenta incertezza dal punto di vista della durata-costo e della realizzazione. La schedulazione delle risorse, unisce il fabbisogno di progetto con la disponibilità aziendale, minimizzando il divario in base a vincoli temporali e quantitativi. La scelta del vincolo dipende dal confronto fra il maggior costo dovuto al ritardo, e il maggior costo dovuto alle risorse aggiuntive. Le schedulazione opera tramite un algoritmo di simulazione che cerca posizioni nel tempo, delle attività che riducono meglio il sovraccarico di tutte le risorse che partecipano allo scheduling. Le curve ad S (curve di costo), verificano i costi, al variare degli stati di avanzamento, evidenziando quanto costo è dato dall’aumento dei prezzi e quanto è dato dalla diminuzione delle rese delle risorse. Attraverso questo strumento si può correlare l’avanzamento dei lavori con i costi sostenuti, rispetto a quelli previsti, consentendo di fare proiezioni a chiudere per conoscere il costo e la data di fine progetto.

PIANIFICAZIONE E GESTIONE DEI MATERIALI La pianificazione dei fabbisogni dei materiali, stabilisce il tipo e la quantità dei materiali richiesti; i tempi entro i quali dar avvio agli ordini di approvvigionamento e fabbricazione; la fattibilità del piano principale di produzione. I materiali, sono suddivisi in due classi: materiali a domanda indipendente (prodotti finiti) il cui consumo non è correlato al consumo di altri materiali e materiali a domanda dipendente (materie prime e semilavorati) il cui consumo è correlato al consumo dei materiali a valle. La gestione dei materiali a domanda indipendente viene effettuata a scorta, mentre quella dei materiali a domanda dipendente viene effettuata a fabbisogno. La gestione a scorta, serve a ridurre gli ordini di approvvigionamento e a cautelarsi nei riguardi dell’imprevedibilità dei consumi e dei tempi approvvigionamento. La gestione delle scorte, fa riferimento a concetti quali: l’entità massima di scorta; il punto di riordine; la quantità da riordinare. L’entità massima di scorta, deve essere ben pianificata, in quanto una carenza di scorte ferma la produzione, mentre un eccesso di scorte aumenta i costi e riduce la redditività, quindi è necessario raggiungere un sorta di equilibrio tra i due. Il costo di mantenimento delle scorte cresce al crescere del livello delle giacenze di magazzino, mentre il costo di emissione diminuisce al crescere della giacenza media. La gestione dei materiali a domanda indipendente, avviene tramite metodi statistici non anticipatori, che gestiscono le scorte basandosi su informazioni relative alla storia passata del magazzino o tramite metodi statistici anticipatori, che gestiscono le scorte sulla base di previsioni della domanda futura. Questi metodi hanno lo scopo di calcolare le dimensioni del lotto di riordino e l’intervallo di riordino (quanto e quando ordinare). La gestione a fabbisogno (MRP-I) è una tecnica informatica, che consente di determinare il fabbisogno di materiali e componenti a domanda dipendente, il cui consumo è fortemente correlato con la produzione a valle. Gli obiettivi della gestione a fabbisogno tendono a diminuire le scorte e i tempi di flusso dei materiali; aumentare la produttività; diminuire gli acquisti. L’efficacia della tecnica MRP dipende dal piano di produzione del prodotto finale, dalla distinta base, dal livello attuale delle scorte, dal tempo di approvvigionamento o di produzione, dal programma di assemblaggio, dal lancio in ordine ai singoli centri di produzione, dai costi standard e dal loro continuo aggiornamento.

CONTROLLO E COSTI DI QUALITA’ NELLA FASE DI CONTROLLO Il controllo della qualità, deve garantire il raggiungimento degli obiettivi di qualità dell’azienda, ovvero la conformità delle norme e specifiche di fabbricazione, e la riduzione dei costi della qualità. Il controllo della qualità è affidato all’ispettore, che ha il compito di verificare che materie prime, prodotti intermedi e prodotti finiti siano conformi agli standard prefissati. L’attività della funzione di ispezione, è il collaudo, che individua e scarta i prodotti difettosi. Con la nascita della produzione di massa, le imprese non posso controllare l’intera produzione, e quindi effettuano un controllo a campione, che può ridurre al minimo, ma mai eliminare del tutto la difettosità del processo produttivo, in quanto un certo numero di imperfezioni sfuggirà sempre alle ispezioni. I costi della qualità si dividono in: costi della difettosità e costi del controllo. I costi della difettosità, includono quei costi attribuibili all’assenza di qualità, e si dividono a loro volta, in costi interni e costi esterni. I costi interni (scarti, riparazioni, rilavorazioni, scorte supplementari, prove, ispezioni), sono i costi che il produttore sostiene prima che il prodotto arrivi sul mercato. I costi esterni (beni respinti dal cliente, reclami, garanzia, richiamo dei prodotti), sono i costi che l’impresa sostiene a causa di difetti non individuati, durante la fase di controllo ed ispezione e che vengono rilevati dal cliente a consegna avvenuta. I costi del controllo, invece, si dividono in: costi di ispezione e costi di prevenzione. I costi di ispezione (sorveglianza dei fornitori, assicurazione interna della qualità, certificazioni, sistemi di misurazione, stock di risorse utilizzate per i test distruttivi), sono i costi che l’impresa sostiene per monitorare la qualità dell’offerta e il controllo sulla conformità dei prodotti, prima che questi arrivino sul mercato con qualche difetto. I costi di prevenzione (formazione del personale, sviluppo ed applicazione di sistemi di raccolta, registrazione e analisi dei dati, realizzazione di piani di miglioramento), sono i costi che l’impresa sostiene per minimizzare l’insorgere di problemi che possono provocare una perdita di qualità. I costi della difettosità decrescono al crescere della qualità. I costi del controllo aumentano all’aumentare del livello qualitativo dell’output. Il costo totale della qualità, è dato dalla somma dei costi della difettosità e quelli di controllo.

MPR-II è una tecnica di gestione della produzione a logica push. L’MRP-II è un sistema di pianificazione, programmazione e controllo di tutte le risorse, che tramite le tecnologie informatiche, consente la gestione dei flussi informativi e l’esecuzione dei processi, in piena automazione. L’MRP è formato di cinque fasi: SOP; MPS; MRP-I; CRP; SFC SOP (piano aggregato), ovvero l’attività di pianificazione delle vendite e delle attività produttive, che riceve come input i livelli di scorta e i volumi complessivi, provenienti dalle scelte strategiche. Viene formalizzato un piano operativo e delle vendite che definisce i volumi produttivi per macrofamiglie di prodotti finiti, su un orizzonte di medio periodo. Il piano consente un dimensionamento di massima della capacità aggregata e la proiezione dei livelli di stock di riferimento. MPS (piano principale di produzione), ovvero dal piano operativo e dalle vendite si definisce il piano principale di produzione, che viene riaggiornato con frequenza settimanale, con un orizzonte superiore al massimo lead time di approvvigionamento. Il piano principale di produzione, consente una pianificazione su basi realistiche.

MRP-I (piano dei fabbisogni di materiale) ricevendo in ingresso il piano principale di produzione, l’MRP- I restituisce in uscita la pianificazione verso i fornitori e verso la fabbrica. A differenza dell’MRP-II, l’MRP-I attiene solo alla pianificazione dei materiali. CRP (pianificazione dei fabbisogni di capacità) ha l’obbiettivo di valutare la richiesta di capacità del piano di produzione. Lo strumento in uscita, è il piano di fabbisogno di capacità. SFC (controllo delle priorità e delle capacità) sono strumenti di sequenziazione e di schedulazione che consentono un’assegnazione dei lavori ai centri e il controllo di officina come primo resoconto di feedback sull’attività produttiva. L’allocazione delle lavorazioni ai centri di lavoro avviene sulla base di tecniche euristiche o di ottimizzazione.

TECNICHE DI GESTIONE DELLA PRODUZIONE PUSH-PULL Le tecniche di gestione della produzione sono la tecnica Push e la tecnica Pull. Il termine push (spingere) significa fare un’azione in anticipo rispetto al fabbisogno. I materiali entrano in fabbrica in via anticipata per garantire così il tempo di consegna richiesto dal mercato. La produzione avanza sulla base delle previsioni. Nei sistemi produttivi a logica push il tempo di produzione (Production Time), ovvero il tempo complessivo che va dal momento in cui vengono ordinate le materie prime a quello i cui vengono trasformate in prodotti finiti è maggiore al tempo di consegna (Delivery Time), ovvero il tempo che vi è tra il momento in cui il cliente ordina un prodotto e il momento in cui questo gli viene consegnato; questo perché dal momento che la produzione si avvia in anticipo rispetto al fabbisogno, nel momento in cui perviene la domanda dei clienti, i prodotti richiesti sono già disponibili. Il piano pricipale di produzione si estende lungo un orizzonte temporale pari al tempo di produzione. L’intervallo P – D deve essere gestito tramite previsioni; il rischio per l’impresa è tanto maggiore quanto più grande è l’intervallo P – D. Il termine pull (tirare) significa fare un’azione su richiesta. I materiali vengono tirati dentro dagli ordini presenti in portafoglio e la produzione viene regolata dai fabbisogni a valle del processo produttivo. Nei sistemi a logica pull il tempo di consegna (Delivery Time) è maggiore-uguale al tempo di produzione (Production Time), ovvero il piano principale di produzione è soddisfatto dagli ordini in portafoglio. La logica pull consente di ridurre le scorte, avendo un Production Time inferiore al Delivery Time. Le prime fasi del processo (i semilavorati) vengono gestite in logica push, mentre quelle finali vengono gestite in logica pull. Il punto di transazione tra le due logiche si chiama cerniera, che ha la funzione di disaccoppiare le fasi a valle in logica pull e quelle a monte in logica push. La cerniera è un magazzino di semilavorati, che va collocata nell’istante P – D. Dal punto di vista del numero delle varianti di prodotti da gestire, si hanno tre forme di riferimento: a cono rovesciato, cioè molte materie prime in entrata e pochi prodotti finiti in uscita, come in un cantiere navale; a cono, cioè poche materie prime in entrata e molti in uscita, come in una cartiera; a coni affacciati, cioè poche materie prime in entrata e molti prodotti in uscita, come in una fabbrica di automobili

TOTAL QUALITY MANAGEMENT Dopo la seconda guerra mondiale, l’industria orientale e quella occidentale si evolvono in due direzioni opposte. Le imprese americane puntano sullo sviluppo tecnologico e sulla produzione di massa. Le imprese giapponesi, invece, adottano una nuova filosofia di gestione, il Company Wide Quality Control (CWQC), che si pone come obiettivo, la soddisfazione del cliente ed il miglioramento continuo, attraverso la qualità, ovvero fornire elevata qualità dei prodotti, ad un prezzo competitivo. Le imprese occidentali, non hanno avuto una immediata percezione del pericolo della concorrenza orientale, solo successivamente hanno realizzato la necessità, di combattere la concorrenza giapponese, con la sua stessa arma, la qualità. In occidente nasce dunque, il Total Quality Management (TQM), che riprende il concetto di qualità e lo traduce più correttamente in termini di quality management. Da una visione prettamente incentrata sulla produzione, ovvero massimizzare la quantità, si passa ad una visione incentrata sulla qualità, ovvero massimizzare la qualità. I principi su cui si basa il TQM sono: L’orientamento al cliente, ovvero la soddisfazione del cliente è una priorità assoluta rispetto alla produzione; ogni organizzazione deve essere pensata, tradotta e strutturata con l’obiettivo di soddisfare i clienti, in quanto dal soddisfacimento del cliente dipende il miglioramento del profitto dell’impresa. Il miglioramento continuo (kaizen), ovvero un processo continuo, che ha l’obiettivo di ridurre errori e sprechi e accrescere le performance. Per raggiungere il miglioramento continuo, è necessario diffondere la cultura del monitoraggio sistemico di tutti i processi e di tutte le attività realizzate, per

evidenziare i punti di debolezza. Il kaizen, analizza in continuazione le cause che determinano effetti indesiderati, e attua interventi per il loro risanamento, così da raggiungere prestazioni sempre più elevate. Le quattro fasi del Ciclo di Deming (Plan, Do, Check, Act), rappresentano l’approccio metodologico, che si deve attuare per rendere operativo il miglioramento continuo. Durante la fase del Plan, si pianificano le azioni di miglioramento e si stabiliscono le priorità di intervento. Durante la fase del Do, si applicano le azioni di miglioramento pianificate, ovvero si procede ad attuare il Plan. Durante la fase del Check, si verificano i risultati ottenuti. Infine, la fase di Act, è il momento della formalizzazione e della standardizzazione delle soluzioni a livello generale dell’organizzazione.

L’approccio per processi e la gestione sistemica della qualità, ovvero strutturare le attività aziendali in processi, che consentono di raggiungere gli obiettivi desiderati. La gestione per processi consente di eliminare le barriere organizzative che impediscono di massimizzare la qualità e di minimizzare i costi e i tempi. La qualità del prodotto diventa l’obiettivo principale, mentre la qualità del processo rappresenta il mezzo per ottenerlo. Esiste dunque una relazione tra qualità del processo e qualità dei risultati che può essere espressa, considerando tre parametri: l’efficacia, ovvero la capacità di realizzare prodotti conformi agli standard, riducendo al minimo la difettosità e gli scarti; l’efficienza, ovvero la capacità di realizzare prodotti, minimizzando i costi e riducendo il lead time; l’elasticità, ovvero la capacità di ottimizzare i tempi di risposta al cambiamento del mercato. La gestione delle informazioni e dei dati, che rappresentano una risorsa fondamentale per i processi aziendali. La responsabilità e la leadership del management, ovvero, la qualità dipende anche dalla responsabilità del top management. Essere leader significa avere la capacità di trasferire valori, obiettivi, stimoli ai propri collaboratori. Un buon leader, è colui che gode della fiducia dei propri collaboratori, e viene riconosciuto come guida e come esempio da tutta l’organizzazione. Il coinvolgimento del personale, ovvero, nell’impresa ogni addetto deve essere responsabile della qualità del proprio lavoro. Il personale tende a sentirsi coinvolto, quanto è adeguatamente valorizzato all’interno dell’azienda. Se il personale, non si sente partecipe, il livello di qualità non sarà mai massimo. Molto spesso le aziende dimenticano che l’organizzazione è fatta di persone, che costituiscono il vero patrimonio aziendale. La valorizzazione del personale, avviene attraverso l’empowerment, ovvero responsabilizzare le risorse umane trasferendo loro deleghe operative e gestionali sui processi. I rapporti di reciproco beneficio con i fornitori e con i partner, ovvero, il livello di qualità, dipende dalla qualità delle materie prime, dei componenti, dei servizi, ma anche dalla qualità delle relazioni che l’impresa è in grado di instaurare con i propri fornitori, ai quali è richiesta la garanzia della qualità delle forniture, la tempestività e il servizio post vendita, ma anche la capacità di innovarsi, cioè la capacità di risposta al cambiamento.

I MODELLI DI ECCELLENZA Il modello di eccellenza, partendo dalla “cultura della qualità” tipica del TQM, aggiunge la “cultura del risultato”, imponendo alle organizzazioni di dotarsi di risultati, attraverso l’uso di adeguati strumenti di misura capaci di generarli, e di usare i risultati per rivedere e revisionare i propri approcci. Tuttavia anche quando i risultati esistono, molto spesso non vengono effettivamente usati dalle organizzazioni, per produrre piani di miglioramento. La European Foundation for Quality Management (EFQM), definisce l’eccellenza, come la capacità di gestione dell’organizzazione e di conseguimento di risultati, e sottolinea i due aspetti, quello della gestione e quello dei risultati, che qualificano il concetto di eccellenza, rispetto al più generico concetto di qualità. I concetti fondamentali dell’eccellenza sono otto: Orientamento ai risultati, ovvero, le organizzazioni eccellenti, cercano di pianificare e raggiungere un set di risultati, soddisfacendo, e superando, le esigenze di breve e lungo periodo dei propri stakeholders. Creazione di valore per i clienti, ovvero, per le organizzazioni eccellenti, i clienti rappresentano una componente molto importante per la propria esistenza e tendono ad innovare e creare valore per essi, comprendendo ed anticipando i loro bisogni e attese. Leadership intraprendente

ed etica, ovvero, le organizzazioni eccellenti hanno leader, dotati di flessibilità, che non attendono il futuro per realizzare nuove “visioni”, ma immaginano nuove prospettive e le realizzano in via anticipata, operando secondo valori etici. Gestione per processi, ovvero, le organizzazioni eccellenti vengono gestite attraverso processi strutturati e strategicamente coerenti, prendendo decisioni basate sui fatti, per ottenere risultati bilanciati e sostenibili nel tempo. Coinvolgimento e valorizzazione dei dipendenti, ovvero, le organizzazioni eccellenti valorizzano e responsabilizzano il proprio personale e cercano di bilanciare gli obiettivi individuali dei dipendenti con quelli dell’organizzazione nel suo complesso. Favorire la creatività e l’innovazione, ovvero, le organizzazioni eccellenti generano incrementi di valore e del livello di performance, attraverso la continua innovazione e il continuo miglioramento, sostenendo la creatività dei propri stakeholders. Sviluppo delle partnerships, ovvero, le organizzazioni eccellenti intrattengono relazioni affidabili e strategiche con partner diversi (clienti, società, fornitori chiave) allo scopo di perseguire il successo nel tempo. Responsabilità sociale, ovvero, le organizzazioni eccellenti hanno un approccio dedito all’etica, ai valori e agli standard di comportamento più alti, per raggiungere la sostenibilità economica, ecologica e sociale. La “cultura del risultato”, trova la sua massima applicazione nel modello dell’excellence model creato dalla EFQM, che si compone di due aree, una dedicata ai fattori ambientali e l’altra ai risultati. Ciascuna area contiene dei criteri, cinque nell’area dei fattori e quattro in quella dei risultati. I primi cinque criteri rappresentano gli approcci gestionali adottati dalle organizzazioni, ovvero guardano agli impulsi e alle leve manageriali, che le organizzazioni scelgono di adottare. Gli altri quattro criteri sono incentrati ai risultati ottenuti dall’organizzazione. I novi criteri sono: leadership; strategia; personale; partnership e risorse; processi, prodotti e servizi; risultati relativi ai clienti, al personale, alla società; risultati chiave.

COMPANY WIDE QUALITY CONTROL Alla fine della seconda guerra mondiale, il Giappone, colpito duramente dalla guerra e povero di risorse naturali, per ricostruire il proprio assetto economico e sociale, non può far affidamento ne sulla leva tecnologica, perché è un paese industrialmente molto arretrato, né può far affidamento sull’innovazione del prodotto, perché i prodotti giapponesi godono di una cattiva reputazione. Il Giappone, decide allora di far affidamento sulla qualità, ovvero fornire elevata qualità dei prodotti, ad un prezzo competitivo. Le associazioni nazionali giapponesi, in particolare la Union of Japanese Scientists and Engineers (JUSE), cercano di diffondere la conoscenza della qualità, attraverso seminari, corsi, convegni, tenuti da tecnici, ingegneri e accademici non Giapponesi ma Americani. Durante i seminari del dott. Deming, esso infonde ai giapponesi non soltanto la conoscenza di strumenti e metodi statistici, ma infonde la convinzione che l’economia del Giappone, possa ripartire dalla qualità. Inoltre, il dott. Juran diffonde la conoscenza di strumenti manageriali della qualità, Juran sottolinea che tutte le funzioni aziendali, dalla progettazione alla produzione, alla ricerca e svilluppo alla vendite, debbono essere coinvolte in pari misura, nel processo di determinazione della qualità. I principi di gestione della qualità, codificati nel Company Wide Quality Control (CWQC), divengono il paradigma di riferimento della cosiddetta qualità totale. Il CWQC può essere definito, come l’insieme di attività sistemiche, sviluppate, per raggiungere in modo efficace ed efficiente gli obiettivi dell’azienda e per dare prodotti e servizi con un livello di qualità, che soddisfi i clienti. La soddisfazione del cliente ed il miglioramento continuo, sono i due principi rivoluzionari del CWQC, infatti, un bene per quanto perfetto esso sia, se non risponde alle caratteristiche richieste dal consumatore, non può considerarsi di qualità, l’impresa deve quindi soddisfare le esigenze e le aspettative dei clienti, il quale cliente è posto al centro di tutte le decisioni aziendali. Il CWQC si fonda, inoltre, sulla cooperazione e sulla collaborazione di tutti i dipendenti.

non sono stati rilasciati commenti
Questa è solo un'anteprima
3 pagine mostrate su 19 totali
Scarica il documento