Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Appunti con immagini di Tecniche analitiche in chimica clinica (Prof. Robotti e Aceto), Sbobinature di Chimica Clinica

Gli appunti sono completi di tutto ciò che è stato detto a lezione, con integrazione di immagini prese dalle slide. Sono sufficiente a fare un ottimo esame.

Tipologia: Sbobinature

2021/2022

In vendita dal 08/02/2023

giada221122
giada221122 🇮🇹

4

(1)

6 documenti

1 / 102

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Appunti con immagini di Tecniche analitiche in chimica clinica (Prof. Robotti e Aceto) e più Sbobinature in PDF di Chimica Clinica solo su Docsity! 1 TECNICHE ANALITICHE IN CHIMICA CLINICA Esame orale (6 CFU) 3 domande ampie su: una tecnica analitica, chimica clinica e figure di merito. Possibilità di fuori appello, scrivere 1 settimana prima di quando si vuole farlo. Tiene il voto più alto se si vuole ridarlo. Martedì e venerdì disponibile in ufficio 272. Introduzione (lez. 1 del 26/9) Focus: analisi chimiche, due tipi: qualitativa e quantitativa. La prima serve ad avere informazioni su specie atomiche, molecolari, sulla struttura o i gruppi funzionali, la seconda dà più informazioni e di tipo numerico (percentuale, concentrazioni: ppm concentrazione assoluto…) o semiquantitativo (es. se ci sono 3 componenti, del totale 100% si stabilisce che il primo è presente all’80%, il secondo al 15% e il terzo al 5%). Analisi di campioni: plasma/urine/sangue NO analisi del ferro Se si parla di identificazione l’analisi è di tipo qualitativo (c’è o non c’è). Se si parla di determinazione è di tipo quantitativo (volto a cercare una concentrazione, es. di ferro). Nessuna strumentazione permette di valutare direttamente la concentrazione, ma si basano su una proprietà fisica: segnale analitico (intensità di luca assorbita/emessa, peso, volume, conduttanza elettrica/termica…), nessuna però è esclusiva per una definita specie chimica (es. il ferro assorbe una lunghezza d’onda simile al rame), dunque serve una tecnica separativa fisica (cioè che permetta di separare gli analiti prima di determinarli, es. tecniche cromatografiche, elettroforesi) o di isolamento degli analiti usando il segnale. STRUMENTI ANALITICI: trasformano un segnale fisico in una concentrazione. I passaggi sono: 1) convertire il segnale fisico in una corrente: il detector misura quel determinato segnale e lo trasforma in un passaggio di elettroni 2) passaggio matematico in una concentrazione 3) grafico segnale (y) rispetto alla concentrazione (x), di solito è una retta: retta di calibrazione/taratura, cioè a parità di segnale si ha una certa concentrazione Analita: è la specie che si vuole determinare (colesterolo, ferro) Matrice: insieme del campione reale, contiene all’interno gli analiti di interesse (plasma) Interferenti: sostanze presenti nel campione che possono interferire con l’analita nell’analisi (lipidi, proteine). L’interferenza è detta “effetto matrice” quando non si sa di preciso quale sia l’interferente. Milli 10-3, micro 10-6, nano (n) 10-9, pico (p) 10-12, femto (f) 10-15 La concentrazione di esprime in: - traccia (mg/L, mg/Kg, ppm parti per milione) - microtraccia (ppb, µg/L, µg/Kg) - ultramicrotraccia (ppt, ng/L, ng/Kg) 2 Non esiste un metodo migliore per un determinato analita, dipende da una serie di cose. Ci sono tante tecniche: gravimetria (titolazione in cui si pesa ciò che precipita), titrimetria (titolazione), spettrofotometria, spettroscopia, fluorescenza, cromatografia (precisione buona, buona selettività, veloce), elettroforesi… Speciazione: non mi interessa la concentrazione ma in che forma ionica/molecolare è presente (es: cromo, mercurio). ERRORI: non sbagli, ma errori di variabilità. Possono essere di tipo sistematico (determinato, nonostante si analizzi più volte c’è sempre lo stesso errore), può derivare da un’interferenza, a causa di una sorgente strumentale (drift, diminuzione costante del voltaggio delle batterie dello strumento, per evitarli è sufficiente effettuare una calibrazione periodica), da sorgenti personali (dovuti al giudizio personale dell’analista, una soluzione è l’automazione) o sorgenti di metodo (comportamenti non ideali del sistema, es: analita volatile che si perde o reagente che si degrada, contaminazioni). Eassoluto: valore medio (x)– valore vero (µ) Erelativo: E assoluto/µ Errore casuale (indeterminato): non si sa dire il perché, si può diminuire ma non eliminare. Es. si fanno tante repliche ottimizzando il metodo. Errore grossolano: trascrizioni sbagliate ecc La distribuzione dell’errore per più di 15 repliche è di tipo gaussiano, con un valore medio e scostamenti postivi e negativi, ma non sempre, però se si fa la media la distribuzione diventa più gaussiana. Man mano che ci si allontana dal valore medio (massimo, ossia il punto più alto della gaussiana) i risultati sono via via meno probabili, quindi gli estremi della gaussiana tendono a 0. La gaussiana se la deviazione standard è grande, sarà più ampia e viceversa. Ad una unità di deviazione standard (±σ) si ha il 68% degli oggetti, a due unità di deviazione standard (±2σ, intervallo di confidenza, misure adeguate al mio metodo) si ha il 95%, il 5% invece si prende come incongruente, e a tre unità (±3σ) il 99%. La deviazione standard è una misura della dispersione, è il punto di flesso. di cui N è il numero INFINITO di misure Per meno di 15 repliche si usa la distribuzione T-student, cambia in base alle repliche, più ne faccio più si restringe la gaussiana. In questo caso diventa meno probabile il centro e più probabili le code (valori distanti). Man mano che aumento le repliche diventa più probabile il valore centrale. 5 precedentemente nel campione e deve essere aggiunta in modo riproducibile (non volatile, pesato). Aggiunto subito compensa le fluttuazioni del pretrattamento, aggiunto prima dell’analisi strumentale compensa i segnali influenzati da questa. Può correggere l’effetto matrice ricavato negli standard esterni. Quando c’è effetto matrice si prendono un paio di campioni incogniti (uno con la concentrazione molto alta e uno con la concentrazione più bassa), si applica il metodo delle aggiunte standard e si confronta la retta con quella degli standard esterni; l’intercetta è diversa ma si confrontano le pendenze (tramite il t-student), se sono diverse si ha effetto matrice, se sono uguali (si rientra nel 95% dell’intervallo di confidenza) no, e si può usare la retta degli standard esterni. CIFRE DI MERITO: parametri per stabilire che il metodo analitico sia adeguato al nostro scopo. Fitting per purpose: quale analita è richiesto di trovare? Che accuratezza è richiesta? Quanto campione è disponibile (sensibilità)? Che intervallo di concentrazione ha l’analita? Quali altri componenti possono dare interferenza (selettività)? Quali sono le proprietà fisiche e chimiche della matrice? Quanti campioni bisogna analizzare? Del metodo di analisi fanno parte le procedure pre-trattamento (fonte di errore alto), il campionamento (fonte di errore maggiore in assoluto) e le analisi strumentali. Per assicurarsi di avere dei risultati corretti il metodo dev’essere sottoposto a verifica esterna (valutazione di tutti i parametri). I parametri che definiscono la prestazione di un metodo sono: precisione ed esattezza (insieme sono l’accuratezza), sensibilità, limite di rilevazione (LOD), limite di quantificazione (LOQ), intervallo dinamico e intervallo lineare, selettività e specificità e incertezza di misura (misura di un errore che deve contenere tutte le possibili fonti di errore). L’accuratezza è il grado di concordanza tra il risultato di una prova e il valore di riferimento accettato. È data da esattezza (grado di accordo tra valore medio di una serie di misure e valore di riferimento, misurata tramite bias cioè differenza assoluta, è l’errore sistematico dato dalla scelta del metodo e dal laboratorio) e precisione (grado di accordo tra risultati singoli e valore medio, è misurata tramite la deviazione standard s o scarto tipo). Gli errori casuali (fattori ambientali, operatori con esperienza differente, strumenti con caratteristiche differenti, variazione qualità dei materiali, intervallo di tempo tra le prove) influenzano la precisione, quelli sistematici l’esattezza. Ripetibilità ristretta: stesso laboratorio, stesso operatore, stessa apparecchiatura, una sola retta di calibrazione e misure vicine nel tempo: ci si aspetta un piccolo errore. Precisione intermedia: stesso laboratorio, diversi operatori, diverse apparecchiature, una nuova retta di calibrazione e misure lontane nel tempo (non tutte le caratteristiche devono essere per forza presenti): ci si aspetta una deviazione standard maggiore ma è più realistico. Riproducibilità: diversi laboratori, diverse apparecchiature e diversi operatori. Intervallo dinamico/lineare: misura quantitativa tra concentrazione e segnale, di solito è una sigmoide (sulla parte bassa la concentrazione è poca e non da una buona sensibilità, poi si ha una porzione lineare infine si perde perché il detector si satura). Il range dinamico è il variare del segnale al variare della concentrazione, prende tutto l’intervallo. Il range lineare prende solo l’intervallo centrale in cui il grafico è più rettilineo. 6 La sensibilità è la pendenza della sua retta di calibrazione (il coefficiente angolare m=ΔS/ΔC quanto varia il segnale al variare della concentrazione), cioè quanto si è capace di discriminare due valori di concentrazione vicine. Più è pendente e più è sensibile. Selettività e specificità riguardano la risposta agli interferenti, se conosco l’interferente è la quantità di interferente che il metodo è in grado di reggere, perché un interferente impatta oltre una certa quantità. Dunque si prende il campione e si fortifica con quantità crescenti di interferente e si va a vedere quando la risposta del campione fortificato è diversa da quella dello stesso campione non fortificato. Ci sarà una concentrazione dell’interferente sopra la quale il campione ne risente e quella è la massima concentrazione di interferente che è in grado di sopportare. Specificità è un metodo che dà una risposta sola, la selettività d più risposte (metodo separativo) Lez. 3 del 6/10 LOD: la più piccola concentrazione di analita che può essere rivelata; si usa perchè a livello di concentrazione 0 dell’analita, il segnale dovrebbe essere 0, ma spesso non succede a causa dell’entropia e dell’errore sperimentale. Bisogna quindi avere due tipi di segnale: il segnale del bianco (quando sappiamo che l’analita è 0) confrontato con il segnale del campione tenendo conto dell’errore sperimentale. Se otteniamo un valore di segnale diverso da 0 due cose possono essere successe: o l’analita c’è effettivamente o c’è l’errore sperimentale. Criteri decisionali: errori di I specie (α) o falso positivo: dire che l’analita è presente quando è assente ed errori di II specie (β) o falso negativo: dire che l’analita è assente quando presente. Esiste un limite critico deciso dalla IUPAC, cioè il segnale minimo per il quale si ha α=5% e β=50%. Ci si pone lungo l’asse delle x dove si pone il segnale, si fanno più di 20 repliche e si ha una gaussiana, stabiliamo il valore medio del segnale bianco e la deviazione standard, il limite Range dinamico 7 critico si sceglie prendendo una gaussiana uguale e facendola scorrere fino a che ci sia un α del 5% e un β del 50% (cioè il 50% dei casi è un falso negativo). (vedi quad) Lc= media segnale del bianco + deviazione segnale del bianco x t-student Sopra il limite critico significa che il segnale non c’è analita (non è un bianco), sopra LOD c’è l’analita, tra il limite critico e LOD c’è una zona grigia in cui si dice che l’analita forse c’è ma a un livello inferiore del LOD. LOD è il segnale minimo per il quale sia α che β sono del 5%, sotto Lc non c’è analita, questo è un errore, nel caso, se la concentrazione dell’analita è tra il limite critico e LOD si può fare una diluizione, sennò sul campione dev’essere segnalato il risultato. LOQ: la più piccola concentrazione di analita che può essere quantificata, segnale minimo per il quale la deviazione standard relativa del bianco è pari al 10 o 5%. È svincolato dal LOD, ma è obbligatorio che LOQ sia più grande del LOD. Può succedere quando la sensibilità è bassa (perché magari si fanno tante repliche e qualche risultato è fortemente diverso) e la retta di calibrazione pende poco, quindi LOD potrebbe risultare maggiore di LOQ. Quando il segnale è maggiore di LOD l’analita è presente, quando il segnale è minore di Lc l’analita è assente, quando il segnale è compreso tra i due l’analita non è assente ma a valori inferiori al LOD. Se è tra LOD e LOQ c’è, se è sopra LOQ si può anche dire quanto è. Si usa poi la retta di calibrazione per sapere la concentrazione. [LOD è la concentrazione di analita alla quale il rapporto segnale rumore è pari a 3, LOQ è la concentrazione di analita alla quale il rapporto segnale rumore è pari a 10, non è però un metodo consigliabile e preciso. Un altro metodo è LOD= 3 deviazione standard del bianco/m (coefficiente angolare curva di calibrazione), LOQ=10 x deviazione standard del bianco/m. anche questo metodo non è realistico.] Sensibilità e LOD sono legati, più la pendenza è alta più la concentrazione si abbassa e viceversa. Recupero: quanto analita si può recuperare dal campione durante i passaggi di pretrattamento. Per valutare il recupero è necessario avere: materiali di trattamento certificati cercando di abbinare la matrice e l’analita più simili a quelli che dobbiamo analizzare (es. si compra un campione di plasma con una certa quantità di calcio invecchiata di un certo tempo di cui si 10 - Diffusione, es vengono lasciati gli eritrociti per lungo tempo a contatto col plasma o il campione viene congelato Alterazioni chimico-fisiche: - Effetto fotochimico, radiazione luminosa che causa una reazione chimica e la molecola si degrada (vitamine, bilirubina…) può essere evitato inserendo la provetta in una carta stagnola. - Denaturazione, riguarda le proteine o enzimi che modificano proprietà biologiche (può avvenire a causa della temperatura). - Polimerizzazione, a carico delle proteine che si attaccano. Alterazioni biochimiche: modificazione a cui il campione va incontro per essere stato prelevato al di fuori dell’organismo e che subisce lo stop nella regolazione omeostatica. Es: l’acido lattico a t ambiente varia significativamente la sua concentrazione (anche nelle prime 4 ore). Si può operare aggiungendo conservanti, stabilizzando il pH, agendo sulla temperatura, facendo una liofilizzazione (seccare il campione tramite bassa temperatura e vuoto, viene effettuato in casi particolari o spesso nell’industria farmaceutica per i vaccini) o sulla conservazione al buio. Ad esempio il glucosio riduce sensibilmente la sua concentrazione a temperatura ambiente, va meglio per la conservazione a 4°C, ma tramite il conservante si mantiene stabile. Raffreddamento: conservazione a 0°C (acqua e ghiaccio, riduce la velocità di reazioni chimiche ed enzimatiche), a temperatura ambiente (nelle prime 4 h non ci sono cambiamento significativi), per tempi maggiori si scende a -20/-70°C raramente in azoto liquido a -140°C, lo scongelamento deve avvenire a temperatura ambiente e in modo naturale e completamente. Modifiche nel pH: utile per il mantenimento della solubilità dell’analita (soprattutto per le urine delle 24 h, per alcune analisi l’urina viene stabilizzata a pH alcalino), per il mantenimento della stabilità chimica e dell’attività biologica dell’analita. Sistemi misti: deproteinizzazione e raffreddamento per acido lattico e piruvico; glicostatici e raffreddamento per glucosio; carbonato di sodio, buio e raffreddamento per le porfirine urinarie; modificazione pH e raffreddamento per la fosfatasi acida; buio e raffreddamento per la bilirubina. TECNICHE ANALITICHE Divise in quattro grossi gruppi: spettroscopiche (cioè interazione tra radiazione luminosa e molecola/ioni), cromatografiche (tecniche separative in un percorso), spettrometria di massa (le molecole vengono ionizzate e frammentate e si ottengono informazioni sulla struttura, li separa sulla base del rapporto massa/carica) ed elettrochimiche. Tecniche spettroscopiche: ciascuna lunghezza d’onda è associata a un’energia, se la lunghezza d’onda è piccola, la frequenza è elevata e l’energia è alta. Energia maggiore vuol dire interazione maggiore col campione. Se la lunghezza d’onda è maggiore, l’energia è minore. Energia e frequenza sono direttamente proporzionali mentre energia e lunghezza d’onda sono inversamente proporzionali. Lo spettro elettromagnetico utile per le tecniche analitiche comprende lo spettro visibile, l’UV (energia maggiore) e gli infrarossi (energia minore). Lo spettro visibile e gli UV provocano salti energetici degli elettroni di valenza (quelli più esterni), gli infrarossi promuovono vibrazioni molecolari. L’infrarosso più vicino al visibile si chiama IR vicino (o near NIR), qui i salti 11 energetici sono convoluti e sono utilizzati come impronta digitale. Due tipi di spettroscopia: spettroscopia molecolare in soluzione (si trattano molecole in provetta) e tecniche elementari (l’analita è trasformato in elemento tramite un atomizzatore, cioè in una fiamma, in un fornetto o in plasma, ossia un gas ionizzato al 5% tramite radiofrequenza e una scintilla iniziale, ambiente senza ossigeno e ad alte temperature), queste possono essere utilizzate in assorbimento, in fluorescenza ecc. Assorbimento: quando il campione viene irraggiato con una radiazione luminosa questa viene assorbita e dalla parte opposta emergerà più piccola. Nelle molecole ci sono livelli quantizzati, l’elettrone fa un salto da E0 a un certo livello E1 o E2, uno è più probabile dell’altro (E1 ha meno energia ed è più probabile, ΔE più basso, picco più alto). Il detector misura i fotoni che arrivano dalla parte opposta del campione. Sullo spettro si riporta sulle x la lunghezza d’onda e sulla y l’assorbanza, ogni picco corrisponde a un salto energetico. Emissione: avviene quando la molecola passa dallo stato eccitato e poi decade al suo stato fondamentale rilasciando un fotone ed emettendo la radiazione in tutte le direzioni. All’andata si hanno linee tratteggiate perché non ottenute tramite energia luminosa; può passare poi dai livelli più alti a quelli più bassi, il salto più probabile è da 1 a 0 (picco più alto), il salto più grande è da 2 a 0 (picco più basso), il salto da 2 a 1 intermedio (meno probabile, lunghezza d’onda maggiore, picco basso). Il campione in questo caso viene eccitato con processi non radiativi, ma il campione viene messo in un fornetto o in una fiamma (con la temperatura)… lo spettro che si misura nell’assorbimento non è detto che sia lo stesso in emissione. Fluorescenza e fosforescenza: il campione viene eccitato con una lampada, assorbe, si eccita ed emette, l’assorbimento c’è sempre e l’emissione avviene in tutte le direzioni, per misurare la fluorescenza il detector si posiziona a 90° rispetto al campione, per misurare l’assorbimento il detector si posiziona dietro al campione. I salti di andata sono linee continue poiché si usa la lampada, poi può esserci un’emissione (da 2 a 1, da 2 a 0 o da 1 a 0) o può succedere che la molecola perde energia senza emettere radiazione (linee tratteggiate) e non si vede la fluorescenza; per vederla ci vogliono legami giusti nella molecola e una situazione in grado di spegnere gli altri meccanismi di spegnimento dell’eccitazione (es. strutture policondensate o 12 viscosità più alta, si usano i gel). Quando c’è la stessa lunghezza d’onda sia in assorbimento che in emissione si chiama lunghezza d’onda di risonanza. La fluorescenza ha lunghezze d’onda maggiore rispetto all’assorbimento. La fluorescenza inizia subito, la fosforescenza è ritardata di qualche frazione di secondo (avviene un passaggio non autorizzato da un tripletto a un singoletto con un passaggio detto conversione intersistema), ha lunghezza d’onda maggiori; è ancora meno diffusa e poco probabile (ci vogliono strutture giuste ed essere nello stato solido anziché in quello liquido, come una polvere). Lo spettro è uguale a quello dell’emissione. Se lo spettro è più fluorescente, è meno fosforescente, perché fosforescenza e fluorescenza sono complementari. Non sempre un metodo è migliore dell’altro, sono complementari. Quando si parla di atomi o ioni le bande sono righe molto strette: spettro a righe. Ogni livello energetico ha sotto di sé una serie di livelli vibrazionali: spettro a bande. Spettro continuo: solidi riscaldati ad incandescenza, non ha a che fare con legami chimici, dà una linea parallela a quella delle x che sale piano piano. Assorbimento atomico: assorbimento di frequenze ben definite, ridotto numero di stati energetici (es. vapori di sodio); assorbimento molecolare: numero di stati energetici enorme, per ogni livello elettronico ci sono tanti livelli vibrazionali e per ogni vibrazionale tanti rotazionali (es. vapori di benzene). Lez. 6 del 17/10 Strumentazione di misurazione: l’assorbimento molecolare prevede una luce policromatica (lampada a filamento di tugsteno che copre l’UV visibile o a deuterio che copre l’UV), il selettore di lunghezze d’onda si dispone prima del campione per selezionare una lunghezza d’onda alla volta (così da conoscere la radiazione in entrata), il campione è posto su un portacampione e successivamente si trova un detector che conta i fotoni. Lampada e rilevatore sono sulla stessa linea. Per fluorescenza e fosforescenza è uguale ma il rilevatore si pone a 90° dal campione (tramite una serie di specchi) e le lunghezze d’onda non giungono direttamente al rilevatore ma passano nuovamente in un selettore di lunghezze d’onda (perché il campione emette più lunghezze d’onda, rispetto all’assorbimento dove ne entra una e ne esce una). 15 FOTOTUBO A VUOTO: si ha un catodo ricoperto da materiale fotoemettitore e colpito da un fotone, questo trasmette elettroni ad un anodo. Il materiale fotoemettitore può essere: a sensibilità elevata (bioalcalini), sensibile al rosso (multialcalini), sensibili all’UV o a risposta piatta. TUBI FOTOMOLTIPLICATORI: il concetto è lo stesso ma gli elettroni non vanno direttamente all’anodo ma a una serie di dinodi (circa 9, sono elettrodi addizionali), si guadagna in segnale e si aumenta la sensibilità. FOTODIODI: il diodo si basa su un silicio cristallino (semiconduttore), il silicio drogato n ha un surplus di elettroni aggiungendo un elettrone, il silicio drogato p ha un elettore in meno (ossia una buca a disposizione). Nel fotodiodo questi due diodi vengono messi vicini, in polarizzazione diretta la regione p viene attaccata al + e la regione n col -, qui si annullano le cariche e si vede passaggio di corrente (non ci serve perché non viene apprezzata la differenza rispetto a quando si invia una radiazione da misurare); in polarizzazione inversa p viene attaccato al – e n al +, in questo caso gli elettroni si spostano verso il +, le buche verso il – e si crea uno strato di deplezione dove non ci sono né elettroni né buche (piccolo passaggio di corrente iniziale e stop), per ogni fotone così si ha passaggio di corrente perché la luce comporta la formazione di coppie e buche che aumentano la conducibilità del diodo che viene registrata. Tutta la radiazione viene inviata sul campione, esce e arriva al reticolo che separa le lunghezze d’onda e arrivano al policromatore dove si sistema un insieme di diodi. I diodi sono uguali, è la lunghezza d’onda che arriva che è diversa e ci permette di riconoscere lo spettro. È meno sensibile del fotomoltiplicatore ma è abbastanza sensibile. È detto detector a serie di diodi (DAD). SPETTROSCOPIA DI ASSORBIMENTO UV-VISIBILE MOLECOLARE: strumenti a singolo raggio (lampada- selettore di lunghezza d’onda- campione- detector). Prima si registra lo spettro 16 del solvente e poi lo spettro del campione e si chiede allo strumento di sottrarli in modo da eliminare l’interferenza. In quelli a singolo raggio è complicato, quindi vengono utilizzati quelli a doppio raggio che fa lo stesso lavoro contemporaneamente. Quelli a doppio raggio nello spazio sono la lampada e la luce policromatica attraverso un been splitter (specchio a punta), la luce si divide in due fasci, un fascio va al campione e uno va al solvente, si hanno due detector, uno assorbe il fotone del campione, uno quello del solvente. In questo caso però non è detto che i due fotomoltiplicatori misurino in maniera perfettamente uguale. L’altra strategia è a doppio raggio nel tempo, si usa un chopper: un dischetto con i settori opposti a specchio o vuoti, questo ruota a velocità costante, la radiazione se becca il settore vuoto va dritta sul campione, altrimenti va sul riferimento, la stessa lunghezza d’onda viene inviata su entrambi tante volte (si fanno tante misure), è necessario un detector solo che fa un confronto ripetuto nel tempo per la stessa lunghezza d’onda. Altra alternativa: multicanale, utilizzata in flusso, la sorgente invia tutta la radiazione sul campione e dopodiché entra nel policromatore che divide e convoglia le varie landa su una serie di diodi. 17 I contenitori del campione sono cuvette (parallelepipedi con la base di 1 cm in modo che il cammino ottico sia unitario e più semplice da calcolare, con due facce lisce opposte molto parallele per evitare rifrazione e due facce opache per impugnarlo e con dei cavi all’interno), per il visibile si usa la plastica, per l’UV il quarzo (più costoso). Possono essere a campionamento (ingresso e uscita di campione per effettuare misure ripetute, la soluzione entra, viene misurata, esce, e si fa un’altra misura con un’altra aliquota di campione: misure a tempi discreti), si utilizzano in HPLC o a flusso (la cella è posizionata a una certa lunghezza d’onda, in un istante fa la fotografia di tutto lo spettro, il flusso continua a passare nella cella e man mano si misura, sono smontabili. Il cammino ottico è quello più lungo possibile per non perdere sensibilità). Cuvette in semimicron: si usano quando si ha poco campione, hanno a disposizione un volume ridotto ma il cammino ottimo rimane invariato e unitario. Lez. 7 del 24/10 Legge di Lambert-Beer: vengono misurate delle trasmittanze (T), è quanta radiazione viene trasmessa attraverso la soluzione, più la soluzione assorbe e meno trasmette. È calcolata tramite rapporto tra la potenza che entra (P0) e quella che esce (P) in percentuale. L’assorbanza è legata alla concentrazione: si calcola con il logaritmo negativo della trasmittanza o il log P0/P, è un numero naturale. Assorbanza= a·b·c, b: cammino ottico, c. concentrazione a: assorbività oppure A=ɛ·b·c in cui ɛ: assorbività molare In grafico di calibrazione A su c, ɛ è il coefficiente angolare se il cammino ottico è di 1 cm, dunque è la pendenza della curva di calibrazione che rappresenta la sensibilità, se ɛ è maggiore si avrà una sensibilità più elevata. Per preparare la retta di calibrazione si preparano 4 standard a concentrazione crescente di analita, si misura il segnale a una certa lunghezza d’onda λi, e poi si traccia la retta di calibrazione, con il metodo dei minimi quadrati si trova l’intercetta e la pendenza ɛ. 20 Per velocizzare il processo si usano policromatori che separano le lunghezze d’onda, la cuvetta è uno percorso e in ciascuna porzione di soluzione arrivano lunghezze d’onda diverse, assorbono, riemettono e si misura a 90°. Quando si misura esce una luce policromatica, allora si inserisce un policromatore di emissione per separare la lunghezza d’onda con una superficie bidimensionale di diodi. Si ottiene una mappa di spettri e si prende il massimo assoluto ad una certa lunghezza d’onda di emissione e di eccitazione. Questo è uno spettro di luminescenza globale (si misura spettro in ingresso e spettro in uscita). La fluorescenza è più sensibile dell’assorbimento ed è più selettiva (non molte molecole sono fluorescenti, è più difficile che ci siano interferenti, se neanche la nostra molecola è fluorescente la si rende tale tramite una reazione di un gruppo funzionale che dà fluorescenza). Metodi diretti: determinazione di molecole che sono effettivamente fluorescenti; metodi indiretti: basati sulla diminuzione di fluorescenza dovuta alla presenza dell’analita insieme ad una molecola fluorescente conosciuta. La fosforescenza si ottiene inserendo il portacampione in azoto liquido, si usa spesso per acidi nucleici, enzimi, idrocarburi… La chemiluminescenza è un’emissione, due specie (come il luminoso con l’ossigeno) agiscono con una reazione esotermica, decadendo viene emessa luce che viene misurata in uno spettro. Reaction coil: contenitore trasparente che facilita la reazione esotermica. È una reazione che si esaurisce, quindi si avrà un massimo e poi si esaurisce, dunque è necessario utilizzare un policromatore. 21 Lez. 8 del 27/10 CROMATOGRAFIA È una delle tecniche più diffuse in laboratorio analisi. Sono tecniche separative: gli analiti vengono separati chimicamente perché nella maggior parte dei casi si ha una tecnica specifica e selettiva per rilevare ogni sostanza. Ultimamente la cromatografia più utilizzata è su colonna e non è liquida ma HPLC (High Performance Liquid Chromatography). Tutte le tecniche cromatografiche prevedono la separazione di analiti in un percorso, ci sono due fasi immiscibili: una stazionaria (fissa, deve avere un’area superficiale molto elevata: numero di siti attivi che ha a disposizione per interagire con l’analita) e una mobile (che passa attraverso quella stazionaria). Gli analiti più simili alla fase stazionaria rimangono legati a questa e quindi più fermi, quelli più simili chimicamente alla fase mobile seguono il percorso della fase mobile e arrivano in fondo prima. La fase stazionaria non deve per forza essere un solido, può essere anche un liquido, la fase mobile invece può essere un liquido, un gas o un fluido supercritico (non un solido). Bisogna scegliere le fasi in modo tale che mettano in evidenza le differenze chimiche degli analiti, si realizza quindi una migrazione differenziale: gli analiti più affini alla fase fissa escono in ritardo rispetto a quelli affini per la fase mobile. Si può ottenere su vari supporti diversi: su carta o su colonna. La colonna è un tubicino in cui si trova la fase stazionaria, mentre la fase mobile fluisce: metodo detto “eluizione”, ciò che si raccoglie alla fine del percorso è l’eluato. Gli analiti si pongono in testa alla colonna, poi si fa fluire la fase mobile a velocità costante, l’analita più affine a questa scorrerà più velocemente e giungerà in fondo al percorso prima, il secondo analita arriverà dopo. Gli analiti vengono depositati in una sottile banda, man mano che procede lungo la colonna si allarga perché è più concentrata al centro e meno ai lati. In fondo si trova un rivelatore che misura ciò che esce in ogni momento e permette di disegnare il cromatogramma che riporta il tempo sull’asse delle x e il segnale sull’asse delle y: il primo analita comincia a uscire, man mano aumenta arrivando al picco e poi diminuisce, stessa cosa per il secondo analita, se la quantità è inferiore il picco sarà più basso. Picchi stretti ed alti indicano efficienza cromatografica. Tempi lunghi danno picchi più larghi. Nella retta di calibrazione si fanno 4 standard e come segnale si utilizza l’area dei picchi, dopodiché è possibile conoscere la concentrazione incognita dell’analita. La cromatografia può essere classificata in base allo stato fisico di fase stazionaria e mobile: - cromatografie liquide (LC, fase mobile liquida): distinguiamo tra liquido-solido (adsorbimento, il liquido interagisco con i siti attivi sulla superficie solida, quindi si adsorbe), liquido-liquido (ripartizione), scambio ionico (nella superficie della fase stazionaria ci sono cariche + o -), permeazione ed esclusione dimensionale (separazione per dimensione e conformazione tridimensionale, utile per macromolecole); - gascromatografie (GC, fase mobile gassoso): gas-liquido (si usa pochissimo, è un meccanismo di ripartizione) e gas-solido (adsorbimento). Ci sono anche cromatografie che sfruttano un mix di questi meccanismi. 22 Tecniche più diffuse: Thin Layer Chromatography (TLC) su strato sottile, usata come tecnica qualitativa più che quantitativa; High Pressure Liquid Chromatography (HPLC); High Pressure Thin Layer Chromatography (HPTLC) tecnica qualitativa; Ion Chromatography (IC); Gas Chromatography (GC). Per tutte le cromatografie è vero questo: la fase stazionaria deve avere un’area superficiale molto grande; coinvolgono il movimento del campione in una fase stazionaria che è posta o su una superficie o su una colonna; tutti i metodi si basano sul ritardo selettivo: interazione diversa degli analiti su fase stazionaria e fase mobile; si ha produzione di zone o bande dove l’analita è più concentrato e la concentrazione massima è sempre al centro. La cromatografia prevede due teorie: 1) Teoria dei piatti: non prende in considerazione il flusso, come se fosse un sistema fisso, prende spunto dalla distillazione e l’estrazione in controcorrente per spiegare ciò che succede all’interno della colonna. 2) Teoria dinamica: proposta da Van-Deemter, spiega perché la teoria dei piatti fallisce perché tiene in considerazione il flusso (sistema dinamico), si scopre come varia l’efficienza della cromatografia al variare del flusso. Teoria dei piatti: considera la cromatografia un sistema statico e in equilibrio, cioè considera che l’analita nella fase mobile è in equilibrio con l’analita nella fase stazionaria. Si considera che in ciascuna fettina della colonna si realizza l’equilibrio, le fettine si chiamano “piatti teorici”, più la colonna è suddivisa in fettine sottili, più c’è efficienza cromatografica. Il numero di piatti teorici è diverso per ogni specie, la colonna non è efficiente a prescindere e questo si fa calcola misurando il cromatogramma: il numero di piatti teorici N= (tempo di ritenzione) tr2/σ2 (punto di flesso). Il tempo di ritenzione indica quanto tempo viene trattenuta la sostanza nella fase stazionaria. Il punto di flesso indica l’efficienza che dipende dall’altezza e dall’ampiezza del picco (se l’analita esce presto è più stretto, se esce tardi è più largo) ed è la differenza tra il valore centrale del picco e un’unità di deviazione standard, dunque più σ è piccolo e più efficiente sarà la tecnica (e N diventa maggiore). Per facilitare l’identificazione del punto di flesso si utilizza l’ampiezza: o wi =larghezza del picco in corrispondenza dei punti di flesso o alla base Wb, questa si ottiene tracciando due tangenti ai punti di inflessione e prendendo l’ampiezza della base (sull’asse x, dove intersecano le tangenti), Wb=4σ. Altre volte non è facile ricavare l’ampiezza di base e quindi si prende l’ampiezza a metà altezza del picco Wh, è poco affetta da errore e si utilizza più spesso Wh=2,354σ. 25 In GC non varia molto la velocità di flusso: utilizzare una velocità di flusso piuttosto che un’altra non è così rilevante, mentre in HPLC sì, i flussi si spostano sul primo flusso utile per mantenere le performance adeguate. Essendo molto più lunga la colonna in gascromatografia, ci sono molti più piatti teorici, i picchi sono molto più alti. Parametri per ottimizzare la cromatografia (per separare due picchi vicini): - K’: fattore di capacità per ciascun analita è tr–t0/t0, maggiore è il tempo di ritenzione maggiore è k’, se si ottengono k’ molto alti significa che la specie eluisce tardi, se k’ sono bassi l’analita eluisce vicino al tempo morto (non è molto trattenuto). k’ è indipendente dalla velocità di flusso e dal sistema in generale (condizioni sperimentali), dipende da quanto la specie viene trattenuta in quel sistema. K’ non deve essere troppo basso (k’<2) perché sennò tr si avvicina pericolosamente al tempo morto e quindi la specie non interagisce sufficientemente al sistema cromatografico, se esce troppo tardi (k’>10) invece il picco sarà basso e alto. - Fattore di asimmetria: si confronta rispetto al tr l’ampiezza di una metà di picco rispetto all’altra, ci si sposta dalla linea di base di un 10-20% verso l’alto, si disegna un segmento e si calcola CB/AC, se è uguale a 1 il picco sarà simmetrico, se è maggiore di 1 CB>AC, fattore detto “tailing” (all’inizio esce una forte concentrazione di analita, nella seconda parte di picco l’analita ci mette più tempo, dunque la banda concentrata corre di più nella fase mobile che in quella stazionaria perché la fase stazionaria si è saturata e non è più in grado di interagire), se CB<AC fattore “fronting” (l’analita esce poco per volta, arriva la massimo e poi esce tutto insieme, la fase mobile è satura e non riesce ad interagire con l’analita che quindi rimane indietro in colonna, probabilmente è stato caricato troppo analita, infatti non vale per minori concentrazioni). Cause di codatura dei picchi: introduzione del campione lenta o scorretta, adsorbimento irreversibile dell’analita sulla fase stazionaria (errore di selezione della f.s.), sovraccarico (il campione è troppo concentrato), ridotta solubilità dell’analita nella fase mobile. 26 - Selettività: rapporto tra due fattori di capacità successivi, è la distanza tra due picchi successivi. Permette di capire quanto sono separati i picchi come tempo di ritenzione, per valori vicini ad 1 i picchi sono sovrapposti e separarli sarà più impegnativo (bisognerà lavorare sull’efficienza). - Efficienza separativa: è data dal numero di piatti teorici, l’efficienza è tanto più elevata quanto minore è H e maggiore è N. - Risoluzione: ci interessa avere la risoluzione massima, cioè il grado di separazione tra due picchi, se i due tempi di ritenzione sono distanti due σ uno dall’altro, significa che i due picchi sono sufficientemente vicini e sovrapposti, a livello cromatografico si vedrebbe un unico picco ma piatto (non appuntito), a trA c’è già un bel po’ di analita B, al trB c’è ancora l’analita A. la risoluzione è ottimale quando la distanza tra due picchi è di almeno 6 σ, la sovrapposizione è di 0,5% del primo picco sul secondo e del 0,5% del secondo picco sul primo (baseline resolution), i picchi sono risolti. La differenza tra i due tempi di ritenzione dev’essere maggiore di 6 σ o maggiore di 1,5 W (ampiezza alla base) o di 2,56 W1/2 ; oppure . La risoluzione dipende da tutti gli altri fattori: k’, selettività, efficienza. Es: se c’è una cattiva risoluzione ci saranno due picchi ampi e sovrapposti, se si agice sull’efficienza la risoluzione sarà buona e i picchi diventano più stretti separandosi, altrimenti si agisce sulla selettività della colonna e i picchi rimangono ampi ma più distanti. Formula risoluzione data dalla ritenzione (per ottenere k’ in valori tra 2 e 10 si cambia la composizione della fase mobile, gradiente più o meno rapido), dalla selettività (quanto sono distanti i picchi, per separarsi si può cambiare la fase mobile, la fase stazionaria o la temperatura) e dall’efficienza (per agire sull’efficienza si modifica il flusso, si allunga la colonna o si cambia la qualità della colonna). 27 GASCROMATOGRAFIA La fase mobile è un gas, solitamente è elio, cioè un gas inerte (unico caso di cromatografia dove l’interazione è solo con la fase stazionaria e non la fase mobile, il gas qui è un carrier). Cromatografia gas-liquido: si ha ripartizione dei soluti tra fase gassosa e fase liquida stazionaria, il liquido dev’essere altobollente (stabile, non volatile ad alte temperature). Il cuore del sistema è un forno in cui all’interno si collega la colonna e serve a portarla a una temperatura e fare una rampa di temperatura. L’iniettore è una siringa in cui si inserisce l’analita (è una camera che fa arrivare a temperatura l’analita), il carrier passa attraverso un regolatore di pressione e un misuratore di flusso e giunge nell’iniettore, a questo punto gli analita volatilizzati vengono trascinati dal carrier, la colonna è superavvolta (può essere lunga 100 m), si separano, quelli più volatili escono prima, quelli meno volatili escono dopo. Se gli ultimi ci mettono più tempo si fa una tampa di temperature per farli uscire prima. Alla fine del percorso c’è un detector (può essere nel forno o fuori). Se c’è un separatore di flusso parte dell’elio viene inviato in colonna e parte direttamente nel detector per fare un confronto tra il solo elio e ciò che esce dalla colonna (detector a termoconducibilità). La temperatura dipende dagli analiti (se sono bassobollenti o altobollenti, al massimo fino a 400°). L’iniettore è una cameretta in cui entra il carrier, c’è un setto di gomma che viene forato dalla siringa (quando si tira fuori l’ago, la gomma si richiude e fa da isolante), è cilindrico ed è di acciaio, è rivestito da un tubicino di vetro (liner) estraibile e lavabile, quando viene inserito il campione, l’iniettore è già ad una temperatura elevata in modo da volatilizzare quasi immediatamente l’analita (insieme all’analita però c’è un solvente che non può essere acqua). La corsa cromatografica prevede una rampa di temperatura nel 99% dei casi, per fermare gli analiti in testa alla colonna viene inserita una temperatura isoterma bassa (30-45° se gli analiti sono bassobollenti), in questo caso gli analiti sono molto vicini e non distinguibili, poi si fa un’isoterma a 145° in cui si vedono un po’ di picchi in più ma tutti sovrapposti perché troppo volatili, infine una programmata 30-180°, quelli molto volatili riescono ad essere separati ed interagire con la f.s. 30 - metodo purge and strap → assomiglia allo space dinamico, con la differenza che l’aria insufflata nello spazio di testa qui viene insufflata nella soluzione creando delle bolle (purging) che aiutano gli analiti a passare nello spazio di testa. Il device è simile a quello precedente: ingresso per il gas (come azoto), gli analiti vengono convogliati alla trappola adsorbente (trap). La temperatura è sempre controllata. È un metodo molto utilizzato. RILEVATORI: - rilevatore a ionizzazione di fiamma (FID) → è un rilevatore non a spettrometria di massa, dalla colonna giungono elio e le molecole più o meno separate. Il gas incontra una fiamma a idrogeno che non brucia il campione, l’ugello della fiamma è un elettrodo su cui è posizionato un collettore (un altro elettrodo a cilindro) su cui è impostata una differenza di potenziale di circa 200 V, si creano quindi elettroni durante il passaggio degli analiti che vanno nel circuito e si vede il passaggio di corrente. È un metodo abbastanza sensibile, universale alle molecole organiche e insensibile a quelle inorganiche, produce una corrente di 10-12 A, ma non dà un segnale specifico (e informazione) per una molecola o una classe di molecole. Si ha una corrente di fondo che rappresenta il non passaggio delle molecole, a questa si somma la corrente data dal passaggio della molecola. Il segnale è un’intensità di corrente, nella retta di calibrazione come segnale viene usata l’area sottostante ai picchi. Per sapere che analiti sono usciti o si sa dal principo o si usa la massa per caratterizzare le specie (feed) con degli standard. - rilevatori a spettrometria di massa → l’accoppiamento GC-massa è stato il primo ad essere realizzato, lavora in altovuoto e la molecola va ionizzata. Da una parte si ha la colonna del GC e dall’altra lo spettrometro di massa, l’altovuoto si realizza a passaggi intermedi (si applica il vuoto in modo sempre più spinto), in una cameretta in cui passano l’elio e gli analiti si applica un vuoto molto leggero sull’interfaccia che permette di risucchiare l’elio perché è leggerissimo, mentre il resto va avanti. Le colonne capillari hanno un’interfaccia diretta. La spettrometria di massa è uno strumento che necessita di una serie di device che lo compongono: una prima sorgente di ioni perché le molecole vengono separate in base al rapporto massa/carica e dunque vanno ionizzate, gli ioni vanno poi a finire in un analizzatore che separa gli ioni, in momenti successivi arrivano diversi pacchetti di ioni che vengono misurati (elettromoltiplicatore: si ha una superficie che separa lo ione in una cascata di elettroni che aumenta durante il percorso, simile al fotomoltiplicatore). L’analizzatore permette di sapere se lo strumento è ad alta risoluzione (permette di misurare la massa all’intero) o a bassa risoluzione (si misura la quarta decimale). L’accoppiata sorgente-analizzatore indentifica le prestazioni dello strumento. Sul cromatogramma in TIC (corrente ionica totale) in ciascun punto si misura un segnale, sull’asse x c’è il rapporto massa/carica e sull’asse y l’intensità degli ioni, è uno spettro a righe, di solito di fianco ad un frammento d’intensità più alta ci sono frammenti che determinano un pattern, cioè uno schema particolare perché quel frammento avrà degli isotopi. Ciasuno di questi segnali è un 31 frammento che deriva dalla sorgente (si può avere uno spettro complesso con tanti segnali se la sorgente frammenta tanto, tanto da far sparire il segnale, o frammentare poco e lo ione si vede). L’analizzatore separa i frammenti e il rilevatore li conta. Questi rilevatori separano ciò che non si è separato in cromatografia. Si prende uno spettro in banca dati di standard e si confronta con ciò che otteniamo in GC. Sorgenti ioniche: possono essere o meno nella zona di altovuoto (in GC lo sono, in HPLC no), devono ionizzare il campione e generare un fascio di ioni con la stessa energia cinetica per ricavare una linea sul rapporto massa/carica (altrimenti non si ha una linea). Deve avere una certa efficienza: anche se c’è poca molecola si deve ionizzare in maniera adeguata, devono generare il fascio ionico con la minima dispersione di energia (collimazione), bisogna avere un elevato rapporto segnale/rumore (bel segnare e poco rumore di fondo), non deve avere effetto memoria (la soluzione arrivata al momento 2 non deve portarsi dietro ioni della soluzione arrivata al momento 1), deve emettere ioni stabili nel tempo (la ionizzazione deve avvenire subito, così come la frammentazione, non devono esserci ioni metastabili che durano per un po’ perché si frammentano nell’analizzatore e distorcono i picchi). Le sorgenti possono essere hard o soft sia per GC che LC: -hard→ trasferiscono tanta energia, la molecola si ionizza tanto ma genera anche un sacco di frammenti; -soft→ si frammenta meno, gli ioni molecolari sono quelli più intensi e si hanno pochi altri frammenti. In GC ci sono due interfacce: impatto elettronico (hard) e ionizzazione chimica (soft), rispetto al GC tutte le interfacce in LC sono più soft. Tutte e due si realizzano nella stessa cameretta, l’impatto elettronico (EI) è molto più utilizzato. La molecola entra (senza l’elio) e incontra un fascio di elettroni generato da un catodo (un filamento di tugsteno) con differenza di potenziale rispetto al collettare in modo che gli elettroni si portino verso il collettore. L’onda elettromagnetica dell’elettrone perturba la molecola e strappa l’elettrone, nella maggior parte dei casi si formano ioni positivi. Il pusher ha la stessa carica dello ione (quindi +) e spara lo ione nella parte opposta dove trova le lenti ioniche: elettrodi negativi che attraggono la molecola e l’accelerano, possibilmente tutte con la stessa energia cinetica. Questo è un urto forte che crea vibrazione e alta frammentazione dello ione. Il potenziale dei due elettrodi è di 70 eV, se è più basso si ionizza poco, se alto troppo. Questo permette anche di confrontare lo spettro di massa con gli altri in letteratura. 32 La ionizzazione chimica avviene nella stessa cameretta: s’inserisce una molecola (gas reagente come il metano o l’ammoniaca) che vada nella sorgente hard e poi la molecola interessata che passi in quella soft per cessione di energia. Il gas reagente è presente in concentrazione 103-104 volte rispetto all’analita, questo garantisce il fatto che chi incontra gli elettroni è il gas reagente e non l’analita. Il gas reagente può formare diversi ioni come CH4 + o CH5 + che s’incontrano con la molecola e le cedono la carica. A volte l’addotto non si separa più (gas+analita). Lo spettro sarà più semplice perché ci saranno meno frammenti ma sarà più complicato il confronto con la letteratura (perché si può usare il gas che si vuole e non che concentrazione si vuole, ultimamente è più utilizzata l’ammoniaca). Le due tecniche sono complementari. In GC massa si usa lo standard interno o anche due, inseriti in tutti i campioni nella stessa concentrazione, l’area del picco da usare nella retta di calibrazione sarà Apicco/Astandard interno. Si può usare anche per fare una semiquantitativa: si calcola l’area di 30 molecole, si divide per lo standard interno e si fa la somma (segnale totale), poi si calcola il segnale della molecola A rispetto al segnale totale %: percentuale di segnale della molecola, questo serve per scoprire il profilo della molecola, non la quantità. In un cromatogramma GC-massa si avranno picchi stretti e alti (la colonna è molto lunga), l’efficienza è altissima. Se la stessa separazione si fa su una colonna capillare e una impaccata i picchi saranno diversi pur trovandosi negli stessi punti (l’efficienza diminuisce nelle colonne impaccate). CROMATOGRAFIA LIQUIDA Sistemi HPLC, si hanno colonne chiuse impaccate industrialmente con granulometria fine. Le colonne sono lunghe 15-20 cm, una granulometria di 5 µm e una pressione elevata per fare in modo che il flusso sia costante lungo tutta la colonna. Ampia scelta di meccanismi di separazione: quasi sempre di tipo liquido-liquido, ossia ripartizione (l’analita trova affinità o nella fase mobile o nella fase stazionaria a secondo della polarità); l’adsorbimento è di tipo solido-liquido (f.s. è un solido); scambio ionico; esclusione dimensionale (meccanismo fisico che si basa sull’ingombro sterico delle molecole, sul peso molecolare e sulla forma, ottimo per enzimi e isoenzimi, se la molecola si può sciogliere in acqua la tecnica è “gel filtration”, altrimenti “gel permeation”, ci sono dei pori nella colonna); separazione per affinità (meccanismo chiave-serratura come antigene-anticorpo, particolarmente costose ma efficaci); coppia ionica e interazione ionica sono due meccanismi spesso utilizzati, si gioca sulla fase mobile o sulla fase stazionaria che permette di separare contemporaneamente composti ionici e polari. SPETTRO DI MASSA 35 Picchi sul cromatogramma: il primo picco A nel grafico volume di ritenzione/segnale corrisponde al volume morto ed è il limite di esclusione totale, nel grafico volume di ritenzione/peso molecolare la linea va ad asintoto verticale, quando si ha un volume pari a V0, tutte le molecole hanno lo stesso volume di ritenzione; sul limite di permeazione si ha una curva che scende e si ha un picco D; nella regione in mezzo si ha la regione selettiva in cui vengono effettivamente separate le molecole. La curva può cambiare: si può traslare verso l’alto (per pesi molecolari superiori) o verso il basso (per pesi molecolari inferiori), la capacità risolvente è la stessa (i picchi sono gli stessi), il delta del range di pori è lo stesso ma diventano più grandi o più piccoli, o si può modificare la pendenza, con una pendenza più bassa il range di volumi da separare diminuisce, si separano molecole con peso molecolare più vicino (si scende più nel dettaglio). In questo tipo di cromatografia la f.m. è solo un carrier che scioglie l’analita (come in GC), non dev’essere un fattore limitante perché interverrebbero altri fattori oltre all’ingombro sterico. Applicazioni: polimeri di sintesi, biopolimeri (peptidi e proteine globulari) ed enzimi. CROMATOGRAFIA DI SCAMBIO IONICO Permette di separare molecole cariche, si fa una corsa per le cariche + e una per le cariche -. La f.s. è una fase ionica, sulla superficie ci sono gruppi carichi, si ha scambio cationico (resina a scambio cationico) quando la resina è carica negativamente e vengono scambiati i cationi che sono gli analiti, se la resina è cationica vuol dire che ha cariche cationiche. Se la resina è a scambio anionico la resina è carica positivamente e scambia anioni. Come resina anionica si ha il solfonato o il carbossile, come cationica si ha l’ammonio quaternario. La f.m. è un elettrolita con bassa affinità per i siti scambiatori, per creare un gradiente si varia la concentrazione di elettroliti della fase mobile, così gli analiti in colonna vengono scalzati dalla f.m. Usciranno prima quelli che formano un’interazione elettrostatica meno forte e per ultimi quelli che la formano più forte. Sulla f.s. c’è una carica negativa, come contro ione c’è un H+ o un Na+, vengono caricati due analiti X e Y con cariche +, scalzano gli H+ e poi escono scalzati da un altro ione Z+ (f.m.), prima uscirò X che ha meno affinità e poi Y. Z dev’essere scelto accuratamente. Per vedere bene i picchi c’è un meccanismo di soppressione per eliminare l’interferenza di H+ e della fase mobile. Fase stazionaria anionica per scambio di cationi: X+ + (RSO3 -Na+) Na+ + (RSO3 -X+) 36 Per resine cationiche: X- + (R3NR+Cl-) Cl-+(R3NR+X-) È una costante di equilibrio tra prodotti delle concentrazioni dei prodotti diviso quelli dei reagenti. Di contro-ione in colonna ce n’è tantissimo perché la colonna ha un’area superficiale alta, il rapporto che c’è è fisso (parte in rosso) e quindi rimane la concentrazione dell’analita nella f.s. diviso la concentrazione di analita in f.m. che è un costante K. K permette di capire quali sono gli analiti che escono prima o dopo, è la costante di cloruro rispetto a X-. K dipende dal tipo di scambiatore e dall’attitudine dei due ioni a scambiarsi che dipende dalle concentrazioni relative e dagli ordini di selettività per concentrazioni uguale (tabelle in cui viene indicato qual è lo ione più trattenuto). Gli ioni meno trattenuti sono Li+, H+, Na+… quelli più trattenuti hanno più cariche come Ca++. Giocando sulla concentrazione di elettroliti anche meno trattenuti si possono far uscire gli analiti, non è necessario usare elettroliti troppo trattenuti o potrebbero rimanere incastrati in colonna. Se si fissa sulla resina un metallo molto trattenuto come Ba++ non si può ricorrere ad altri metalli per spostarlo: scambiatore esaurito (tutti i siti attivi sono saturati), si utilizza il metodo della rigenerazione, cioè forti concentrazioni di H+ o Na+ all’interno della colonna per far uscire il bario o soluzioni molto concentrate di HCl (scambiatori cationici, per ristabilire l’H+) o NaOH (scambiatori anionici, per ristabilire OH-). La stessa cosa si può fare per gli analiti. Anche HCO3 - si utilizza spesso e per rimuoverlo si fa reagire in modo da creare acido carbonico che si scinde in CO2 ed acqua (l’acqua serve nel meccanismo di soppressione). Come f.m. si gioca sul pH con una soluzione tampone: per acidi deboli il pH dev’essere più alto possibile, per cationi l’acido deve prevenire la formazione di specie idrolizzate (di solito la fase mobile può essere un grado di elettroliti crescenti nel tempo). Il rilevatore usato si basa sulla conducibilità e per migliorare la sensibilità viene usata la soppressione per sopprimere il segnale dei contro-ioni, ad esempio viene pompato OH- che neutralizza l’H+ e si crea acqua. CROMATOGRAFIA DI AFFINITA’ Meccanismo chiave-serratura, al 90% si usa l’anticorpo, la fase mobile ha due ruoli: supportare il legame tra analita e legante e indebolire le interazioni tra analita e legante tramite variazioni di pH e della forza ionica. Cromatografo liquido: il cuore è una colonna di 15-20 cm collegata a monte con il sistema per gestire f.m. e campione. All’inizio si avranno i solventi per le fasi mobili all’interno dei quali si ha un capillare con un filtrino che aspira il solvente e lo filtra per bloccare impurezze, i solventi 37 vanno alla pompa che li spinge verso al colonna passando attraverso trasduttore di pressione, misura di flusso e valvola. L’iniettore permette di fare un’iniezione automatica (quando si inietta l’analita, questo entra in un loop e solo successivamente verrà trasportato in colonna attraverso una valvola) per evitare di variare la pressione (uno sbalzo di pressione può provocare distacco della colonna), poi c’è una precolonna di 1 cm con lo stesso impaccamento della colonna ma grossolano perché non deve separare gli analiti ma solo proteggere la colonna (da interferenti, bolle d’aria…). Nella colonna si separano gli analiti e in fondo c’è un rilevatore che può essere uno spettrometro di massa oppure no. I connettori (tubicini) prima della pompa sono in polimero fluorato, dopo sono in acciaio per sopportare la pressione e devono essere il più piccolo possibile, soprattutto dopo la colonna. Lez. 11 del 16/11 Il cromatografo liquido è suddiviso in moduli, i solventi sono in bottiglie in cui viene posto il pescante con un filtro. I solventi vanno a finire nella pompa dove vengono miscelati e spinti in colonna (nel frattempo la colonna viene condizionata con la f.m. in modo da abituarsi, cosicché quando si introduce il campione questo non si trovi in un nuovo ambiente). Le pompe devono creare una pressione fino a 6000 psi per mantenere il flusso costante (non pulsato), la velocità di flusso deve andare da 0,1 a 10 ml/min e dev’essere riproducibile (in base a come viene impostato) almeno del 5% relativo e devono essere resistenti alla corrosione. La colonna non risente della forza di gravità perché è in un ambiente ad alta pressione. Ci possono essere anche due detector. Due comparti: uno termostatato per gestire la colonna e uno del detector, ciascuno di essi è separato e può essere connesso agli altri in modo modulare. La pompa si trova all’interno dello strumento. In una cameretta ci sono piccoli volumi (µl), inserendo il solvente il pistone (stantuffo) della cameretta viene portato indietro in modo da “risucchiare” il solvente, dopodiché viene spinto in avanti e il solvente viene spinto in colonna. Il solvente così facendo viene spinto però in maniera pulsata, quindi si usano due pompe che lavorano in sincronia, mentre una richiama l’altra spinge, dopo ci sarà uno stabilizzatore di flusso (smorzatore di pulsazioni) che rende il flusso continuo. Il volume interno della pompa è ridotto (35-400 µl), questo è ottimo per fare aumentare il gradiente in modo lineare, cioè con piccoli gradini. Per evitare la corrosione si usa l’acciaio inossidabile 316, è inerte con tutte le basi, tutti i liquidi organici, la maggior parte degli acidi alogenati al di sopra del pH di 2 ma non si usano solventi clorurati. 40 Il miglior metodo è il diode array (DAD): per ogni punto del cromatogramma si misura uno spettro (lunghezze d’onda sulle x e assorbanza sulle y), quindi vengono misurate tutte le lunghezze d’onda in tutti i punti. La lampada è a deuterio o filamento di tugsteno, tutte le lunghezze d’onda arrivano al campione insieme, dopo c’è il reticolo che separa le lunghezze d’onda (non c’è la fenditura di uscita) e si mette una striscia di fotodiodi, ciascuno lunghezza d’onda va su un gruppetto di diodi, e si misurano tutte insieme (fotografia istantanea). Se due picchi sono sovrapposti si va a vedere lo spettro di uno e dell’altro picco e si valuta se sono uguali o meno (si devono individuare due lunghezze d’onda per le quali uno assorbe e l’altro no, basta che A e B siano individuabili nel cromatogramma per la lunghezza d’onda di A e di B). Rivelatore fluorimetro: il detector è posto a 90°, si possono usare mappe di diodi. Servono due lunghezze d’onda: quella in ingresso e quella in uscita per estrarre il cromatogramma. Ogni cromatogramma misura la fluorescenza per un composto con una determinata coppia di lunghezze d’onda. Di solito i rivelatori UV-visibile e fluorimetro sono entrambi usati in serie perché non sono distruttivi, magari con l’assorbimento c’è una sovrapposizione che non si trova con la fluorescenza e viceversa. Per vedere la fluorescenza si può fare una derivatizzazione, es. amine primarie con cloruro di dansile (in modo da vedere gli analiti sia con l’UV-visibile che con la fluorescenza). 41 Lez. 12 del 17/11 SPETTROMETRIA DI MASSA Tecnica in cui viene identificata la massa della molecola, massa nominale: massa arrotondata all’intero, non si identifica in modo univoco la molecola, accurata: ad alta risoluzione, identificazione fino alla quarta decimale. Ci permette di avere informazioni sui frammenti: i frammenti sono dettagli della molecola che permettono di capire qual è la sua struttura molecolare (è come avere un puzzle con pezzi molto piccoli), si vedono maggiormente i dettagli. Si possono fare anche esperimenti di massa/massa (MS/MS o MS2): cioè esperimenti di massa tandem per chiarire dubbi sulla struttura molecolare. Una molecola viene frammentata attraverso ionizzazione, successivamente i frammenti vengono separati secondo il rapporto massa/carica; questi frammenti possono essere ulteriormente riframmentati, ma in un altro modo perché si identifichi più precisamente dato che i primi frammenti potrebbe essere comuni a più molecole (MS/MS). Il fatto che si creino certi frammenti rispetto ad altri vuol dire che in quel punto il legame era più debole. 3 componenti: sorgente ionica (produce ioni prima positivi e poi negativi), analizzatore di massa (separazione rapporti massa/carica) e rilevatore. Introduzione del campione: tramite cromatografia GC (analiti gas, liquidi poco polari che devono essere derivatizzati per diventare volatili) e LC (sostanza poco volatili, non derivatizzate) o infusione diretta, cioè usare direttamente la massa: miscela complessa introdotta direttamente in massa senza separare gli analiti, i frammenti sono mescolati tra loro, vengono separati ma non si sa da cosa derivino. Tramite le banche dati si possono ricostruire le molecole presenti, di solito è un passaggio preliminare a GC-MS. Si parla di tecniche targeted: si hanno gli standard e sono io a scegliere gli analiti. Sorgenti: devono emettere ioni stabili nel tempo (deve frammentarsi in sorgente e non in analizzatore). Interfacce LC: sono tutte più soft rispetto a quelle di GC, ma possono essere più o meno hard o soft. Le sorgenti hard impartiscono tanta energia (molecola eccitata dal punto vibrazionale), si formano più frammenti (ma non lo ione molecolare). Nelle soft viene trasferita minor energia, di solito si ha uno ione molecolare però pochi frammenti. 42 Come si fa a realizzare una ionizzazione in vuoto partendo da un ambiente liquido (solvente)? ESI (electrospray) e MALDI: interfacce in LC. Sono sorgenti che lavorano a pressione atmosferica (API), in ESI si ha un capillare che arriva dalla colonna in cui ci sono solventi (acqua+metanolo) e l’analita, per ionizzare si impartisce una carica (differenza di potenziale ai due estremi: uno è l’ago e uno è la piastrina) al capillare, che è in metallo. Se l’ago è collegato al terminale positivo si formeranno ioni positivi mentre se è collegato al terminale negativo si formano ioni negativi. Dal capillare esce il liquido, tangenzialmente arriva dell’azoto che va a formare delle goccioline cariche, le cariche sono sempre più strette in uno spazio piccolo, si respingono fino all’esplosione coulombiana che li porta verso l’altovuoto. Il MALDI (matrix assisted laser desoption ionization) è una tecnica di desorbimento: su un piattino si deposita il campione normalmente liquido che si mescola alla matrice e si lascia asciugare (cristallizza) e poi col laser si fa un desorbimento locale in un punto scelto col microscopio, gli ioni che vengono espulsi dalla superficie vanno in massa, non si usa in chimica clinica ma in proteomica. Funzionamento ESI: il capillare giunge dalla colonna e all’interno passa il campione (solventi + analita), prende il liquido direttamente dalla siringa e non dalla cromatografia, si applica una differenza di potenziale tra l’ugello e una piastrina posta davanti di + o – 5 kV (+ per impartire cariche positive e – per cariche negative), serve una prima guaina che ha un flusso di azoto (gas di nebulizzazione) che permette di creare delle goccioline cariche. Per desolvatare le goccioline, la sonda è riscaldata, intorto c’è un altro flusso di azoto che fa evaporare i solventi. La tendenza delle gocce è di allontanarsi perché hanno la stessa carica, l’azoto aiuta a indirizzarle. Sulla gocciolina le cariche si distribuiscono lungo la superficie, mentre evapora il solvente la distanza diventa minore tra le molecole, che si danno fastidio e quindi esplodono (limite di Raleigh), poi alla fine c’è una piastrina che li attira nella massa in altovuoto. Il flusso all’inizio è laminare, man mano si allunga. La ionizzazione elettrospray è di tipo soft, si può usare per composti volatili e non, ionici e/o polari (a medio/alta polarità), con basso ed alto PM fino a 150.000, spesso si formano ioni con carica multipla. La fase mobile è polare. Viene però inibita con alta concentrazione di sali. È molto sensibile. 45 collidono con le barre, man mano si cambiano i potenziali in modo da misurare tutti gli ioni. È molto diffuso perché robusto, anche se non ha un’alta risoluzione. Di prestazioni simili c’è l’analizzatore a trappola ionica: è un elettrodo a ciambella, sopra e sotto ci sono due calotte con le concavità rivolte verso l’esterno; gli ioni descrivono delle orbite stabili, continuano a girare fino a che non si decide. C’è un generatore di radiofrequenza legato all’elettrodo, un potenziale negativo e uno positivo. Si fanno entrare tutti gli ioni e si mettono dei voltaggi che li stabilizzino, gli ioni vanno in su e in giù facendo un percorso ad 8 e disegnando delle onde (non vanno inseriti troppi ioni). Le due calotte hanno due fori, cambiando i potenziali si destabilizza lo ione desiderato (o gli ioni) che cambia la traiettoria ed esce andando sul rivelatore (eiezioni di massa selettiva), variando gradatamente i potenziali man mano escono tutti. Il moto degli ioni dipende dal valore m/z, dalle dimensioni della trappola (r), dal voltaggio della corrente alternata, dal voltaggio della radiofrequenza e dalla frequenza della radiofrequenza. I parametri a e q creano un’area in cui gli ioni sono stabilizzati, per farli uscire si deve uscire da quest’area, la regione di stabilità è l’asse x perché si prende a=0, variando q la regione si stringe e m1 esce dalla regione di stabilità, poi si varia ancora per far uscire m2… Aumentando la pressione (aggiungendo azoto), si può frammentare nuovamente lo ione desiderato (tutti gli altri vengono fatti uscire prima) perché impatta, questi frammenti poi escono uno per uno e si possono misurare in rapporto massa/massa. Analizzatore a tempo di volo (TOF): si ha un tubo di deriva lungo 1 m, in cui si hanno gli ioni prodotti che vengono accelerati (con una diff. di potenziale) e si sparano in questo tubo in cui non c’è campo elettrico, quelli più leggeri vanno avanti più velocemente, quelli più pesanti 46 (rapporto m/z più alto) arrivano in fondo dopo. Non hanno limiti sul rapporto m/z, perché misurano il tempo (che dipende dal rapporto m/z, dalla lunghezza l e dal voltaggio con cui si accelerano). Non ha risoluzione molto elevata, perché gli ioni entrano con un pacchetto di energie cinetiche, però si può migliorare tramite un sistema detto reflectron o mirroring: uno specchio ionico con una certa profondità, gli ioni vanno avanti, risentono di un campo elettrico e tornano indietro percorrendo lo stesso cammino. L’aumento di risoluzione è dato dal fatto che, nel reflectron, per far tornare indietro gli ioni bisogna avere un campo elettrico con carica uguale a quella degli ioni, quelli con m/z più piccolo vengono sparati molto infondo ed entrano nella parte più interna (risentono della carica e vengono sparati molto più forte di quelli con rapporto m/z maggiore). La banda, entrando più all’interno, diventa più piccola (maggior compattezza) portando a più alta risoluzione. Il TOF va molto bene con sorgenti pulsanti, il metodo MALDI-TOF è ancora migliore e viene utilizzato in proteomica. Anche col quadrupolo si può fare il rapporto massa/massa (massa tandem), si può fare nello spazio o nel tempo. Nello spazio: triplo quadrupolo. Solo il primo e il terzo quadrupolo agiscono da scansionatori di rapporto m/z, il secondo agisce come cella di collisione o trappola lineare: si fa una scansione degli ioni che arrivano dalla colonna e sono stati ionizzati, si fa cambiare potenziale pian piano nel tempo, escono tutti uno dietro l’altro, ma la cella di collisione è impostata in modo da intrappolare uno ione in particolare. Tramite un campo elettrico (stessa carica dello ione in entrambi gli estremi) si intrappola lo ione che si vuole frammentare, in questo modo lo ione fa avanti e indietro per il percorso. Aumentando la pressione, tramite il damping gas, gli urti fanno frammentare lo ione con un determinato rapporto m/z desiderato. I frammenti che escono vanno nel terzo quadrupolo che ha funzione di scansione. Nel tempo: tramite la trappola, al tempo 1 arrivano gli ioni e si intrappolano tutti, al tempo 2 si fanno uscire tutti tranne lo ione che si vuole frammentare, si fa entrare il damping gas e si frammenta lo ione, cambiando il potenziale poi escono i frammenti uno alla volta e si misurano. Modalità operative in MS/MS Product ion spectrum: il primo quadrupolo è fisso su un rapporto m/z, si passa alla cella di collisione dove si frammenta, questi vengono inviati al secondo quadrupolo che fa una scansione. A fronte di un unico precursore si vogliono vedere tutti gli ioni prodotto. Precurson ion spectrum: insieme di precursori creati in sorgente (ioni frammentati), il primo precursore si invia alla cella di collisione e si frammenta, poi il secondo, poi il terzo ecc cercando un determinato rapporto m/z perché l’ultimo quadrupolo è fisso su un rapporto m/z, è uno spettro sul precursore di cui si misura un’intensità. Multiple reaction monitoring: non si usa in cromatografia. Prima si fa la scansione di tutti i rapporti m/z ottenuti dalla ionizzazione e di tutti i frammenti che si possono ottenere (per capire qual è il precursore più importante e di questo il frammento), poi si fa MRM, ci si concentra su una sola coppia precursore-prodotto (si accumula più segnale in un frammento di tipo qualifier e quantifier). Il primo quadrupolo si ferma su un solo precursore (m/z del precursore), lo fa passare, va nella cella di collisione, lo frammenta, il terzo quadrupolo è di nuovo fisso (m/z del prodotto). Non si misura tutto ma solo quello che mi interessa. 47 EQUILIBRIO IDROELETTROLITICO Focalizzato sull’equilibrio di acqua nell’organismo, il 50% è nel compartimento intracellulare, il 20% nell’extracellulare (15% liquido interstiziale e linfatico e 5% liquido intravascolare e plasmatico) e 30% in altre sedi. L’acqua si muove nei diversi comparti, quando si misurano dei parametri si misurano le concentrazioni, non quantità assolute. La concentrazione di un dato parametro dipende da quanto analita c’è (ferro concentrato: tanto ferro o poca acqua). Alcuni analiti sono più sensibili a questi meccanismi, altri meno, in base a come vengono escreti: ciascun analita viene espulso tramite una via preferenziale. Gli elettroliti principali sono Na+, K+, Ca2+, Mg2+ (si muovono anche senza l’associazione di proteine di trasporto) e gli anioni Cl-, HCO3 -, HPO4 2- (cloruri, bicarbonati) e proteine. Oligoelementi: ferro, rame, manganese, cobalto, zinco, iodio sono presenti in quantità minori e sono legati alle proteine perché altrimenti sarebbero tossici, dunque non sono elettroliti. In alcuni casi le proteine sono specifiche, in altri casi interviene l’albumina. Nel plasma gli elettroliti principali sono sodio (140), potassio (4,5), cloruri (102), bicarbonato (27) e proteine. Nei liquidi intracellulari si ha maggiormente potassio (160), meno sodio (10) e i fosfati che accompagnano il potassio (90). I cloruri si muovono insieme al sodio (3). Questo avviene grazie alla pompa Na/K. Quando parliamo di bilancio idroelettrolitico dobbiamo parlare di pressione osmotica: dipende dal numero di particelle presenti nella soluzione e si esercita a livello di ogni membrana semipermeabile, a temperatura costante è proporzionale alla concentrazione. Per soluzioni di sostanze non dissociate molarità e osmolarità (o molalità) e osmolalità coincidono. Per sostanze che si dissociano bisogna tenere conto del numero di particelle che effettivamente si dissociano. 50 Per il potassio si può usare la fotometria o un elettrodo ionoselettivo, nell’elettrodo c’è la soluzione satura di quello ione che si vuole determinare, ma cambia la membrana (spesso alla valinomicina). Gli elettrodi ionoselettivi sono simili a un elettrodo a vetro (per la misura del pH) ma con una diversa membrana: - Membrana a stato solido: è un cristallo, per i cloruri sarà AgCl, per i fluoruri sarà un monocristallo di fluoruro; - Membrana a matrice polimetrica: per determinare il potassio, il calcio, nitrati e ammonio, è un polimero con alta selettività verso uno ione; - Elettrodi con membrana di vetro: per il sodio, sensibile agli ioni Na+; - Elettrodi gas sensibili: permettono di misurare il gas, c’è un elettrodo che non comunica direttamente con l’esterno ma con una soluzione intermedia, e una membrana permeabile ai gas, il gas passa attraverso la membrana esterna, la soluzione intermedia e provoca una variazione di pH (es. elettrodo per misurare la CO2). Determinazione della pressione osmotica: metodi diretti basati sull’abbassamento del punto di congelamento di una soluzione o sull’innalzamento della tensione di vapore. Le soluzioni che contengono 1 mole di soluto e 1 kg di acqua (soluzione osmolale) hanno un delta crioscopico di 1858°C. 1000(mOsm) : 1.858 = X : Δ. X è la pressione osmotica (mOsm/Kg H2O). Altre determinazioni: tecnica RIA per renina/angiotensina, aldosterone, ormone antidiuretico o con una tecnica immunometrica (come ELISA). L’ELISA sfrutta l’interazione tra antigene- anticorpo visualizzato grazie a un marcatore che è un enzima legante l’anticorpo. Invece di un enzima si può anche utilizzare un isotopo radioattivo (utilizzato in rari casi per piccole concentrazioni, è un metodo più sensibile dell’ELISA). MISURE ENZIMATICHE Si usano perché sono selettive, funzionano solo per un determinato substrato, ci possono essere però interferenti che incentivano l’azione dell’enzima o più facilmente la inibiscono (si misura una concentrazione più alta del normale). Per sviluppare questi metodi in precedenza vengono effettuate delle prove. Si scelgono strategie di analisi (anche combinate) per arrivare ad un'unica lettura finale, es: si accoppiano 2/3 reazione per arrivare ad una reazione NAD dipendente perché si può misurare a 340 nm. Per misurare l’equilibrio acido-base nel sangue ci si sofferma su prelievo e conservazione, l’analisi dev’essere fatta entro 60 minuti dal prelievo, o si possono avere modifiche di pH, se in acqua e ghiaccio anche dopo 2-3 ore. Si determinano pH, pCO2 e pO2. Il pH si misura con l’elettrodo a vetro. La pCO2 è una misura potenziometrica (diff. di potenziale tra due elettrodi), l’elettrodo per misurare la CO2 è di tipo a membrana sensibile ai gas con un elettrodo a vetro all’interno per misurare il pH: si usa una membrana di teflon permeabile alla CO2. CO2+H2O→H2CO3 H2CO3→H+ + HCO3 - 51 La CO2 entra, si scioglie in acqua dando acido carbonico, l’acido carbonico si dissocia modificando il pH che viene misurato dall’elettrodo di vetro. L’ossigeno viene misurato con una tecnica amperometrica, viene impostata la differenza dei potenziali e si misura la possibilità con più o meno ossigeno di generare un corrente (elettrodo di Clark). Si usa un diff. di potenziale tale da ridurre l’ossigeno, la membrana invece fa passare esclusivamente ossigeno. Un elettrodo è un catodo in platino (A), l’altro è un anodo di Ag/AgCl (B), viene impostata una differenza di potenziale di 600-800 mV. L’O2 diffonde attraverso la membrana (D) e si riduce al catodo: O2 + 4e− + 2H2O → 4OH− Poi all’anodo si ha un’ossidazione: 2Ag + 2Cl− → 2AgCl + 2e− In C c’è una soluzione satura di KCl che permette di non avere cambiamenti nell’elettrodo di Ag/AgCl, tutto dipende da quando ossigeno c’è: la corrente prodotta è proporzionale alla pO2. Calcio e fosfati nel sangue Anche in questo caso si vogliono misurare dei cationi. Il calcio è più presente nel nostro corpo, ma non nel circolo sanguigno (micromoli/litro negli eritrociti e 2 millimol/l nel plasma). Il calcio per il 50% è legato all’albumina, il resto è libero o complessato con citrato e fosfato e dunque diffusibile. Le tre forme sono in equilibrio e la loro distribuzione varia al variare del pH. Calcio e fosfato viaggiano insieme attraverso degli ormoni quali paratormone: prodotto nella tiroide e poi scisso nel fegato, la porzione N terminale agisce sui reni aumentando il riassorbimento di calcio per farlo aumentare in circolo, riduce il riassorbimento di fosfato e aumenta l’azione della vitamina D, nelle ossa aumenta il riassorbimento di entrambi, anche nell’intestino aumenta il riassorbimento di entrambi per azione della vitamina D. La vitamina D si produce nell’epidermide, viene idrossilata nel fegato e nel rene viene formato il metabolismo attivo. È un pre-ormone. Azioni: sul piccolo intestino (assorbimento Ca e fosfati), nell’osso e nel rene. La calcitonina, gli ormoni tiroidei e gli osteoclasti possono andare a stimolarne l’assorbimento o essere antagonisti. Metodi di analisi su Ca e fosfati: sangue e urine prelevati a digiuno perché il calcio aumenta dopo i pasti. Emolisi evitata per i fosfati e separazione tempestiva degli emocomponenti per evitare che gli eritrociti perdano esteri fosforici organici. Per misurare Ca e fosfati nelle urine delle 24 ore si aggiungono 50 ml di HCl 3M per essere sicuri di avere pH<2 in modo che non precipitino ossalati o fosfati di calcio. Determinazione Ca: metodi indiretti (ormai abbandonati perché soffrono di interferenze), metodi diretti con altri complessanti solubili (8-idrossichinolina per eliminare Mg eppure blu di 52 metiltimolo), metodi fisici (fotometria di emissione a fiamma) o con elettrodi ionoselettivi a membrana liquida (impregnata di liquido che agisce da scambiatore). Qui il collegamento elettrico è un filo d’argento, la soluzione è satura di AgCl e CaCl, la membrana al di sotto è impregnata da una soluzione di scambiatore ionico (dialchilfosfato di calcio). Il calcio può essere in fase organica o in fase acquosa e la fase organica è negativa. Il potenziale dipende solo dalla concentrazione di calcio all’esterno della membrana. Si fa diviso due perché sono 2 elettroni scambiati. Analisi dei fosfati: l’indicatore è la coppia NADP-NADPH, a seconda che la reazione sia spostata verso destra o sinistra viene misurata rispettivamente un’assorbanza di 340 nm o di -340 nm. L’unico fattore limitante della reazione dev’essere il fatto che non ci siano i fosfati (i reagenti e gli enzimi vanno aggiunti dall’operatore: glicogeno, fosforilasi, NADP…), si fa un’incubazione a 37° per un tot di tempo in modo che l’ambiente sia stabile (cosicchè tutte le reazioni che potrebbero avvenire avvengano). Anche l’acqua ossigenata è un analita che si può sfruttare perché si legge a 293 nm. Oppure si usa la chinonimmina che si legge a circa 555 nm. Per misurare paratormone, calcitonina e AMP ciclico si misurano con tecniche immunometriche (come la RIA), la vitamina D si analizza con una tecnica simile alla RIA in competizione proteica. Marcatori: fosfatasi alcalina (misurata come attività catalitica, in questo caso si vuole misurare l’enzima), idrossiprolina, galattosil idrossilisina (misurate in HPLC a seguito di derivatizzazione per renderle rilevabili con fluorimetro). Magnesio: dopo calcio, sodio e potassio è il catione più abbondante, il 65% si trova nelle ossa, l’1% nei fluidi cellulari, nel siero è legato per il 30% alle proteine. La presenza di calcio, grassi, fosfati e acido fitico ne diminuiscono l’assorbimento nell’intestino perché sono molecole molto simili. Scambiatore g 55 Chetonuria: si usa tanto nelle striscette che si usano a casa, sfruttano il nitroprussiato, la glicina e tampone alcalino: acido acetoacetico e acetone reagiscono col nitroprussiato e danno un colore rosso-viola. Normalmente i chetoni si misurano sulle urine. Altre meliturie (non solo glicemia): se reazione negativa alle cartine e positiva a reattivi riducenti (come Fehling). Fehling A è solfato rameico e Fehling B è un tampone, serve a mantenere il pH adeguato a tenere in soluzione il rame e non farlo precipitare in soluzione come idrossido. Si porta ad ebollizione o si mette a bagnomaria, la comparsa di un precipitato di ossido rameoso rosso conferma la presenza di un carboidrato con capacità riducente (non glucosio). Bisogna quindi confermare carboidrati anomali con cromatografia su carta o su strato sottile di alluminio. La fase stazionaria è l’acqua che impregna la carta, su alluminio potrebbe essere la lumina (adsorbimento) o l’acqua (ripartizione). Se ci sono altri carboidrati si dà solo una conferma, non si misura una concentrazione Acido lattico: Acido piruvico: si sfrutta la stessa reazione al contrario Galattosio: tre diverse strategie (acqua ossigenata a 293 nm, chinonimina a 555 nm o reazione NAD dipendente a 340 nm). Emoglobine glicate: si separano con cromatografia a scambio ionico; di affinità; HPLC; isoelettrofocalizzazione, cioè elettroforesi su gel monodimensionale, su delle strip, viene applicata una differenza di potenziale agli estremi, quando raggiungono la posizione in cui il punto isoelettrico è 0 non migrano più (isofocalizzazione), se vanno un po’ più avanti risentono del campo elettrico e ritornano nella posizione in cui erano, l’emoglobina glicata migra in una certa posizione, quella non glicata in un’altra, si fa la somma di tutte le aree poi si prende l’area di quella glicata rispetto a tutte le altre; elettroforesi capillari. Si va a misurare l’emoglobina glicata rispetto a quella non glicata, è una percentuale, una misura semiquantitativa. Ormoni: misurati tramite tecnica immunochimica RIA o immunochimica con altri marcatori enzimatici. LIPIDI E LIPOPROTEINE (per eventuali arterosclerosi) Nel sangue i lipidi sono sotto forma di fosfolipidi, trigliceridi, colesterolo libero ed esterificato. Nel circolo sanguigno vengono trasportati da apolipoproteine formando lipoproteine. Il colesterolo esterificato (idrofobico) e i trigliceridi stanno più all’interno mentre i fosfolipidi all’esterno delle lipoproteine. Il colesterolo è fondamentale per la flessibilità delle membrane cellulari. Le lipoproteine vengono suddivise per ultracentrifugazione in base alla densità: al di sopra ci sono i chilomicroni (che trasportano trigliceridi alimentari), poi VLDL, LDL, HDL. Hanno densità diversa perché hanno composizione diversa: diversa componente proteica e diversa composizione dei lipidi all’interno. Esistono anche le IDL che sono strutture intermedie tra VLDL e LDL. Non sono ben distinguibili quando divise per densità. I chilomicroni sono quasi completamente trigliceridi, man mano che si guardano VLDL, LDL e HDL i trigliceridi diminuiscono, i fosfolipidi sono simili dappertutto, mentre gli esteri del colesterolo sono molto 56 presenti nelle LDL e un po’ meno nelle HDL e VLDL, le proteine sono presenti maggiormente nelle HDL, poi nelle LDL, nelle VLDL e poche nei chilomicroni, il colesterolo è presente maggiormente nelle LDL e VLDL. Le HDL sono quelle che trasportano indietro i lipidi (dai tessuti al fegato). Si possono separare anche con un tracciato (lipidoprogramma) elettroforetico (più interessati alle proteine): i chilomicroni non migrano (parte proteica minima), poi si hanno le LDL (vicine ai chilomicroni) e le VLDL (vicino alle HDL) e le ultime sono le HDL. I chilomicroni sono i più grandi, le lipoproteine man mano hanno strutture sempre più piccole perché le densità sono maggiori. Le bande sono ampie ma ben separate, per separarle ulteriormente si fa un tracciato in un’unica dimensione, si tracciano le aree di ciascuna banda (semiquantitativa). Il lipidogramma elettroforetico permette di separare le 4 bande principali: banda dei chilomicroni (che non migrano), β-lipoproteine, pre β-lipoproteine e α-lipoproteine. I pesi molecolari vanno da 1010 a 105 Da, i diametri vanno da 1200 a 4/14. I chilomicroni sono composti per l’80/90% di trigliceridi mentre man mano diminuiscono nelle altre, il colesterolo è basso nei chilomicroni ed è maggiore nelle LDL e un po’ meno nelle HDL. È utile misurare tutte le particelle per conoscere il bilancio lipidico: è importante il rapporto, non la quantità di ognuna. Si possono misurare anche solo le apolipoproteine (porzione proteica). Negli esami si misurano apoA1 (che trasportano le HDL) e apoB (che trasportano le LDL). Non si misura il passeggero ma il veicolo. Il rischio cardiovascolare è definito come il rapporto tra colesterolo tot/HDL o apoB/apoA. Scissione esteri del colesterolo grazie a una colinesterasi, si ottiene colesterolo libero che con una colesterolo-ossidasi e forma colesterone + acqua ossigenata (293 nm) oppure si usa il reattivo di Trinder che con 4-amino antipirina dà un chinonimina rossa. Si può misurare anche la scomparsa si ossigeno con elettrodo di Clark. Per misurare il colesterolo in associazione alle lipoproteine si possono aggiungere polianioni e cationi bivalenti e così precipitano le LDL e le VLDL e si separano per centrifugazione. Le HDL rimangono nel surnatante e si misurano dopo aver separato le altre. Si usa sempre la colinesterasi ma cambia il campione di partenza. Non è necessario separare LDL e VLDL ma l’importante è isolare le HDL. Ci sono anche mezzi diretti che sfruttano l’uso di anticorpi. Per misurare i trigliceridi (passeggeri) si usano metodi enzimatico-colorimetrici: 57 Altrimenti si misura il consumo di ossigeno con l’elettrodo di Clark. Acidi grassi non esterificati misurati con acetil CoA sintetasi: Lipoproteine: tecniche immunonefelometriche o immunoturbidimetriche, si basano sull’interazione tra radiazione luminosa e soluzione: interazione di tipo non-specifico (non dipende da legami chimici ma di tipo fisico). Se la radiazione incidente ha una lunghezza d’onda confrontabile con le dimensioni della molecola in soluzione, questa rimanda la radiazione in tutte le direzioni (non è un assorbimento è uno scattering), a 90° si misura. Non basta la lipoproteina di per sé, è prevista un’interazione antigene-anticorpo in modo da creare una molecola sufficientemente grande da provocare lo scattering della radiazione incidente. PROTEINE Determinare proteine vuol dire determinare strutture molto eterogenee (con strutture, legami, pesi molecolari diversi). Quando si esegue l’elettroforesi delle sieroproteine, ci interessa un trattato semiquantitativo, riuscire a determinarle tutte in un tracciato elettroforetico è impossibile (segnale convoluto). Altrimenti in biomarker discovery si usa una HPLC in MS-MS, si identificano le singole proteine e si fa una semiquantitativa (cioè senza standard). C’è l’albumina presente in fortissima concentrazione e altre a concentrazioni differente molto più specifiche, questo è un problema dal punto di vista analitico perché copre il segnale delle altre. La logica è eliminare l’albumina e misurare le altre a cui siamo interessati. Nei macroeffetti invece mi interessa anche l’albumina. Il biomarcatore è qualcosa che nella patologia appare e non è presente nel controllo e bisogna identificarlo immediatamente. Supporti: acetato di cellulosa (foglio sottile) o agarosio (gel), la striscetta ha un certo pH, all’inizio la migrazione è rapida perché hanno una carica alta, per la focalizzazione ci vuole più tempo, una volta separate le sieroproteine si colorano con rosso Panceau o blu Coomassie, l’intensità è proporzionale alla concentrazione (retta di concentrazione). Poi si decolora per un tempo fisso con acido acetico o metanolo e si fa una lettura densitometrica. Banda stretta e alta: ci sono tante proteine, i punti isoelettrici sono vicini, quindi le strutture sono simili (albumina), se la banda è più larga le strutture sono più eterogenee (es. immunoglobuline). Banda α1: contiene maggiormente α1-antitripsina, la banda α2 contiene α2-macroglobulina e aptoglobina, la banda β contiene transferrina e frazione C3 del complemento. Il tracciato è utile perché ad occhio si possono vedere eventuali modificazioni. 60 Immunodiffusione radiale semplice: tecnica in gel, viene depositato un anticorpo specifico per l’antigene da determinare. In ciascun pozzetto scavato nel gel viene posto l’anticorpo, poi viene posizionata una goccia di soluzione standard di antigene a concentrazione crescente, man mano che l’antigene diffonde lascia dietro di sé un precipitato ad anello che si muove verso la periferia. Il rapporto stechiometrico verrà raggiunto prima se la concentrazione è maggiore. Il diametro dell’anello è proporzionale alla concentrazione di antigene. Si ottiene così una retta di taratura ponendo nel grafico il diametro e la concentrazione di Ag. È una tecnica quantitativa. Immunodiffusione doppia: non nasce come metodo quantitativo, lo scopo è l’identificazione di un antigene. Ci sono tre pozzetti: in quello centrale viene inserito l’anticorpo (in base all’antigene che si vuole trovare), nei pozzetti laterali ci sono standard con diversi antigeni. È un’immunoprecipitazione, l’anticorpo migra e dunque anche l’antigene (sia lo standard che quello incognito), dove si incontrano antigene ed anticorpo si trova il precipitato, questo si formerà in maniera diversa a seconda che gli antigeni siano uguali, parzialmente uguali o completamente diversi: se nel pozzetto dello standard c’è un epitopo A e un epitopo B e anche nel pozzetto con antigeni incogniti allora il precipitato sarà una linea continua che disegna un arco (immagine a); se nello standard c’è l’epitopo A e B e nell’altro pozzetto gli epitopi A e C, A dà una linea continua, C darà una linea aggiuntiva perché l’anticorpo non si lega (immagine c); se gli epitopi sono completamente diversi es: AB e BC, da un lato viene riconosciuto solo A, dall’altro solo B, non c’è niente in comune (immagine b). Tanto più elevata la concentrazione di antigene tanto maggiore la linea sarà distante dal suo pozzetto e più vicina all’anticorpo (semiquantitativa). 61 Immunoelettroforesi: si aggiunge all’immunodiffusione. Si hanno 5 pozzetti con antigene a concentrazione crescente e due pozzetti in fondo dove viene inserito l’incognito e l’incognito diluito 1:2. L’anticorpo è in tutto il gel. Il metodo di misura si basa sempre sul precipitato, ma in questo caso non si forma per diffusione, ma si applica una differenza di potenziale e l’antigene comincia a correre e mentre corre si lascia indietro l’antigene che reagisce con l’anticorpo. Quando precipita, perché c’è il rapporto stechiometrico corretto, si ferma. Quindi si vedono archi di immunoprecipitazione, quello che ci interessa nel grafico è l’altezza dell’arco. In questo caso il segnale viene “stiracchiato”, quindi è un metodo più sensibile (differenza maggiore tra le diverse concentrazioni). Immunoelettroforesi bidimensionale: si ha prima una striscetta di gel interfacciata poi con una seconda dimensione. Non si ha un gel quadrato ma le due corse sono indipendenti: la prima si fa su una striscetta, nel frattempo si prende un gel rettangolare e, dopo che nella prima gli analiti sono separati, si mettono vicini; a questo punto si applica una differenza di potenziale trasversalmente che li fa migrare dalla striscetta alla lastrina bidimensionale. Gli antigeni sono separati mediante l’elettroforesi sull’agar, una porzione rettangolare del gel viene tagliata e trasferita su una lastra di vetro quadrata. Adiacente al gel è fatto solidificare uno strato d'agar contenente un anticorpo e si esegue un’elettroforesi perpendicolare alla precedente. Si formano archi di precipitazione a campana. Confrontando le aree sottese da ciascun arco tra standard si ottiene stima semiquantitativa della concentrazione. Queste sono tecniche di immunoprecipitazione in gel, possono essere elettro o meno. 62 Saggio immunoenzimatico competitivo: utilizziamo il legame con l’anticorpo per legare in modo specifico l’antigene (o viceversa se ci interessa l’anticorpo). Questo metodo non serve ad avere un precipitato ma a sapere se c’è un antigene. Il sistema per marcare questo legame può essere radioattivo o no. Reazione enzimatica: test ELISA. Metodo competitivo: la cosa più semplice è avere anticorpi specifici per l’antigene posizionati in una provetta adesi sulla superficie, si fa agire una quantità nota di Ag* (antigene marcato con l’enzima), l’analita di interesse è quello non marcato, si fa quindi competere l’incognito con il noto. Gli antigeni si legano agli anticorpi e poi si lava tutto quello che è in eccesso, si aggiunge substrato per l’enzima marcatore e si fa avvenire una reazione enzimatica. Questo svilupperà un colore, questo è tanto più forte quanto maggiore è l’antigene in soluzione. Si fa il confronto di questa misura quando non è presente il campione incognito e quando è presente e si quantifica. Si può anche fare una retta di taratura a concentrazioni crescenti di antigene marcato. Più si ha incognito, meno marcato ci sarà nella struttura (tanto più colore ho, tanto meno analita ci sarà). Metodo del doppio anticorpo: sulla superficie ci sono gli anticorpi che reagiscono con l’antigene e formano una struttura, poi si inserisce un altro anticorpo che riconosce un altro epitopo dell’antigene e si forma una struttura a sandwich (anticorpo 1- antigene – anticorpo 2), si lava e sulla superficie rimane solo questa struttura, dove si crea c’è antigene, poi si aggiunge il substrato, avviene la reazione enzimatica e si sviluppa colore. Si fa aggiungendo quantità crescenti di antigene, così si avranno più legami e più segnale (retta di taratura). Qui è il secondo anticorpo ad essere marcato. Per determinare l’anticorpo invece si avrà l’antigene legato in provetta e l’anticorpo si lega, il secondo anticorpo non riconosce l’antigene ma l’anticorpo. Panino: antigene - anticorpo 1 - anticorpo 2. Tecnica RIA: il marcatore è radioattivo, si usa lo iodio 125 (Ag*). Competizione tra Ag freddo e Ag* per il legame con un numero limitante e costante di siti anticorpali. La tecnica è uguale all’ELISA ma si misura tramite un metodo strumentale ed è necessario smaltire nei rifiuti speciali. Precipitazione frazionata: metodo per determinare le proteine, ma non è un metodo molto sensibile perché le proteine possono co-precipitare. Si usano agenti denaturanti: calore, acidi forti (tricloroacetico, sali di metalli pesanti) … si esegue una centrifugazione o una filtrazione per separare. Si modifica la solubilità della proteina cambiando com’è distribuita l’acqua intorno alla proteina (i sali creano una forza ionica elevata e attira l’acqua) e si creano interazioni idrofobiche maggiori tra le proteine (si aggregano più facilmente). Dipende dalla natura del sale, dal pH, dalla temperatura e dalla concentrazione iniziale di proteine presenti. Le proteine del plasma possono essere così suddivise: globuline (33%), albumina (60%) e fibrinogeno (presente in quantità inferiori alle prime due e meno solubile). Si può fare una semisaturazione: precipitare le globuline mentre l’albumina rimane in soluzione in modo da verificare che il rapporto 65 - Enzimi del pancreas: amilasi (aumenta per pancreatite, occlusione intestinale, coliche, appendicite), vengono monitorate anche lipasi, tripsina, chimotripsina. - Enzimi del muscolo: CK e aldolasi. - Enzimi dell’osso: fosfatasi alcalina ed ALP. Analisi: prima di eseguire la misura dell’attività enzimatica bisogna eseguire una preincubazione per stabilizzare il sistema e mettere l’enzima delle migliori condizioni per operare, tra cui la temperatura (30-37°C ± 0,1), pH. Serve anche ad esaurire le reazioni collaterali che competono con quella interessata per evitare falsi positivi. Poi si misura la velocità di reazione (misura cinetica): velocità di comparsa dei prodotti o di scomparsa del substrato per unità di tempo. Questa misura non può essere fatta in tempi lunghi per evitare l’accumulo del prodotto e l’esaurimento del substrato. Concentrazione iniziale- concentrazione ad un certo tempo, se diminuisce misuriamo il substrato, se aumenta misuriamo i prodotti. Sistema a due punti: si fa la misura del campione e la misura del bianco. Raramente utilizzato perché poco preciso. Si predilige un sistema di misura in continuo, in cui si monitora una grandezza che cambia nel tempo, può essere un’assorbanza, una torbidità, una diffrazione di luce, una fluorescenza, un cambiamento di pH, un potenziale elettrico… Caso più semplice: A + B → C + D attraverso un determinato enzima. A e B o C e D assorbono ad una certa lunghezza d’onda. Se assorbe il substrato si ha una diminuzione di assorbanza (perché il substrato va diminuendo), se assorbe il prodotto si ha un aumento di assorbanza (perché il prodotto aumenta col passare del tempo). Esempio: si misura il giallo a 405 nm Si guarda quindi come cambia l’assorbanza in due tempi. Per enzimi trasportatori di idrogeno NAD e NADP dipendenti (deidrogenasi), si misura a 340 nm perché la specie idrogenata assorbe e l’altra no. Si vede un decremento se si forma NAD+. Ci interessa ad esempio per misurare LDH. 66 Test ottico con indicatore: nessun prodotto o reagente assorbe, si accoppia la reazione enzimatica primaria ad una secondaria indicatrice. Si prende un prodotto della prima reazione e trasformarlo in qualcos’altro che assorba (NAD dipendente o sviluppo di un colore). Si lavora in ambiente acido e si aggiunge NADH e LDH per non dare falsi positivi. Il substrato si mette all’ultimo per iniziare la misura. Nella preincubazione avviene la reazione di conversione del piruvato presente nel campione in acido lattico nella prima fase. Fattori che interferiscono sulla velocità della reazione: pH del mezzo di reazione, temperatura, cofattori (es. ioni metallici, non devono essere fattori limitanti, quindi si aggiungono), presenza di inibitori (si fanno agire nella preincubazione), quantità di enzima (fattore limitante), il substrato (non dev’essere un fattore limitante quindi si aggiunge 50 volte la costante di Michaelis, appena si aggiunge si fa l’analisi). Substrati naturali (per LDH, AST, ALT, CK) o artificiali (CHE), scelti in base alla comodità di misura. Per gli isoenzimi si usano metodi generali (si separano e si misurano singolarmente) o metodi specifici (si misura il singolo isoenzima, più difficile). Per quanto riguarda i metodi generali, gli isoenzimi possono essere separati tramite: elettroforesi, dopo si diluiscono le diverse frazioni e si testano separatamente; in chimica clinica si separano su un supporto e quindi colorarli diversamente (semiquantitativa); cromatografia (scambio ionico, adsorbimento ed esclusione dimensionale perché sono grandi molecole); elettrofocalizzazione (separati in base al punto isoelettrico). Metodi specifici: essendo diversi strutturalmente si può inibirne un isoenzima e non l’altro. Es: inibizione chimica (inibizione differenziale aggiungendo ioni metallici, fluoruri, etanolo…), inibizione fisica (resistenza a diverse temperature) o inibizione immunologica (aggiunto un anticorpo specifico per un isoenzima). COMPOSTI AZOTATI E CATABOLISMO DI AA E PURINE 67 Composti azotati: ammoniaca, urea, creatina e creatinina, provengono dal catabolismo degli amminoacidi, sono in relazione col ciclo dell’urea e vengono escreti con le urine. Metabolismo degli aa prevede di metabolizzare un gruppo amminico e lo scheletro carbonioso. Gli aa cedono il gruppo amminico ai rispettivi chetoacidi tramite transaminazione: α-aminoacido trasformato in α- chetoacido e il chetoglutarato viene trasformato in glutammato (il glutammato è l’unico aa a cui si può strappare il gruppo amminico con una reazione di deaminazione) e l’ammoniaca viene trasformata in urea. L’ammoniaca è tossica quindi viene trasformata in una sostanza che può andare in circolo. I chetoacidi invece entrano nel ciclo di Krebs e alcuni sono aa glucogenici (formano glucosio), altri chetogenici (formano corpi chetonici) e altri rientrano in entrambe le categorie. L’urea viene sintetizzata nel fegato, la fonte di ammoniaca può derivare da intestino e muscoli durante l’esercizio intenso (oltre il fegato). Dall’urea si può formare creatina (sintetizzata nel fegato e nel pancreas, usata per il fabbisogno energetico dopo essere stata fosforilata negli organi periferici) e creatinina. L’ammoniaca può anche essere usata per creare purine, pirimidine e porfirine (dopo essere trasformata in carbamilfofato), se ce n’è di libera, viene trasformata in urea e ammonio. L’urea rappresenta l’80/90% dell’azoto escreto tramite le urine. In condizioni fisiologiche viene prodotta più urea di quella che viene escreta, quindi il rimanente diventa ammonio. La creatinina viene filtrata nel rene. La concentrazione di urea nel sangue è indice di funzionalità renale, per valutare il contenuto proteico della dieta e l’efficienza del metabolismo epatico. In alcune analisi dell’attività renale serve il rapporto tra urea e creatinina. Acido urico: si forma a partire dal metabolismo di guanina e adenina che forma inosina, ipoxantina, xantina e poi acido urico. Nel sangue è presente come urato monosodico, può precipitare nelle articolazioni quindi viene trasportato in circolo tramite l’albumina e altre proteine. Il 75% viene eliminato tramite l’urina, il resto dall’intestino. Può aumentare per un apporto di carne elevato (dieta) o una sintesi endogena di purine maggiore. Se supera una certa concentrazione va a precipitare nelle articolazioni di mani e piedi (gotta). Ad oggi questo problema può essere dato da motivi genetici più che dalla dieta. I cristalli (precipitato) aumentano i leucociti, l’acido lattico, diminuiscono pH e innescano un ciclo vizioso. L’ipouricemia è molto rara, è data da denutrizione grave o errori di metabolismo. Metodi di analisi: ammoniaca determinata tramite metodo enzimatico (20-80 µg/dl valori di riferimento). Analisi tramite metodo enzimatico: lo ione ammonio in presenza di glutammato deidrogenasi (GLDH) catalizza l’amminazione dell’acido cheto-glutarico (formazione di acido glutammico): Visto che la reazione è NADPH dipendente, si può seguire con misura dell’assorbanza a 340 nm. 70 ceruloplasmina (immesso nel plasma), escreto con bile. Il 95% di Cu si trova in circolo legato a ceruloplasmina, il 5% legato all’albumina. Ipocurpremia: malattie particolari. Ipercupremia: malattie epatiche, infarto, infezioni, malattie ematologiche o intossicazione acuta da rame: in generale è data dalla rottura delle cellule che rilasciano rame in circolo. Metodi di misura: spettrofotometria di assorbimento atomico o metodi colorimetrici dopo liberazione del rame in ambiente acido e formazione di complessi colorati (un po’ meno specifici, ci possono essere interferenze). Metodi di misura ceruloplasmina: tecnica immunochimica (nefelometria, turbidimetria). Zinco: 13-20 mg al giorno con la dieta. Assorbimento: intestino tenue. Eliminazione: buona parte escreto con le feci, una quota assorbita ed escreta con bile, saliva, succo pancreatico e intestinale. Nel circolo è legato all’albumina (facilmente scambiabile) o con enzimi e B2-macroglobulina (legame stabile, scambio difficoltoso). La deplezione può essere data da: infezioni acute e croniche, infarto miocardico, anemia perniciosa, malassorbimento, alcolismo, gravidanza. L’iperzinchemia è rara, associata in genere a esposizione industriale. [Zn] alta può interferire con assorbimento rame. In analisi bisogna fare particolare attenzione all’emolisi perché la concentrazione può aumentare di 15 volte. La contaminazione è frequente se si usano contenitori di vetro perché può rilasciare zinco, per evitarlo si usano trattamenti con acidi precedentemente. Come metodi di analisi si possono usare metodi colorimetrici basati su ditizone che dà un complesso colorato con Zn (interferenza altri metalli, metodo poco usato) o tramite spettrometria di assorbimento atomico. Lez. 18 del 21/12 Oligoelementi: in concentrazioni basse, sono cofattori di diversi enzimi, in parte sono essenziali, per alcuni il ruolo non è ancora chiaro, in sovraesposizione occupazionale danno problemi di tossicità (avvelenamento nei confronti del sistema nervoso, dermatiti…). Determinati tutti tramite assorbimento atomico a fornetto di grafite (grazie a cui si scende a un livello più basso di concentrazione rispetto alla fiamma). Sono cromo, cobalto, nickel, molibdeno, manganese (in decine-centinaia di ng/dl), selenio (4-12 µg/dl, si determina tramite assorbimento atomico con tecnica degli idruri che permettono di lasciare indietro la matrice, metodo più sensibile). Nel corpo viaggiano trasportati da proteine. SINTESI DEL GRUPPO EME E PROFIRIE 71 Acido 5-aminolevulinico da cui si ottiene il porfobilinogeno, a cui si assembla la struttura tetrapirrolica andando a condensare i 4 anelli, si assemblano uno alla volta e poi si vanno a modificare i gruppi funzionali in questo anello tretrapirrolico. Si passa quindi dal porfobilinogeno all’uroporfobirinogeno, al coproporfobirinogeno, al protoporfirinogeno, alla protoporfirina e infine al gruppo eme. Tutte le molecole che hanno anelli tetrapirrolici possono essere determinate tramite le proprietà chimico-fisiche: in soluzione acida hanno colore rosso-viola, in soluzione basica o nei solventi organici colore rosso-bruno. Lo spettro di assorbimento è caratteristico con una banda stretta a 410 nm e bande più deboli nel visibile. Inoltre all’esposizione con radiazione intensa a 400 nm emettono fluorescenza rossa. Inoltre la protoporfirina ha capacità di formare complessi con i metalli. Sintesi: avviene nelle cellule del midollo e in misura minore nei tessuti (soprattutto fegato). Le alterazioni di questo metabolismo possono essere: - Porfirie: alterazione a base genetica, i pazienti sono fotosensibili perché hanno una quantità più elevata del normale di queste molecole e presentano dermatiti e lesioni cutanee in seguito all’assorbimento della radiazione a 400 nm da parte delle porfirine. - Porfirinurie: associate a escrezione anomala di composti tetrapirrolici di solito indotte da fattori esterni: avvelenamento da piombo che inibisce gli enzimi nella sintesi dell’eme, epatopatie, malattie emolitiche, infarto del miocardio, alcolismo. Lo screening delle porfirine si fa sulle urine e sulle feci. Nelle urine si fa estrazione in solventi organici (alcol amilico, 1-pentanolo) dopo acidificazione con acido acetico e rivelazione con lampada UV della fluorescenza rossa (proporzionale alla concentrazione). Le urine normali sono molto poco fluorescenti. Nelle feci ci sono le clorofille che danno interferenza perché portano a fluorescenza, vanno dunque estratte con acido cloridrico prima di svolgere l’analisi. Si possono avere falsi positivi. Nei globuli rossi: microscopia a fluorescenza evidenzia su striscio di sangue la fluorescenza rossa. Screening del porfobilinogeno: trattamento urine con reattivo di Ehrlich dopo estrazione con cloroformio (che allontana urobilinogeno e derivati indolici interferenti). Test positivo (colore 72 rosso con para-amino-benzaldeide in ambiente acido) quando escrezione porfobilinogeno >8 mg/24h. Attività enzimatiche: determinazione degli enzimi legati alla sintesi dell’eme negli eritrociti e nei leucociti. L’acido δ-aminolevulinico urinario viene separato dal porfobilinogeno (perché danno interferenza) per passaggio dell’urina su colonna di allumina o resina a scambio ionico ma vengono determinati entrambi. Reazione con acetil-acetone (formazione derivato pirrolico) e con reattivo di Ehrlich di colore rosso. Queste determinazioni si fanno con le urine delle 24 ore per aumentare la loro concentrazione, si mantengono al buio (recipiente con pareti scure e carta stagnola) e raccolte in presenza di 5 grammi di Na2CO3 per stabilizzarne il pH. Si possono anche separare le varie porfirine con solventi. Se si vuole fare una separazione più selettiva si può fare cromatografia su colonna, su carta (misura semiquantitativa), HPLC (profili caratteristici per ogni patologia). Misura della banda di assorbimento a 400-419 nm o tecnica spettrofluorimetrica che misura la fluorescenza rossa. CATABOLISMO DEL GRUPPO EME (BILIRUBINA, BILINOGENI, ITTERI) Dal catabolismo si otterrà la parte inorganica (gruppo eme: ferro), la parte organica (anello tetrapirrolico) e la parte proteica (bilirubina). Queste prendono strade diverse: o vengono riutilizzate o vengono escreti. Ci sono due possibili vie: La molecola che si monitora prevalentemente è la bilirubina, deriva per la maggior parte dal catabolismo dell’emoglobina dei globuli rossi maturi e per il 10-30% da scissione dei globuli rossi giovani. La bilirubina in circolo è complessata con l’albumina, nel fegato viene coniugata con l’acido glucuronico. La bilirubina (gialla) coniugata entra con la bile nell’intestino e viene degradata dalla flora nel colon in urobilinogeno (incolore) e stercobilinogeno (bruno). Parte di urobilinogeno viene escreta (feci e urina) e l’altra parte riassorbita. Dopo l’escrezione si ossida dando pigmenti bruni (urobiline o stercobiline). 75 Si può usare un campione estemporaneo: eseguito di prima mattina, più concentrato, o un campione temporizzato: campione delle 24 ore. Conservanti per l’esame temporizzato: acido acetico glaciale 5 ml per estrogeni, idrossicorticosteroidi; HCl 6 M 30 ml per catecolammine, calcio (si stabilizza per non farlo precipitare, visto che si potrebbe pensare alla presenza di calcoli); Na2CO3 5gr per porfirine; mertiolato 1% 10ml per determinare enzimi, creatinina, ammoniaca, urea, acidità titolabile. L’esame delle urine si fa sul campione emesso da meno di 1-2 ore, importante per l’analisi del sedimento (evitare derive: non si deve disciogliere qualcosa che era precipitato ma nemmeno deve precipitare qualcosa che era disciolto). L’esame può essere fisico: colore, odore, peso specifico, volume (solo sulle urine delle 24 ore), trasparenza; chimico; microscopico. Colore: valutato attraverso una scala cromatica. Giallo paglierino (normale); giallo arancio intenso: urina concentrata o urobilinogeno in eccesso; giallo oro: riboflavina, tetracicline (possibile fluorescenza); marrone/marsala: bilirubina, farmaci; marrone verdastro: bilirubina, biliverdina; rosso limpido: emoglobina, mioglobina, porfirine; rosso torbido: sangue; rosso bruno nerastro: metaemoglobina (urine vecchie); blu verde: pseudomonas; incolore: patologie particolari. L’analisi della trasparenza mette in evidenza la torbidità: se scompare acidificando con acido acetico possono essere fosfati o carbonati, se aumenta e forma precipitati possono essere proteine e lieviti, se scompare per alcalinizzazione è acido urico. O lattescente: infezioni e patologie particolari. Misura qualitativa. Precipitati: urine neutre (fosfati amorfi, scompaiono per lieve acidificazione), urine alcaline (precipitato biancastro leggero che si scioglie acidificando, presenza di fosfato ed ammonio insieme che formano cristalli “a coperchio di bara”), urine acide ipercolorate (precipitato rosso mattone pesante che si scioglie basificando con urato di ammonio), precipitato flocculento (urine alcaline, possono esserci muco, lieviti, batteri, leucociti). Odore: analisi qualitativa effettuata dall’operatore su odori particolari, come ammoniacali (presenza di batteri, l’urina è fermentata e produzione di ureasi), pseudomonas (colore verde e odore di pesce), fenilchetonuria (odore di urine di topo). Volume nelle 24 h normale 1200-1550 ml, si può avere poliuria (volume >), oliguria (volume <) o anuria (urina scarsa o assente), sono indici di malattie diverse. Un individuo normale dopo pasto asciutto e senza liquidi da 14 h produce un’urina di peso specifico 1026-1029, se il rene non riesce a concentrare (disfunzioni), il peso specifico si mantiene a circa 1010. Si svolge una prova di diluizione: si valuta la capacità del rene a diluire. Si somministrano 20 ml di acqua per kg di peso corporeo in 30-60 minuti. Il liquido dovrebbe essere eliminato nelle 5 h successive raggiungendo peso specifico di 1003 (urina meno concentrata) per poi risalire. La situazione è patologica se si raggiunge 1003 senza risalita successiva (non funziona il riassorbimento). Esame chimico: prevede l’analisi di pH, glucosio, corpi chetonici, proteine, emoglobina, urobilinogeno, pigmenti biliari. pH: può variare da 4,5 fino a 8 a seconda della dieta. Valuta la capacità del rene di mantenere l’equilibrio acido-base. 76 Acidità titolabile: misura di tutti H+ emessi dai reni nella giornata, determinata per titolazione dell’urina con NaOH 0.1 N (=normale) a pH 7.4. Glucosio: determinato in ugual modo come nel plasma. Reazioni semiquantitative su striscette (metodo enzimatico colorimetrico). Corpi chetonici: stessa cosa del glucosio, spesso sono determinati nei bambini. Proteine: non dovrebbero essere presenti nelle urine, se presenti potrebbe esserci stata una lesione. La proteinuria è definita minima: 0.5 g/l, moderata: 0.5-4 g/l, grave: > 4 g/l. Le proteinurie possono essere selettive: proteine a basso peso specifico (albumina, transferrina); monoclonali: nell’elettroforesi delle urine si ha banda che migra in posizione β o γ; tubulare: globuline a basso PM (rara). Le proteine si determinano in strisce reattive basate sull’errore di proteina nella determinazione del pH: è un indicatore di pH che cambia colore al cambiare del pH, quando è in forma associata o dissociata è di colore diverso. Tra gli indicatori ci sono il blu bromofenolo e il verde bromocresolo. Si valuta principalmente l’albumina. Si possono usare anche metodi turbidimetrici o colorimetrici. Emoglobina: stessa reazione utilizzata nel sangue ma sulle striscette (reazione perossidasica, si libera ossigeno che genera un cromogeno, semiquantitativo). Si può anche fare una valutazione microscopica degli eritrociti fatta sul sedimento in modo quantitativo: sedimento di 10 ml di urina sospeso in 1 ml e valutato nella camera contaglobuli. Se ne valuta anche le caratteristiche morfologiche. Urobilinogeno ed urobilina si misura in modo uguale con la cartina (il reattivo di Ehrlich si trova su una striscetta). Pigmenti biliari: la bilirubina passa nelle urine quando nel sangue aumenta concentrazione della forma coniugata. Insieme alla bilirubina coniugata passano nelle urine anche sali biliari (tensioattivi-schiuma gialla). Urina con colore marsala più o meno intenso. All’aria diventa verdastra (ossidazione a biliverdina). Misurata per ossidazione con iodio o FeCl3 e formazione composti ossidazione colorati (verde, blu etc). Meglio: reazione di diazotazione usata per misura della bilirubina nel plasma. L’osmolalità è determinata con l’urea o la creatinina. Urea: (340 nm) Metodo colorimetrico di Berthelot (fenolo e ipoclorito in ambiente alcalino): NH3 dà blu indofenolo (azzurro). La creatinina è ancora determinata con la reazione colorimetrica di Jaffè (picrato alcalino – complesso arancio) anche se soggetta a molte interferenze. Per ridurle si fa una deproteinizzazione. Di recente è stato proposto un approccio enzimatico con monitoraggio finale NAD dipendente o con reattivo di Trinder. 77 Enzimi urinari: tecniche simili a quelle usate per siero. Spesso nelle urine ci sono sostanze inibenti che rendono necessario pretrattamento come dialisi, diluizione etc. Esame microscopico del sedimento: - Ematuria: passaggio abnorme di globuli rossi nelle urine o sanguinamento lungo le vie urinarie, - Leucocituria: aumento di leucociti, indice di stati infiammatori acuti. - Cellule epiteliali dallo sfaldamento della mucosa delle vie urinarie. - Cilindri: proteine che gelificano nelle vie urinarie, nel gel possono esserci globuli rossi, cellule, leucociti. Conta di Addis, normalmente nelle 24 h; ▪ Globuli rossi: 1.000.000 ▪ Globuli bianchi 2.000.000 ▪ Cilindri: < 10.000 Sali e cristalli: danno origine al precipitato (calcoli o sabbia). Calcoli: sali di calcio (ossalati o fosfati), acido urico ed urati, fosfato ammonico-magnosiaco. In primis si filtra e si visualizza se c’è il sedimento, se c’è si va a caratterizzare. Il calcolo viene macinato in mortaio, la polvere ottenuta si divide in due e vengono trattate con HNO3 (acido nitrico) 6% (ambiente acido) e KOH 1 N (ambiente basico). In ambiente acido si determinano calcio, carbonati, fosfati e ossalati; in ambiente basico si ricercano ammonio, cistina, cisteina, urati. 80 Catecolamine: adrenalina, noradrenalina e dopamina, sono secrete dal surrene e sono neurotrasmettitori. Misure: per gli ormoni steroidi si usano metodi chimico-fisici basati su assorbimento, spettrofluorimetria, accoppiate alla separazione con GC e HPLC. Per tutti gli ormoni si possono usare RIA e IRMA (simile ad ELISA ma con marcatore radiattivo), e metodi immunochimici con marcatori diversi (enzimi, fluorofori). MARCATORI TUMORALI CIRCOLANTI Sono molecole eterogenee che identificano se è presente una determinata forma tumorale. Si sceglie quindi un marcatore specifico per una patologia e che aumenta con la neoplasia (come un interruttore) e non dovrebbe modificarsi senza neoplasia e dovrebbe aumentare prima dell’evidenza clinica (prima dello sviluppo della patologia), dovrebbe correlare positivamente con l’estensione e l’evoluzione della neoplasia. In realtà le cellule tumorali nei primi stati sono molto simili a quelle normali e sono anche poche, dunque determinarle non è facile. I marcatori tumorali in circolo li si usano per la diagnosi, monitorare le recidive, l’esito di un intervento o di una terapia (follow-up). Tecniche omiche: screening di tutto ciò che c’è da un estratto cellulare e si cerca di distinguere il controllo dal patologico, è utile anche per capire lo stadio e la differenza con una patologia simile. Nessun marcatore al momento ha specificità (capacità di individuare il sano) e sensibilità (capacità di individuare il malato) tali da associarli solo alla neoplasia. Tipi: marcatori nucleari (mutazioni, traslocazioni, oncogeni, proteine nucleari), marcatori citoplasmatici (metabolici e di differenziazione), marcatori di membrana (glicoproteine, antigeni di membrana tumore- associati, che si chiamano così ma in realtà non sono antigeni) e marcatori circolanti (vanno in circolo perché la cellula li rilascia o perché si rompe, è il dato più importante per la facilità di prelievo e dosaggio). La frequente associazione tra neoplasie e alterazioni genetiche rende possibile lo studio di un numero maggiori di marcatori genetici (es: APC → carcinoma colorettale). I marcatori genetici sono sempre di più ma sono un segnale di qualcosa di “possibile”, non dicono di per sé se ci sarà un tumore e come si evolverà (tumori al seno). Per riconoscere se i marcatori sono buoni marcatori per una determinata patologia si stima: - Sensibilità= veri positivi / veri positivi + veri negativi x 100 - Specificità= veri negativi / falsi positivi + veri negativi x 100 Lez. 20 del 9/01/2023 Il marcatore ideale è quello che è presente nella cellula malata e non in quella sana, questo è difficile quindi si stabiliscono delle soglie, cioè livelli di probabilità della malattia, si fa attraverso la curva ROC. Si valutano la soglia di normalità (calcolata sulla popolazione di individui sani, di controllo, non affetti da quella patologia), soglia di patologia (calcolata sulla popolazione di soggetti con patologie non neoplastiche) e soglia di allarme (calcolata su popolazione di soggetti con neoplasia). In alcuni casi si tiene conto anche di una soglia dinamica: valutazione della concentrazione del marcatore nel tempo, presuppone la conoscenza della variabilità biologica (variazioni su individui diversi o sullo stesso individuo nel tempo, dipende da fattori genetici, età, sesso, condizioni di vita e di salute…) e di quella analitica (errore sperimentale legato 81 all’utilizzo di un determinato metodo). Se la differenza tra il valore misurato oggi e il valore misurato tempo fa è superiore a una certa soglia allora quella differenza è statisticamente significativa, al 95% di confidenza se si usa un fattore k di 2,77 (differenza della soglia x fattore di copertura) o di significatività a 5%. I marcatori tumorali non vengono misurati per la diagnosi perché non sono specifici, quanto per la prognosi e per la stadiazione e per monitorare la terapia o l’esito di un intervento chirurgico. Antigeni tumore-associati (TAA): diverse molecole erroneamente classificate come antigeni. - Antigeni carcinoembrionario (CEA): glicoproteina, ha un ruolo nello sviluppo (crescita e differenziazione). Espressi in quantità elevate nei periodi embrionali e fetali e quando sono presenti processi proliferativi. È il più impiegato nello studio per l’elevata correlazione con neoplasie epiteliali gastrointestinali. Usato per il monitoraggio della malattia, non per la diagnosi. - Alfa-fetoproteina (AFP): cresce nel periodo fetale e alla nascita e poi rimane stabile da un anno di età. Associata nell’adulto con proliferazione di epatociti normali e neoplastici. Usato per monitoraggio per tumore al fegato, al seno e al testicolo. - Antigene polipeptidico tissutale (TPA): sostanza proteica che aumenta durante attività di replicazione delle cellule epiteliali. Collegato più con attività proliferativa della cellula neoplastica che con la sua estensione. Usato per studiare l’aggressività del tumore e per valutare efficacia dei trattamenti antineoplastici. Non specifico: viene usato se non c’è un marcatore specifico o con marcatori specifici come indice proliferazione. - Antigene prostatico specifico (PSA): mantiene fluido il liquido seminale ed è sintetizzato dalla prostata. Viene usato per lo screening della funzionalità della prostata dopo 50 anni. - Antigene carcinoma a cellule squamose (SCC): valori elevati in seguito a tumori ginecologici ma non solo (polmone, esofago…) Marcatori tumorali - mucinici: peso molecolare elevato, sostanze dense e viscose, rilasciati da tratto gi, respiratorio e urogenitale. Si occupano della produzione di muco. In caso di neoplasie vengono secrete anche in circolo perché la parete cellulare si rompe. La determinazione delle mucine è fatta sovente. - 4 tipi di apomucine: MUC1 (tipica di seno e ghiandole salivari), MUC2, MUC3 (tratto gi) e MUC4 (tratto respiratorio). Durante la neoplasia c’è un aumento della produzione (proliferazione neoplastica rapida) e si ha una produzione di mucine diverse da quelle 82 normali. Non sono usate per la diagnosi (poco sensibili), ma per valutare la progressione della neoplasia. - Antigene ovarico: glicoproteina espressa nel carcinoma ovarico, la specificità è molto elevata. - Antigene gastrointestinale CA 19.9: glicolipide non specifico di una forma tumorale particolare, ma solo l’1,3% dei soggetti con patologia benigna ha livelli >37 U/ml, si applica per vedere le recidive e per valutare le terapie. - Antigene CA 50: saccaridico, concentrazioni elevate in sieri di pazienti con tumori gastrointestinali e altre neoplasie epiteliali (mammella, polmone, prostata, ovaio). - Antigeni CA 15.3: glicoproteina legata soprattutto al carcinoma mammario, si usa per fare una stadiazione della malattia. - Mucinous-like Cancer Antigen: utilizzato molto per determinare metastasi, presenti nei soggetti con carcinoma mammario localizzato. Ormoni e subunità ormonali: alterazioni nella sede di sintesi e nella qualità e quantità delle molecole secrete. Difficilmente usati nella diagnosi da soli. - Gonadotropina corionica: glicoproteina secreta normalmente in gravidanza. È composta da una catena α e una catena β. Se la β ha concentrazione alta fuori dalla gravidanza, si ha sicuramente corioncarcinoma. La sua specificità e sensibilità consentono l’uso anche per il monitoraggio durante la chemioterapia. Utile anche per il testicolo. - Calcitonina: marcatore del carcinoma midollare, permette di valutare l’efficacia della terapia e la comparsa precoce di metastasi e recidive. Enzimi ed isoenzimi: ancora più difficile che siano specifici per una certa patologia. Permettono più che altro di avere un quadro generale del trattamento della patologia. Altri prodotti cellula neoplastica: tireoglobulina, ferritina, beta-2-microglobulina, acidi sialici, poliammine, idrossiprolina. Valutazione di una patologia di una data persona nel tempo: studio della medicina personalizzata. MONITORAGGIO DEI FARMACI: si intende sia farmaci che droghe d’abuso. Per quanto riguarda i farmaci, il monitoraggio viene effettuato per ottimizzare la terapia, per ottenere indicazione circa la posologia corretta (dose fissa che viene alzata e abbassata a seconda del paziente). C’è una bassa relazione tra dose somministrata ed effetto terapeutico e tossico (per variazioni nell’assorbimento, errore da parte del soggetto che assume il farmaco…) ed un’alta correlazione tra concentrazione ematica ed effetto. Questi studi si fanno sia prima di immettere nel mercato un farmaco, sia sul paziente che assume il farmaco: la TDM (Therapeutic Drug Monitoring) si fa se non si può verificare effetto con la misura di un altro parametro, per farmaci con effetto terapeutico per alcuni e tossico per altri (a dose uguale), se i sintomi di tossicità sono simili alla malattia o per farmaci per cui si ha kit diagnostico semplice e affidabile. Farmacocinetica: studio del destino del farmaco, diverso in base a come viene somministrato il farmaco. La dose prescritta non è proporzionale direttamente alla risposta. La relazione tra dose assunta e concentrazione ematica è data dall’assorbimento e dall’eliminazione (diversi per ogni persona). Il profilo farmacocinetico dipende dall’assorbimento, dalla distribuzione, dal metabolismo e dall’escrezione. 85 Concentrazioni ematiche rilevate tramite prelievi a tempo: sono diversi in base al farmaco, si eseguono per farmaci che possono dare assuefazione ed effetti tossici (immunosoppressivi, antidepressivi…). Metodi di analisi: fluorescenza, metodi immunoenzimatici (ELISA) e radioimmunologici (RIA o con assorbimento atomico a fiamma o elettrodi iono-selettivi (es. litio usato come antidepressivo), HPLC. VARIABILITA’ BIOLOGICA E VALORI DI RIFERIMENTO Si misurano una serie di parametri perché serve una quantificazione al medico o per marcatori tumorali. Si forniscono intervalli di riferimento, cioè come il parametro misurato in un soggetto si colloca in un panorama generale (valutare se è un valore normale o anomalo). Come si individua un individuo sano, cioè con parametri normali? Si stabiliscono degli intervalli per popolazioni. Valori di riferimento di Grasbeck: valori calcolati per popolazioni di riferimento più ristrette (suddivisi in uomini, donne, età…). A questi valori possono associarsi valori predittivi, che tiene conto del fatto che ci siano diverse popolazioni e diverse incidenze di diverse malattie. Fattori che influenzano i fattori di riferimento: genetici (anomalie trasmesse come caratteri recessivi), fisiologici (età, sesso, eccesso di peso, ora, giorno, modalità del prelievo), esogeni (alimentazione, attività fisica, fumo, alcol, farmaci, clima…). Nei bambini è difficile stabilire intervalli normali perché i parametri variano molto in base alle età e nei primi mesi di vita. Per produrre i valori di riferimento si hanno tre fasi: la selezione degli individui della popolazione di riferimento, produzione dei valori (analiti), presentazione dei valori. È fondamentale il controllo della variabilità analitica. Intervallo di riferimento: contiene il 95% della popolazione, si fanno gli istogrammi dei risultati, se si forma una gaussiana allora l’intervallo si calcola come media ± 2 deviazione standard. Mentre l’intervallo dei valori sospetti è dato dalla media ± 3 deviazione standard. Se la distribuzione della frequenza è a campana non simmetrica (skewed) si trasforma in una distribuzione gaussiana attraverso i logaritmi e si applicano gli stessi parametri precedenti. Se è irregolare si usa il metodo dei percentili tra 2,5% e 97,5%, all’interno del quale c’è il 95% dei soggetti. In alcuni casi (come nel caso del colesterolo) c’è una correlazione elevata tra la concentrazione ematica del parametro e un rischio di patologia (malattia coronarica). Ogni variazione dell’1% di colesterolo accresce il rischio del 2%. Si può misurare la relazione svincolandosi dalla concentrazione per fornire intervalli di riferimento per il rischio (alto, medio, basso). Rischio relativo: incremento del rischio rispetto al rischio minimo. Il rischio minimo pari a 1 è di 150 mg/dl, perché al di sotto di questo dato non c’è correlazione con la malattia. 86 Un rischio dell’1,25 e dell’1,5 indica un incremento di rischio rispetto al minimo del 25% e del 50%. Si possono stabilire anche dei livelli decisionali: parametri il cui superamento corrisponde a situazione fisiopatologiche. Interpretazione del test, in alcuni casi è immediata: - presenza di un analita normalmente assente, concentrazione < o > livello stabilito; - identificazione di malattie genetiche e diagnosi di malattie microbiche o virali con PCR-sonde di riconoscimento; - determinazione di un farmaco in circolo per avere la concentrazione migliore e nessun effetto tossico: si verifica se la concentrazione del farmaco è nell’intervallo desiderato, altrimenti si varia la dose; - studio di fattori di rischio ambientali o intossicazioni professionali: si stabiliscono valori ottimali o accettabili dell’analita. In altri casi il problema di collocare il valore di un individuo rispetto ai valori di riferimento di una popolazione può essere complesso: non si ottiene una distinzione tra malato e sano, ma una probabilità statistica di classificazione in una delle due condizioni. Il test produce una significatività statistica che deve essere corredata di sensibilità, specificità e dell’incidenza e prevalenza della malattia nella popolazione, per poter avere un valore predittivo. Sensibilità: capacità di identificare come positivi a un test i patologici; specificità: capacità di identificare come negativi tutti i controlli. Lez. 22 del 12/01 (Robotti) Bisogna associare al test una probabilità: valore predittivo positivo e valore predittivo negativo. Alcune interpretazioni sono certe (malattie genetiche, determinazioni cliniche su un certo parametro, studio di fattori ambientali e intossicazioni professionali), in altri casi no, perché la positività al test non dà la sicurezza che la persona sia affetta da una certa patologia. Valore predittivo: possibilità di predire se il soggetto risultato positivo sia effettivamente affetto dalla patologia. Dipende da sensibilità e specificità e dalla probabilità a priori (prevalenza della patologia nella popolazione, è data dai malati/popolazione %, generalmente è riferita a 100000 individui). Se il soggetto è positivo a una malattia frequente, è più probabile che sia vero. Il valore predittivo positivo è dato da in cui p1: prevalenza della malattia nella popolazione, q1: probabilità di presenza della malattia per un certo valore analitico (sensibilità), 87 p2: probabilità a priori di assenza della patologia nella popolazione, q2: probabilità che il test dia un risultato positivo in assenza di malattia (falsi positivi, q1-specificità). Identifica la probabilità che il soggetto sia effettivamente affetto dalla patologia quando è positivo al test, tiene conto anche della prevalenza della patologia. A parità di sensibilità e specificità del test, la prevalenza della malattia gioca un ruolo fondamentale: se la prevalenza è in una zona intermedia, sensibilità e specificità incidono, se è una malattia molto o poco prevalente, sensibilità e specificità incidono meno. Test ideale: i malati sono tutti positivi al test, i controlli sono tutti negativi. Il cut-off permette di separare perfettamente la curva dei positivi e quella dei controlli. In un test reale c’è qualche falso positivo e qualche falso negativo. Le curve delle due popolazioni sono parzialmente sovrapposte, il cut-off viene posizionato all’incrocio delle curve, ci si accontenta di avere degli errori. Al di sopra del cut-off vengono considerati positivi, al di sotto negativi. Errori α: falso positivo (errore di prima specie) ed errore β: falso negativo (errore di seconda specie). Primo quadrato: veri positivi (malati positivi a), nel primo in basso: falsi negativi (malati negativi c), nel secondo in alto: falsi positivi (sani positivi b) e nel secondo in basso: veri negativi (sani 90 Quando decade si ha emissione. La differenza di energia di due stati energetici è data da ΔE=hv cioè costante di Plank per la radiazione luminosa assorbita. Questo è specifico ad ogni elemento. Legge di Kirchoff: la materia assorbe luce alla stessa lunghezza d’onda alla quale la emette. Sotto forma di atomi gli spettri sono a righe, ma sotto forma di molecole le bande di assorbimento sono larghe perché prendono in considerazione transizioni elettroniche, vibrazionali e rotazionali. Tre tipi di tecniche: - Assorbimento atomico: si invia una lunghezza d’onda specifica e il campione viene riscaldato a una temperatura tale da dissociarlo in atomi. Gli atomi assorbono quella lunghezza d’onda e si misura l’attenuazione della radiazione dovuta all’assorbimento. - Emissione atomica: il campione viene riscaldato e si formano atomi e ioni che sono eccitati e tornano allo stato fondamentale emettendo energia, ma lo ione emette diversamente dall’atomo. - Fluorescenza atomica: poco utilizzata. ASSORBIMENTO ATOMICO (AAS) Sono tecniche distruttive. Il campione viene sottoposto a riscaldamento per trasformarlo in atomi, si forma un vapore atomico che poi interagisce con una radiazione atomica inviata da una sorgente che contiene un solo elemento (in funzione dell’elemento da determinare si usa la sorgente con lo stesso elemento: emissione di risonanza). Attraverso il monocromatore si isola una riga specifica da inviare. Solo l’atomo di interesse assorbirà quella lunghezza d’onda. Non è una tecnica qualitativa, ma quantitativa sfruttando la legge di Lambert-Beer in cui A=ɛbC. Il limite di questa tecnica è che si usa per determinare un elemento per volta. La concentrazione è lineare con l’assorbanza. Ciò che viene misurata è l’assorbanza: rapporto dell’intensità inviata e quella emessa. Maggiore è la concentrazione dell’analita, tanto più viene attenuata l’intensità. Se però ci sono molecole che assorbono la stessa lunghezza d’onda dell’atomo interessato, c’è un’interferenza. L’assorbanza è il log (1/T) in cui T è la trasmittanza. Metodi di atomizzazione: fiamma (temperatura tra 1700 e 3150 °C) ed elettrotermico con fornetto di grafite (corrente ad altissima potenza che per effetto Joule crea un innalzamento di temperatura a 1200-3000 °C). Sorgenti: lampade a catodo cavo, all’interno sono piene di gas Neon o Argon e hanno un catodo che contiene l’elemento che interessa determinare. È una sorgente che col tempo si esaurisce. Ogni elemento emette più radiazioni, quindi ci dev’essere un monocromatore che isola una radiazione (di solito quella più intensa). Si lavora con una sorgente per volta per determinare un elemento alla volta. 91 SPETTROFOTOMETRO A FIAMMA (FAAS) Il metodo con fiamma è meno sensibile. Il campione viene aspirato per effetto della fiamma in continuazione, con flusso costante. La fiamma può essere fino a 3000°C. Il campione liquido sottoposto a queste temperature si trasforma in gas atomico. Il segnale dipende dalla concentrazione, non dalla massa, quindi è sempre uguale che si misuri per 1 s o per una settimana. È più sensibile di un rivelatore cromatografico. Si possono anche determinare le speciazioni. È sempre presente un combustibile (di solito l’acetilene) e il corburente (aria/ossigeno). Maggiore è la temperatura, migliore è la conversione e la degradazione delle sostanze interferenti. Quantificazione: tramite curva di calibrazione con soluzioni a concentrazione nota. La curva è una retta ma fino a un certo punto perché poi diventa più curva, in questo caso bisogna diluire per stare nel range della retta. Interferenze: spettrali, dovute alla presenza nel campione di specie molecolari che danno un assorbimento positivo, questo è rimediato utilizzando una sorgente a deuterio per avere una sorgente continua (+ chopper), ci sono due istanti: uno in cui c’è l’assorbimento del segnale totale (di risonanza e degli interferenti) e uno in cui si ha solo l’assorbimento non specifico, facendo una sottrazione si ottiene l’assorbimento d’interesse; non spettrali, data dalla differenza della composizione dei campioni standard e dei campioni da analizzare (in termini di densità, viscosità…), il risultato può variare perché varia la velocità con cui il campione viene richiamato dal bruciatore, si cerca di preparare soluzioni standard con matrice più simile possibile a quella del campione, principio detto “matrix matching”; chimiche, il campione contiene un elemento che impedisce l’atomizzazione, quindi o si stima la concentrazione dell’interferente e si mette anche nello standard o si mette nel campione una specie chimica che libera l’analita; di ionizzazione per elementi facilmente ionizzabili che modificano il segnale dell’analita. 92 È una tecnica utilizzata per determinare µg/l, viene utilizzata per determinare ferro, manganese, rame, zinco, piombo (non sempre), cromo… SPETTROFOTOMETRIA AD ASSORBIMENTO ATOMICO CON ATOMIZZAZIONE ELETTROTERMICA (ETAAS) Normalmente usa il fornetto di grafite. Si lavora su un volume specifico di campione. Lo strumento ha un braccio che preleva con una sonda questo volume (decine di µl), depositato in un tubo (cilindro di grafite) e intorno a questo viene fornita corrente che, per effetto Joule, scalda, portando a vaporizzazione e atomizzazione. Il segnale dipende dal volume di campione iniettato, quindi non dalla concentrazione. Si forma un vapore atomico e gli atomi assorbono le lunghezze d’onda emesse dalle sorgenti a catodo cavo. I fornetti di grafite sono molto costosi ma hanno una vita limitata a causa delle alte temperature, però l’Argon impedisce che la grafite bruci. Intorno c’è un passaggio di acqua per raffreddare il fornetto. La corrente che si fa fluire viene modulata a raggiungere specifiche temperature secondo un programma di riscaldamento. All’inizio viene fatta fluire una corrente in modo da vaporizzare il campione, poi a una potenza maggiore per degradare la matrice sempre in presenza di Argon, dopodiché questa temperatura dev’essere mantenuta e non dev’essere superiore alla temperatura di volatilizzazione dell’elemento (specifica per ogni elemento, altobollente o bassobollente). Nell’ultimo stadio si dà una botta di corrente che porta ad atomizzare il campione, qui viene interrotto il flusso di Argon perché sennò porterebbe via l’atomo. Questo passaggio dura pochi secondi per evitare la combustione. In questo momento si realizza l’assorbimento di risonanza. Infine c’è un ulteriore aumento di temperatura per pulire il fornetto e il raffreddamento con l’acqua. Questo ciclo può durare anche un minuto a campione, mentre quello a fiamma è più breve. Ma è un metodo più sensibile perché dipende dal volume e il segnale può essere incrementato. Programma di riscaldamento: 95 La prima fase è la nebulizzazione: il campione viene aspirato con flusso costante attraverso una pompa peristaltica, arriva ad un nebulizzatore (in vetro o di polimeri resistenti agli acidi). Qui arriva un flusso di argon che va a trasformare il campione in aerosol. La maggior parte delle gocce per gravità va allo scarico (98%), le gocce più piccole spinte dall’argon proseguono e vanno verso il plasma (nebulizzatore pneumatico). Esistono dei sistemi per migliorare questo processo, attraverso degli ultrasuoni (si rompono le gocce in gocce più piccole), la sensibilità aumenta di 10-20 volte (nebulizzatore ad ultrasuoni). Analisi di campioni solidi: sistema laser ablation, poco usato in ambito chimico-clinico perché si predilige trattare i campioni con degli acidi. Funzionamento: viene mandato un laser ad altissima potenza sul campione, questo vaporizza l’area colpita dal laser, questo forma un vapore atomico che viene poi trasportato da un flusso di argon. Un’alternativa è il sistema slurry- sampling: si forma una dispersione omogenea di particelle solide in un opportuno mezzo disperdente. Le righe spettrali possono derivare dall'eccitazione di atomi (I), ioni a carica singola (II) e ioni a carica doppia (raro). Rivelazione: necessario un monocromatore (per disperdere la luce) che può essere di vari tipi, e può essere sequenziale (acquisizione di lunghezze d’onda alla volta, rilevamento di una linea analitica per volta) o simultaneo (acquisizione istantanea di tutto lo spettro, più veloce). Sono di tre tipi: tubi fotomoltiplicatori (PMT), photo diode arrays (PDA) e charge coupled devices (CCD). In una rivelazione sequenziale per effettuare la scansione di un’intera regione dello spettro elettromagnetico, il detector è mantenuto fisso mentre il reticolo viene ruotato sequenzialmente. Sistemi più efficienti misurano simultaneamente lunghezze d’onda specifiche in posizioni multiple. Questi policromatori sono vantaggiosi rispetto ai monocromatori ma sono poco flessibili. Il PDA è simile ad un fotomoltiplicatore in quanto è in posizione fissa, ma i detector PDA sono più piccoli e meno costosi, in modo che più detector possono essere incorporati in un solo strumento. Un tipico PDA può contenere, nello spazio di 5-8 cm, 1024 detector PDA che misurano l’emissione contemporaneamente. Un tipico spettrometro ICP-AES è composto dalle seguenti parti: sistema di introduzione del campione; torcia ICP e riserva di gas; generatore di radiofrequenze; spettrometro ottico; rivelatori e sistema elettronico associato (convertitore). Il sistema ottico si trova a valle del plasma. 96 Interferenze spettrali: ogni elemento emette una serie di righe ed è possibile che ci siano righe che abbiano contributi di più elementi (es. Cr 267.716 nm in presenza di Fe → interferenza positiva). Si corregge in questi modi: con un diverso ordine di diffrazione (a livello della prestazione del monocromatore, questo fa perdere però in sensibilità) o applicando un fattore di correzione, se la concentrazione dell’elemento (o della specie) interferente è nota. Interferenze non spettrali: - interferenze di trasporto: si hanno se le proprietà fisiche (viscosità, densità, tensione superficiale) dei campioni differiscono da quelle delle soluzioni standard, es. determinazione di metalli nel vino (12% alcol). Si correggono con il matrix matching (preparazione degli standard con una matrice il più possibile simile al campione) o con le addizioni standard. - interferenze di volatilizzazione: si hanno se nel campione sono presenti sostanze che interferiscono nella volatilizzazione dell’analita, formando composti refrattari. Meno importante che nei sistemi con fiamma (temperatura più elevata). - interferenze di eccitazione: si hanno in presenza di alte concentrazioni di sostanze che provocano variazioni nelle condizioni di eccitazione dell’analita nel plasma. In particolare, hanno effetto importante i cosiddetti "easily ionized element", elementi che si ionizzano più facilmente degli altri: Li, Na, K. In presenza di alte concentrazioni di EIE si verifica la soppressione o l'esaltazione dei segnali di altri analiti. Quando si imposta un programma per l’analisi quali-quantitativa, è necessario selezionare correttamente le linee di emissione per gli analiti che si vuole determinare, cioè sufficientemente sensibili, per alcuni elementi non troppo sensibili perché vanno a saturazione, e che non presentino interferenze positive. Lez. 24 del 19/01 Per ogni elemento si seleziona la riga di emissione migliore, che quasi sempre è la riga di intensità maggiore e quindi con maggior sensibilità. A volte, nel caso nei metalli alcalini terrosi, può essere necessario usare una linea meno sensibile perché le concentrazioni sono più alte, altrimenti si va in saturazione. 97 L’analisi si fa integrando l’area o misurando l’altezza dei picchi: si individuano due punti ai lati sulla stessa linea per tracciare la linea di base in modo da approssimare il picco ad un triangolo. Requisiti logistici e di pulizia: essendo una tecnica per esaminare tracce (mg/l fino a µg/l, quindi ppm-ppb) è necessario evitare contaminazioni e dunque lavorare in pulizia. È obbligatorio usare acidi e basi ultrapuri, così come acqua ultrapura. La maggior parte dei campioni viene analizzata con acidi, che possono aggredire le superfici dei contenitori che rilasciano ioni, è preferibile usare plasticherie rispetto al vetro. La tecnica ha una precisione ed un’accuratezza molto buone e la sensibilità è variabile in base all’elemento (metalli alcalino-terrosi e metalli di transizione ottima sensibilità, minore per i non metalli). Range dinamico lineare: è il rapporto intensità-concentrazione, è di 6 ordini di grandezza (da 1 ppb a 1000 ppm), a un certo punto la retta tende a flettere perché va a saturazione. La robustezza, cioè la possibilità di avere dati buoni da campioni molto difficili (molto acidi o basici, ricchi di sostanze disciolte, che danno effetto matrice normalmente), è molto elevata. È una tecnica che permette di avere molti dati e molto in fretta, la presenza di un autocampionatore permette di analizzare molti campioni contemporaneamente, anche tra 60 e 140. Generazione di idruri: ci sono alcuni elementi che non hanno alta sensibilità o hanno interferenze. Si fa quindi una reazione che riduce l’elemento a un idruro attraverso ad esempio NaBH4, poi passa un flusso di gas che si porti dietro gli idruri formati fino al plasma. Al plasma così arrivano solo gli idruri, quindi un campione semplificato e senza potenziali interferenze. ICP-MS È una tecnica di spettrometria di massa (non atomica), però utilizzata per la determinazione di elementi perché si fanno arrivare a ioni elementari. Il campione viene aspirato con pompa peristaltica, nebulizzato con flusso di Argon (nebulizzatore foto 1), convogliato alla torcia di quarzo (foto 2) e degradato dal plasma fino allo stato di atomi e ioni.