Scarica Appunti biologia molecolare applicata e più Appunti in PDF di Biologia Molecolare solo su Docsity! 9/03/20 Lezione 1 Analisi del Trascrittoma mediante microarray L’analisi trascrizionale ha diversi scopi come ad esempio individuare i meccanismi di regolazione genica che consentono a geni codificanti per proteine di essere trascritti. Questo tipo di analisi può essere condotta con un approccio convenzionale su un piccolo numero di geni oppure con un approccio più ampio conducendo misure in parallelo della trascrizione di una serie di geni contenuti all’interno del genoma. Se prendessimo in considerazione il trascrittoma e quindi l’insieme di tutti gli RNA presenti all’interno di una cellula tipo mammifero, vediamo che l’80% di essi è costituito da RNA-ribosomiale, i t-RNA sono intorno al 10-15%, invece gli m-RNA sono meno del 5%. All’interno di questa minima parte del trascrittoma c’è una buona eterogeneità, i geni vengono trascritti in un numero basso di copie e quindi dobbiamo avere a disposizione tecniche che ci consentano di fare queste analisi trascrizionali con una buona sensibilità. Per condurre in maniera efficace delle analisi a livello di trascrittoma, si sono sviluppate le così dette metodologie di microarray che si basano sull’ibridazione di miscele di cDNA marcati rappresentativi del trascrittoma e definiti target, probe a DNA corrispondenti a geni specifici che vengono immobilizzati su superfici miniaturizzate per ottenere array ad alta densità. Quindi le caratteristiche salienti di questa metodologia sono - Un’estrema sensibilità - capacità di analizzare in parallelo migliaia di geni - capacità di ottenere dati affidabili a partire da esigua quantità di materiale di partenza inteso come campione di DNA. La miniaturizzazione del sistema è una delle chiavi del suo successo e infatti la progressiva riduzione delle superfici corrispondenti alle probe ha portato ad espandere il nuemro di geni analizabili da poche unità fino a migliaia fino ad avere una copertura di interi trascrittomi. Ad oggi ci sono 4 tipi di microarray - microarray ottenibili attraverso sintesi diretta di corti oligonucleotidi attraverso tecnica fotolitografica. Gli array vengono preparati sintetizzando in vitro cDNA e in un secondo momento possono essere deposti i cross-linkati alla superficie di array con supporti in vetro. - Al posto del cDNA vengono usati lunghi oligonucleotidi anche loro depositati e cross-linkati alla superfice degli array. Gli oligonucleotidi richiesti per la costruzione degli array sono i seguenti e cioè necessità di compattare un alto numero di probe sulla superficie degli array e quindi alta densità di probe. Estrema riproducibilità e precisione in modo da attribuire i segnali rilevati alla fine del processo ai singoli geni. Stabilità del legame fra probe e supporto per fare in modo che non ci siano distacchi durante la rilevazione del segnale. Sulla base di queste caratteristiche, vedremo due tecniche principali di array: - Quella che prevede la sintesi diretta degli oligonucleotidi sulla superficie degli array nota anche come GENE-CHIP brevettata da Affy-metrix - Quella basata sul DNA micro-dispensing in cui si preparano in vitro le probe e poi le si depongono e stabilizzano sulla superficie dell’array. Array basati sulla sintesi diretta degli oligo (GENE-CHIP) Il principio alla base della loro sintesi è la fotolitografia in cui la luce viene usata per determinare la polimerizzazione sequenziale degli oligo in posizioni specifiche dell’array. È possibile perché si usano dei Linker primer che terminano con gruppi OH ancorati al supporto dell’array e protetti con gruppi foto-labili. I gruppi foto-labili vengono rimossi solo attraverso irradiazione con luce che passa attraverso maschere progettate, definendo le posizioni in cui passa la luce si definisce dove può avvenire la polimerizzazione. Se guardassimo uno schema del processo, vediamo che il punto di partenza sono gruppi OH bloccati dal gruppo bloccante e possono essere de-protetti tramite irradiazione della luce tramite maschere specifiche. Nelle posizioni in cui le maschere viene attraversata dalla luce, i gruppi OH diventano accessibili per la polimerizzazione e quindi è possibile fornire i nucleoidi precursori che vengono incorporati in queste posizioni e questi portano il gruppo foto-labile che permette di avere il controllo su ogni singola incorporazione. Variando le maschere usate si può dirigere la polimerizzazione in sequenza seguendo sequenze prefissate. Se analizziamo il processo dalla superficie dell’array, partendo da un elevata densità di gruppi OH immobilizzati alla superfice questi vengono progressivamente de-protetti a livello locale e questo è il meccanismo attraverso il quale si guida l’incorporazione progressiva e determinata delle basi e così sulle diverse aree del array si possono sufficientemente da quella regione della base che è coinvolta nell’appaiamento durante l’ibridazione. La biotina viene usata preferibilmente rispetto ai fluorocromi in quanto la sua struttura non perturba la corretta ibridazione fra il target e la probe. Questo potrebbe essere una grande inconveniente se al posto della biotina usassimo dei fluorocromi come le cianine che per loro struttura potrebbero interferire con appaiamento di basi complementari. La biotina non è fluorescente e quindi bisogna usare un sistema che riconosca la biotina e si usa streptavidina coniugata ad un fluorocromo. Nel caso del GENE-CHEP si usa streptavidina legata a ficoeritrina che è un fluorocromo con alta efficienza di emissione. Il cRNA così ottenuto non viene usato direttamente per l’ibridazione con le probe, ma viene frammentato attraverso un breve trattamento in ambiente alcalino e questo fa sì che a partire da un singolo frammento di cRNA si ottengano piccoli frammenti brevi. Questa frammentazione permette di aumentare la possibilità di ibridazione fra frammenti di cRNA e le probe immobilizzate sulla superficie dei microarray. Come seconda cosa avendo dimensioni più simili a quelli della probe, la stabilità dell’ibrido target-probe viene aumentata. Una volta ottenuto il cRNA frammentato, questo viene iniettato in un microarray del tipo GENE-CHIP, il processamento di ibridazione e di rilevamento dei segnali che porta delle immagini ad alta definizione in cui è possibile rilevare la fluorescenza emessa dalla ficoeritrina con le arre che corrispondono ai singoli geni. La metodologia scelta da Affy-Metrix prevede che un campione ottenuto da una singola preparazione di RNA totale porti alla preparazione di un target che singolarmente viene messo su un CHIP per condurre esperimenti di confronto fra due condizioni e si usano due array in parallelo e il confronto viene effettuato in una seconda fase mediante metodi computazionali. Lezione 2 Analisi del Trascrittoma mediante microarray La seconda metodologia più usata per l’analisi microarray per l’analisi trascrittomica è quella che si basa sul DNA micro dispensing e in questo caso le probe pre sintetizzate vengono disposte in maniera ordinata sulla superficie che fa da supporto come il vetro da microscopia che viene rivestita di Polinesina che ha un gruppo amminico con il quale l’acido nucleico delle probe può formare un legame ammidico stabile. Il secondo vantaggio è che la Polinesina non è auto fluorescente e non contribuisce a generare un segnale di background durante la fase di rilevamento dell’ibridazione. Questo metodo permette di realizzare degli array in cui la densità degli spot è di circa 2500 per cm2 inferiore a quella del GENE-CHIP tuttavia sufficiente a coprire un intero trascrittoma con l’uso di pochi vetrini. Il sistema di preparazione di questo array oggi è automatizzato e riproducibile. Uno dei punti a favore di questa metodologia è la versatilità delle probe da usare perché in alcuni casi possono essere usati lunghi oligo, ma in molti casi si predilige l’uso di cDNA che per loro estensione permettono una maggiore specificità relativa ai segnali da attribuire ai singoli geni. Il fatto di poter attingere a probe pre-sintetizzate consente un continuo up-grade di probe che vengono sintetizzate e il costo complessivo della tecnologia è inferiore a quella del GENE-CHIP. Nell’immagine vediamo un array ottenuto con questa tecnica, tale aspetto di microarray circolari è legato alla tipologia di deposizione che inizialmente faceva largo uso di micro-puntali capaci di gestire volumi grandi che sono state sostituite dalle teste di stampa delle stampanti ad inchiostro. Il punto fondamentale per ottenere un microarray affidabile è disporre di una banca a cDNA ordinata. Quindi dobbiamo costruire a partire dagli RNA una banca a cDNA clonata in un vettore opportuno e solo dopo usare i vettori ottenuti per la trasformazione di E.coli. Questo tramite piastramento e isolamento su piastra dei cloni trasformanti permette di disporre di cloni isolati corrispondenti ciascuno ad un cDNA. Non è necessario in fase di costruzione di un microarray basato su questa tecnica conoscere le sequenze dei cDNA in quanto l’attribuzione del segnale viene fatta in funzione del clone e il segnale viene attribuito ad uno specifico clone a cDNA e poi in un’altra fase potrà essere identificato mediante sequenziamento. Lo schema sperimentale nella preparazione dei target di questa tecnica è semplificato rispetto all’altro e si procede con la preparazione diretta del cDNA a partire dall’RNA totale senza alcun passaggio di amplificazione. Questo porta ad usare un sistema di marcatura diretto in sintesi del cDNA a singolo filamento basato sull’incorporazione dei fluorocromi. In questo caso, si usano le cianine che sono fluorocromi la cui emissione copre l’intero spettro del range del visibile e che sono caratterizzati da alte efficienze di emissione e scarsa suscettibilità all’effetto di foto-bleaching e quindi attivazione che si manifesta quando i fluorocromi vengono ripetutamente eccitati per emettere il segnale in uscita. Le cianine sono formate da una serie di anelli aromatici condensati che conferiscono strutturalmente all’intera molecola un elevato ingombro sterico. Se ciò costituisce un limite al suo utilizzo nel caso di corte probe oligonucleotidiche, nel caso dell’uso per il cDNA questo non è un problema essendo in grado di formare comunque interazioni stabili con il target. In un esempio sperimentale per il confronto fra due condizioni biologiche definite come mRNA1 e mRNA2 si procede a realizzare i target in parallelo mediante retro-trascrizione e incorporazione delle due divere cianine tipo 3 e 5. Si ottengono due preparazioni di cDNA ciascuna rappresentativa della condizione sperimentale da cui sono state ottenute. A questo punto si procede a formare un pool di entrambe le preparazioni di cDNA che verrà usato per l’ibridazione degli array e al termine dei passaggi di ibridazione e di lavaggio sarà possibile effettuare scansione. Nel caso dei microarray si usano scanner laser confocali che hanno notevole sensibilità nel rilevare i segnali, alta risoluzione delle immagini ottenute e riduzione di artefatti dovuti alla sovrapposizione delle fluorescenze che giacciono sui piani dell’array. Un altro vantaggio è di poter eccitare simultaneamente i diversi fluorocromi eccitati e quindi di poter registrare le fluorescenze emesse contemporaneamente. Osservando immagine riassuntiva del processo, vediamo come con questo sistema lineare si riesce a rilevare due segnali differenziali di fluorescenza ognuno attribuibile ad una condizione di partenza e dal loro confronto si può avere diretta quantificazione relativa ai loro diversi livelli di trascritto di ciascun gene realizzato all’interno dei campioni di partenza. Comunemente, si usano le colorazioni rosso, verde per la prevalenza dell’uno o dell’altro e colori intermedi per individuare condizioni in cui c’è simile livello di trascritto nelle due condizioni. Paragoniamo le caratteristiche delle due tecniche e vediamo che dal punto di vista del supporto non ci sono sostanziali differenze se non il fatto che nel GENE-CHIP c’è sintesi diretta degli oligo mediante fotolitografia. Nel In sintesi, l’analisi assoluta determina quali sono i trascritti marginalmente presenti e quali assenti sull’array e che quindi per estensione sono relativi a messaggeri presenti o assenti nel campione iniziale. La fase assoluta è complessa dal punto di vista di interpretazione dei dati. Ricordiamo che ogni gene è specificato da 20 diversi oligo corrispondenti alle sequenze che ricadono all’interno della sequenza del gene. Per ogni gene abbiamo 20 aree in cui il target si può appaiare alla probe, data l’esigua estensione degli oligo affy-metrix prevede un controllo per valutare se il segnale è specifico e dovuto al corretto appaiamento del target con la probe o se in qualche modo possa essere dovuto ad un appaiamento non canonico, non corretto. Per operare questo controllo, oltre a ciascun oligo ne viene usato anche uno di controllo che presenta una base differente esattamente a metà dell’oligo e parlando di oligo di 25 basi abbiamo una serie di oligo di controllo definiti miss-match in quanto la 13esima base dell’oligo è stata cambiata rispetto alla corrispondente presente nel perfect match. Qual è la ragione della scelta del 13esimo nucleotide? Una mutazione che non consenta il corretto appaiamento di tutto il target alla corrispondente probe avrebbe un impatto diverso a seconda di dove si trova la base non complementare. Si può intuire che un cambiamento di base alle estremità 5’ e 3’ è meglio tollerato di quanto non lo sia una sostituzione di base esattamente al centro che perturba maggiormente la stabilità dell’interazione target-probe a livello dell’array. Un target non perfettamente omologo a livello della base centrale della probe si staccherà più facilmente e quindi non porterà ad un falso segnale di quanto non succeda se nella probe viene cambiata una base all’estremità. Per valutare la bontà dei segnali quindi per ciascun oligo che definisce il gene verrà rilevata la fluorescenza corrispondente all’oligo perfect-match e al corrispondete mutato nella base 13. Si fa un confronto fra le due intensità di fluorescenza rilevate. Si può immaginare nel caso di un segnale reale, il cRNA frammentato vada a determinare ibridazione su tutti e 20 nucleotidi che si distribuiscono lungo la sequenza del gene e il segnale rilevabile a livello degli oligo perfect-match sia superiore a quello dei controlli corrispondenti con la mutazione al centro della probe. Guardando le immagini relative a dati reali acquisiti dopo le ibridazioni si può vedere che il comportamento reale per un messaggero presente si discosta di poco dall’attesa teorica. Nel senso che la maggior parte dei segnali attribuibili all’interazione fra la probe e il target perfect-match è superiore ai segnali rilevabili ai controlli relativi alla mutazione in posizione 13. L’operazione che si fa è per ciascun oligo valutare l’intensità di fluorescenza nel caso della probe perfect-match rispetto al controllo negativo e valutare in quanti casi prevale il segnale corretto rispetto a quello dovuto al controllo negativo. Due casi visti in questo lucido, un segnale reale porta ad un’intensità di fluorescenza chiaramente superiore a quella del controllo negativo, viceversa falsi segnali sono caratterizzati da una fluorescenza superiore per la probe con mutazione rispetto a quella corretta. Per determinare se il segnale attribuibile ad un messaggero è realmente presente il software valuta per i 20 oligo che definiscono il gene in quanti casi il segnale è positivo rispetto a quello del controllo positivo. Se la frequenza dei segnali corretti è alta, si arriva all’assegnazione di chiamata presente per un determinato messaggero. All’opposto il messaggero viene ritenuto non presente nel campione quando non si soddisfa una certa presenza di segnali positivi per quegli oligo che definiscono quel gene. Un valore di intensità di fluorescenza medio stabilisce quello che è poi il livello di espressione assoluto anche se le metodiche basate sugli array non sono tanto focalizzate sull’esprimere un valore assoluto relativo al livello di espressione. Occorre dire che l’analisi assoluta non è solo un’analisi preliminare in quanto la metodica GENE-CHIP è l’unica in grado di descrivere attraverso l’analisi assoluta il profilo trascrizionale completo di un campione, ossia individuare la fotografia dello stato trascrizionale della condizione analizzata, descrivendo e analizzando tutti i messaggeri che costituiscono il trascrittoma. Questo è possibile perché l’ibridazione viene effettuata mettendo sull’array il cRNA derivato da un unico campione. Questo esclude effetti di competizione fra campioni come invece si può verificare nel caso dei microarray micro dispensing in cui l’ibridazione viene effettuata con un pool dei cDNA preparati dai campioni di RNA totale iniziale. Quindi solo il GENE-CHIP fornisce indicazioni sul profilo trascrizionale assoluto. Si può passare poi dall’analisi assoluta a quella comparativa il cui scopo è definire se avendo due condizioni, un campione di riferimento e un campione di interesse tipo un campione trattato, valutando se il trascritto di un gene è differenzialmente presente in un campione piuttosto che in un altro. Poter stabilire se un trascritto è meno espresso, più espresso o se non ci sono variazioni e quindi no change. Dal momento che i campioni vengono trattati indipendentemente sui CHIP è indispensabile a livello preliminare fissare dei coefficienti che permettano di normalizzare l’intensità di fluorescenza in un campione rispetto all’altro. Per fare questo si valuta l’intensità di fluorescenza globale rilevata sul CHIP e si determina la corrispondete nel secondo CHIP e si stabilisce il coefficiente che consente di confrontare fra loro i dati ottenuti dei due diversi array. Questo lo si può fare in confronti binari, ma anche su gruppi di dati ottenuti da diversi array. Si va a stabilire un’intensità target, si stabiliscono dei coefficienti da applicare ai singoli valori di fluorescenza in modo tale che una volta uniformata l’intensità di fluorescenza totale si può procedere con i confronti gene per gene. Per il confronto si procede così e possono essere confrontati solo geni presenti o marginalmente presenti nell’analisi assoluta. Il confronto viene effettuato probe per probe, determinato un gene si confrontano le intensità di fluorescenza per ciascuno degli oligo che definiscono il gene. Occorre stabilire quante volta l’intensità di fluorescenza di un segnale reale in un campione è superiore all’altra o viceversa quante volte è inferiore l’intensità di fluorescenza di una probe in un campione rispetto all’altro. Quindi per attribuire una variazione del livello trascrizionale occorre che per i 20 nucleotidi che definiscono il gene si individui una chiara condizione di prevalenza del segnale ottenuto da un CHIP rispetto al CHIP confrontato. Questo viene definito con metodologie statistiche matematiche e quindi si va a individuare una serie di valori soglia che possano definire la prevalenza dell’intensità di fluorescenza in un campione rispetto all’altro per arrivare ad esprimere un segno di variazione e quindi un incremento o decremento e quantificarlo in termini di Fold Change. Un Fold Change si compone di un numero assoluto che esprime l’entità della variazione fra un campione e l’altro e di un segno, se è positivo indica un incremento, se è negativo un decremento. Tornando all’esempio immaginiamo di avere i due campioni A e B e un gene X e abbiamo la condizione del messaggero del gene X che è 32 volte più abbondante in A rispetto che in B e in questo caso il Fold Change sarà positivo e uguale a 32 e quindi espressione diretta e non mediata da logaritmo della differenza di livello. Nel caso in cui invece si è 32 volte più abbondanti il messaggero del gene X in B rispetto che in A, allora il Fold Change che esprime questa variazione sarà -32 e il segno esprimerà il decremento e il segno l’entità della variazione. Nel caso di un messaggero che non manifesti variazioni fra un campione e l’altro si usa l’addizione no Change che in termini quantitativi corrisponderebbe a 1. Nel senso che l’entità di fluorescenza confrontata fra le diverse probe fra un campione e l’altro da sostanzialmente un rapporto pari ad 1. Per come sono definite e determinate le variazioni con queste metodiche possiamo dire che tanto il Fold Change quanto il logaritmo in base 2 del rapporto fra le fluorescenze delle cianine possono variare in di una metodica real-time, il sistema GENE-CHIP si avvicina di molto alla performance del sistema basato su PCR. La mole di dati generati da un’analisi di micro-array è notevole e quindi cogliere le differenze rilevanti da estesi tabulati che elencano diversi livelli di trascrizione è estremamente complesso. Quindi è necessario il supporto fornito da metodi statici e bioinformatici per ordinare i dati. Fin dall’inizio abbiamo detto come le metodiche di micro-array si colgono nell’identificazione e correlazione della trascrizione genica. Quindi l’identificazione di cluster e cioè gruppi di geni che per la loro funzione biologica vengono trascritti in modo coordinato. Una delle chiavi di lettura più diffuse nell’analisi trascrittomica è il clustering funzionale ossia l’ordinamento dei dati dipendente dalla funzione del prodotto codificato dai geni. Per esempio, se parlassimo di metabolismo è possibile ordinare i geni in funzione dei pathway metabolici in cui sono coinvolti e costruire delle mappe anche di tipo grafico in cui ad un’area di rappresentazione corrisponde l’insieme di geni che garantiscono un certo tipo di funzione. Potremmo avere box di geni metabolici, box di geni corrispondenti alla trasduzione del segnale, box di geni relativi a geni coinvolti nella progressione del ciclo cellulare, risposta agli stress e quindi una mappatura che ci permette di individuare aree biologiche con diverse funzioni. Quindi in questa struttura si inserisce un sistema di rappresentazione delle variazioni dell’analisi differenziale dove i colori verde e rosso corrispondono rispettivamente a decrementi della trascrizione o incrementi della trascrizione. In questo modo, individuando intensamente delle aree colorate in rosso questo vorrà dire che i geni che ricadono in quel cluster sono almeno in gran parte soggetti ad una up-regolazione trascrizionale, viceversa dove abbiamo estese aree in verde corrisponderanno a geni che in modo coordinato corrispondono a down-regolazione. Un altro sistema di ordinamento dei dati su cui ci soffermiamo è quello che tiene conto della posizione fisica del gene sul cromosoma. Questo quindi è un metodo di ordinamento dei dati che tiene conto di caratteristiche dettate dalla struttura del genoma e quindi di geni che per prossimità possono essere regolati da meccanismi che favoriscono piuttosto che impediscono l’ingresso del gene nell’apparato trascrizionale. Le regolazioni epigenetiche sono mediate da cambiamenti nella struttura della cromatina e cioè dell’entità nucleo-proteica in cui si trova il DNA negli eucarioti. Come si nota dall’immagine, geni adiacenti possono subire lo stesso tipo di regolazione trascrizionale e quindi dei picchi e cioè cluster di geni che in modo coordinato vengono tutti up-regolati ed è indica che localmente sul cromosoma si verifica una condizione favorevole alla trascrizione genica. Le analisi dei dati sul clustering possono essere o di tipo trascrizionale o di tipo fisico, nella grande maggioranza dei casi il primo approccio ad un’analisi trascrizionale può essere condotto con un’analisi differenziale e cioè confrontare profili di campioni provenienti da due condizioni sperimentali diverse. L’analisi differenziale è il punto di partenza per l’applicazione dell’analisi trascrizionale basata sugli array. Tuttavia, è possibile usare anche degli approcci un po' più complessi e vedremo due esempi, uno è più biotecnologico di miglioramento delle caratteristiche di un fiore di interesse commerciale e l’altro invece riguarda un’applicazione biomedica dedicata alla prognosi precoce dell’evoluzione di malattie gravi come alcuni tumori. Esempio in cui l’obiettivo è migliorare le caratteristiche di profumazione di una specie di rosa, possiamo trovare rose molto belle, ma anche cespugli caratterizzati da piccoli fiori molto profumati. L’obiettivo di questo studio è stato individuare geni responsabili della profumazione che potessero guidare il miglioramento delle coltivazioni recise e quindi fiori di maggiori dimensioni e più interessanti dal punto di vista della commercializzazione. Così come interessanti per quanto riguarda le essenze per generare una varietà di migliore qualità. Se immaginiamo l’approccio differenziale classico, potrebbe venire in mente di confrontare il trascrittoma di una piccola rosa profumata con quello della grande rosa recisa non profumata. Ma è intuibile per le differenze intrinseche di queste due varietà di piante che il differenziare renderebbe conto di un numero molto alto di geni non legati alla profumazione. Infatti, se facessimo una classificazione di geni noti identificati nelle rose vediamo un numero alto di diverse categorie in cui vanno a ricadere geni differenzialmente trascritti fra una rosa piccola dal cespuglio profumato e una rosa di grandi dimensioni come quelle a fiore unico su stelo lungo. La biochimica delle rose comprende pathway di sintesi di profumi non così noti da identificare clustering così mirati. Con un approccio elegante e originale si è pensato di individuare solo un cluster di geni probabilmente correlato alla profumazione sfruttando due confronti differenziali. Il primo è il confronto fra le due colture e cioè rosa profumata VS rosa non profumata e il secondo confronto è stato individuato pensando di avere una condizione di profumo rispetto al non profumo, ma stavolta non più fra due cultivar differenti, ma all’interno della stessa cultivar. L’idea quindi è un secondo confronto capace di individuare la condizione di profumazione iniziale, ma che portasse anche a vedere dei differenziali completamente diversi dai differenziali fra le due cultivar. La scelta è ricaduta sul confronto fra il bocciolo immaturo e la rosa sviluppata e profumata. L’idea di fondo è avere due confronti che permettano di avere dei differenziali sui geni della profumazione. Oltre a questi l’analisi rileverà fra rosa piccolo e non profumata tante altre categorie correlate allo sviluppo di piante con forma diversa, nel caso del confronto bocciolo-rosa matura avremmo ancora la profumazione e categorie legate ai due differenti stadi nello sviluppo del fiore. Quindi in comune dovrebbero nei due confronti esserci i geni legati alla profumazione. Organizzazione sperimentale dell’analisi La metodica GENE-CHIP ha sicuramente un ottimo livello di sensibilità e capacità di analisi in parallelo di un ampio numero di geni e quindi è la scelta preferita ove possibile. In questo caso di analisi focalizzata sulle rose esistono dei problemi e cioè lo sviluppo di un ampio numero di cultivar differenti, sottintende un analisi genetica dei fenotipi di interesse che ha portato ad isolare piante con varianti alleliche diverse per colore, profumazione e forma e questo significa che esiste una notevole variabilità nelle sequenze alleliche e a ciò si aggiunge che il completo sequenziamento del genoma di rosa non è tutt’ora disponibile e quindi il presupposto per l’uso della metodologia GENE-CHIP è la conoscenza di una sequenza univoca. Perché se pensiamo agli oligo in cui la valutazione di un singolo miss-match si basa su una differenza di una singola base, si può capire come anche mutazioni puntiformi potrebbero non consentire un’analisi corretta e quindi anche varianti alleliche determinate da sostituzioni di singole basi potrebbe inficiare la validazione dell’approccio GENE-CHIP. Quindi si è proceduto con la metodica del micro- dispensing a partire da banche a cDNA ottenute dalla rosa profumata e dalla rosa a stelo lungo e fiore grosso non profumata. La scelta dei cDNA da immobilizzare sugli array è estremamente critica perché solo usando cDNA proveniente dall’RNA totale della rosa profumata si può avere un set di probe rappresentativo di tutti i geni coinvolti nella profumazione. Viceversa, non sarebbe possibile individuarli partendo da una condizione in cui la profumazione non è presente nel campione da cui si preparano gli RNA e quindi i cDNA. Quindi in sintesi, si usano array nei quali sono stati spottati i cDNA provenienti dalla rosa profumata. Mediante il sistema delle cianine si andranno a marcare differenzialmente nel primo confronto cDNA A livello cellulare possiamo individuare due scenari, una massa tumorale che a seguito dei trattamenti convenzionali regredisce e questo nel caso di tumori trattabili. Nel caso di quelli che determinano recidive abbiamo comportamento che deve una iniziale sensibilità al trattamento seguito dalla rigenerazione della massa tumorale. Un confronto differenziale fra trascrittoma del tumore non recidivante e quello recidivante è il punto di partenza in queste analisi. Nella scelta della tecnologia da adottare bisogna ricordare che l’obiettivo finale dello studio è avere a disposizione uno strumento prognostico ossia tecnologia applicabile al singolo paziente e che sia informativa dal suo profilo trascrizionale completo. Quindi l’unica tecnologia applicabile è quella del GENE-CHIP che avendo la possibilità di condurre analisi assoluta ci permette di ottenere profilo trascrizionale assoluto. dal punto di vista di realizzazione del CHIP e quindi degli oligo non sussistono limitazioni in quanto esistono diversi lavori di sequenziamento del genoma umano e sono disponibili dati relativi al trascrittoma di cellule tumorali recidivanti e quindi è possibile selezionare dei CHIP che contengano tutte la sequenza riscontrabili in un tumore recidivante. È fondamentale che il CHIP sia capace di cogliere tutte le differenze tipiche di questa tipologia di tumore e quindi è necessario un lavoro preliminare basato sulla sequenza ottenibile da tuti gli RNA di cellule recidivanti per verificare che il CHIP contenga tutte le possibili probe di questa condizione. Conducendo l’analisi su un CHIP contenente le probe per tumore recidivante e usando come target cDNA ottenuti da tumore recidivante e non recidivante si ottiene un’analisi differenziale che deve cogliere differenze a livello trascrizionale per geni coinvolti nella recidiva, ma al tempo stesso è intuibile che verranno individuati molti altri trascritti differenzialmente espressi. Trascritti che saranno legati al metabolismo, ciclo cellulare, alla morfologia, ma anche alla resistenza, alla risposta agli stress indotti dai trattamenti farmacologici. Quindi la singola analisi differenziale conterrà i geni di interesse, ma queste saranno solo una parte del trascrittoma differenziale ottenibile. Quale confronto adottare per consentire di ridurre questa complessità? Si è osservata l’evoluzione delle masse tumorali che sono caratterizzate da eterogeneità e infatti nella massa tumorale è possibile avere cellule staminali tumorali che per le loro caratteristiche queste non sono attivamente proliferanti e quindi più refrattarie al trattamento chemio-radio terapico e inoltre hanno localizzazione al di fuori della massa tumorale e sono capaci di rigenerare e differenziarsi in massa tumorale che caratterizza recidiva e quindi è su questa tipologia di cellule che si può pensare di fare un analisi trascrizionale differenziale. L’idea è di disporre di un altro tipo di campione in cui ci siano le caratteristiche differenziali di evoluzione in tessuti e che non contenga quegli elementi specifici della rigenerazione tumorale. Occorre un differenziale in cui si possano individuare come geni differenzialmente trascritti i geni relativi al differenziamento tumorale alla base della recidiva oltre ad aspetti più connessi alla toti potenza che non sono specifici e caratteristici dei tumori. Quindi un sistema cellulare capace di dare generazione tissutale, ma non in senso tumorale e quindi il migliore per fare il confronto è la cellula staminale normale. Quindi si deve usare un array del tipo GENE-CHIP che contenga probe rappresentative del trascrittoma completo di cellule staminali tumorali. Quindi sulla base del sequenziamento dell’RNA e quindi di un elenco di geni trascritti da una cellula staminale tumorale si va a individuare cosa serve su un GENE-CHIP che sia completamente rappresentativo della condizione cellula tumorale staminale. Con questo tipo di CHIP si fanno analisi usando cRNA da cellule tumorali staminali e cRNA ottenuto dall’RNA totale di cellule staminali tumorali. Dal confronto fra condizione patologica della staminale tumorale e condizione fisiologica della staminale si andrà ad individuare il profilo trascrizionale differenziale in cui avremo tutti i geni coinvolti nella recidivanza, ma anche altre categorie geniche relative al differente metabolismo, alle diverse capacità di migrazione delle cellule, di morfologia, di struttura del citoscheletro. Quindi come nei casi prima visti una serie di cluster genici che coprono la biologia dei due cluster cellulari. L’importante è che durante l’analisi ci sia solo il cluster relativo alla recidivanza e questo è fondamentale perché la strategia di questo tipo di ricerca è riuscire ad individuare elementi differenzialmente espressi che siano in comune fra il primo confronto e quindi cellule di tumore recidivante e cellule di tumore non recidivante e il secondo confronto e cioè cellule tumorali staminali e cellule staminali normali. Il cluster di interesse deve essere l’unico che emerge come comune nelle due analisi differenziali. Da un punto di vista operativo, l’analisi basata su GENE-CHIP ci metterà a disposizione due elenchi di geni DEG. Non è tanto importante l’ampiezza delle differenze, ma è importante l’identificazione dei singoli trascritti come differenzialmente espressi. A partire dai due elenchi si genera l’unione dei due gruppi di geni DEG e quindi un insieme globale che contiene tutte le differenze rilevate. A questo punto la caratteristica dei geni in comune nelle due analisi differenziali sarà la duplica chiamata come dire nell’insieme globale dovremmo prestare attenzione ad individuare quelle chiamate in doppio. solo i geni identificati come DEG sia nell’una che nell’altra analisi appariranno due volte. Su questo sotto-gruppo poi si ragionerà sulle funzioni correlate ai geni. Partendo da analisi differenziale che ha generato centinaia di chiamate possiamo vedere in tabella il confronto delle due analisi differenziali per la ricerca degli elementi comuni che ha consentito di ridurre ad un ristretto numero di geni il risultato dell’analisi finale. Quindi si possono considerare come geni da applicare alla prognosi i geni che vanno a cadere in categorie funzionali interessanti dal punto di vista del ruolo che possono avere nella recidiva. In particolare, si sottolinea la presenza di alcuni geni codificanti per enzimi responsabili delle attività di controllo epigenetico dell’espressione genica come USP22, così come il gene BUB1 che è coinvolto nel check point mitotico e quindi coinvolto in meccanismi di mantenimento della stabilità del genoma. Alla fase di identificazione di questi geni come potenziali candidati per la prognosi è seguita una validazione condotta con diversi metodi che permette di verificare il loro coinvolgimento dal punto di vista della loro trascrizione in condizione patologica relativa alla recidivanza. Riclassificando i casi clinici sulla base della differente espressione di questo gruppo di geni è stata possibile fare una classificazione molto attuale della progressione della patologia e della capacità prognostica di questi geni sulla basa di pazienti che hanno avuto un diverso percorso. Si è visto come l’analisi trascrizionale focalizzata su questo numero ristretto di geni sia capace fin dagli esordi della malattia di prevedere quelli che sono i rischi di recidivanza e quindi di redigere un approccio terapeutico ad personam capace di mitigare gli effetti della malattia e di implementare le prospettive di sopravvivenza sul lungo periodo. L’identificazione di un set sempre più dettagliato capace di dare un efficace prognosi presuppone il largo uso degli array in fase di identificazione del profilo trascrizionale dei singoli pazienti. Quindi anche se con un numero ridotto di geni è possibile condurre un’analisi basata su Real Time, la conoscenza del profilo trascrizionale completo da maggiori possibilità di implementare la capacità diagnostica del sistema. Via via si vanno ad individuare singoli geni responsabili del rischio di recidivanza e disponendo del profilo trascrizionale assoluto del paziente è possibile valutare la percentuale di rischio correlata a ciascun gene trascritto identificato nel suo Per quanto riguarda il DNA sull’identificazione di sequenze specifiche tramite metodiche di PCR si può ottenere informazione fra associazione di una proteina e un particolare target e quindi la metodica di analisi si basa sull’amplificare sequenze che si ritiene siano associati alle proteine di interesse. L’analisi non è solo di tipo qualitativo e quindi di identificazione di una sequenza come target, ma che di tipo quantitativo per stimare quanto si riscontra il legame di una proteina ad una determinata sequenza target. Questo può essere effettuato tramite metodiche di PCR quantitativa o Real-time PCR. Il principio alla base dell’analisi basata sul DNA immunoprecipitato è che nell’input iniziale tutte le sequenze del genoma sono presenti in quanto non è stato effettuato sull’input nessun processo di selezione, diversamente l’immunoprecipitato viene ottenuto sulla base dell’associazione delle sequenze alla proteina target dell’anticorpo. Quindi se nell’input troviamo tutte le sequenze tipiche del genoma, nell’immunoprecipitato ci si attende un arricchimento specifico delle sole sequenze target. Su questo razionale dobbiamo condurre amplificazione che permetta di stimare il livello di una sequenza sia nell’input che nell’immunoprecipitato. L’amplificazione procederà in parallelo sul campione input e sull’immunoprecipitato. Una volta ottenute indicazioni della stima del livello di una sequenza nei due campioni, si dovrà effettuare il calcolo del fattor di arricchimento dell’immunoprecipitato rispetto all’input per stabilire quanto una proteina è legata al target. Nell’esempio riportato volgiamo stimare qual è il livello di un istone modificato riscontrabile in corrispondenza di una determinata sequenza target. Analogamente possiamo procedere cercando di stimare il livello di una proteina in associazione a determinate sequenza presenti sul genoma. Quindi in questa metodica è fondamentale la scelta degli oligo che vengono usati per identificare le sequenze legate alla proteina di interesse. È necessario considerare che gli amplificati saranno di piccole dimensioni e questo tiene anche conto che si sta lavorando a livello dell’unità strutturale della cromatina e quindi frammenti corrispondenti al massimo ad alcune centinaia di paia di basi. La definizione degli oligo determina l’identificazione delle proteine legate alle proteine di interesse. Se una sequenza è stata legata dalla proteina di interesse e per ciò l’anticorpo ne ha permesso la purificazione, tale sequenza sarà più abbondantemente riscontrabile nell’immunoprecipitato e normalizzando il livello nell’immunoprecipitato rispetto all’input di partenza si potrà avere una stima della frequenza di legame e dell’interazione ligando-proteina. Conseguenze di ciò è che si opera su putative sequenze target e cioè si parte dal presupposto che una proteina possa essere associata a livello di determinate zone del genoma, ma se immaginiamo di estendere l’analisi in modo da individuare tutte le sequenze target di una proteina occorre implementare e migliorare questo approccio passando da metodica di rilevamento dei complessi nucleo-proteici basata su PCR ad una su larga scala. Quindi ad una metodica basata su microarray. Le tecnologie degli array le abbiamo viste per l’analisi trascrizionale, ma con un’opportuna modifica è possibile sfruttare la struttura delle probe immobilizzate sugli array per identificare tutte le sequenze che possono essere isolate mediante un approccio di immunoprecipitazione della cromatina. Possiamo pensare che andando a marcare i frammenti ottenuti dall’immunoprecipitazione si possa usarli come target nell’ibridazione usato su un array che dovrà contenere sequenze rappresentative dell’intero genoma. Quindi o tuto il genoma sotto forma di frammenti di dimensioni paragonabili a quelli ottenibili con la purificazione dovuta all’immunoprecipitazione della cromatina o quanto meno una selezione delle sequenze di interesse che potrebbero essere i promotori di tutti i geni presenti sul genoma o zone ritenute importanti per l’interazione con la proteina di interesse. L’approccio più semplice che si può seguire consiste nell’operare i passaggi fondamentali dell’immunoprecipitazione della cromatina, cross-linking, l’estrazione della cromatina, la sua frammentazione a livello dei nucleosomi, la preparazione dell’input prelevato prima di aggiungere l’anticorpo, l’immunoprecipitazione vera e propria che porta alla purificazione di tutti quei nucleosomi caratterizzati dalla presenza della proteina target di interesse. Adesso, anziché procedere sulla quantificazione basata sugli oligo gene specifico in PCR occorre procedere in modo da poter sfruttare la tecnologia degli array. A partire dall’input e dall’immunoprecipitato dovremmo ottenere dei target che potranno essere ottenuti con sintesi in vitro a partire da input e da immunoprecipitato introducendo la marcatura con cianine per ottenere segnali differenziabili dall’input e dall’immunoprecipitato. Le due preparazioni vengono riunite in un pool per l’ibridazione sull’array che sarà rappresentativo a livello genomico delle sequenze putative target del ligando. Dall’analisi dei segnali ci si attende nel caso di una sequenza che è target del legame per la proteina di interesse un arricchimento del segnale corrispondente all’immunoprecipitato, in questo caso il segnale dovuto alla cianina 5 sarà prevalente nell’immunoprecipitato rispetto al segnale dovuto all’input. Diversamente sequenze che non sono interessate al legame con la proteina di interessa avranno un segnale prevalente attribuibile al fluorocromo che corrisponde all’input. Quindi le due situazioni sono sequenze target con un segnale prevalente dal campione con l’immunoprecipitato, sequenze non coinvolte dal legame con la proteina caratterizzate da un segnale prevalente corrispondente all’input. Un secondo schema di analisi dei prodotti di immunoprecipitazione della cromatina su array prevede un confronto differenziale e in questo caso l’idea è confrontare gli immunoprecipitati derivanti da due campioni biologici e anche in questo caso bisognerà in parallelo valutare i livelli dell’input e questo serve per non attribuire differenze di segnale fra un campione e l’altro in modo scorretto perché si è operato in condizioni di input sbilanciato. In questo caso, viene effettuata l’immunoprecipitazione della cromatina nei passaggi fondamentali e una volta arrivati agli immnoprecipitati in due condizioni e in questo caso sono wt e cellule mutate, il campione delle cellule wt viene marcato con un fluorocromo e il campione contenente cellule mutate viene marcato con un differente fluorocromo in questo caso verde-rosso. Viene effettuato il poll e una volta l’ibridazione sull’array si valuterà la prevalenza del segnale determinato dall’immunoprecipitato wt e il segnale relativo al campione ottenuto dal mutante. In questo caso, l’indicazione è prevalenza o del segnale wt o del segnale del campione mutato e ci da un’idea del differente grado di legame della proteina di interesse nelle due condizioni cellulari distinte. Quest’approccio è molto usato per studiare gli effetti di mutazioni che alterano l’attività di proteine che legano sequenze target, per studiare l’effetto di enzimi coinvolti nelle modificazioni dello stato post- traduzionale degli istoni, così come per studiare l’associazione di proteine non istoniche alla cromatina per esempio di proteine coinvolte nel silenziamento genico, di proteine di complessi con ruolo di regolazione trascrizionale. Andando ad operare scelte opportune a livello elle probe immobilizzate sugli array e sulla tipologia di anticorpi impiegati nella fase di immunoprecipitazione della cromatina, si possono ottenere diverse informazioni su scala genomica della struttura di complessi nucleo- proteici e il limiti sono solo la disponibilità di un anticorpo che ci consenta di indagare sulla proteina di interesse e sulla conoscenza delle regioni che possono essere interessate dal legame e questo serve per guidare la sintesi e preparazione dell’array. Se si è interessati allo studio delle regioni dei promotori è sufficiente anche una sommaria conoscenza della posizione dei geni sul genoma per capire quali promotori trasmettere direttamente la propria energia a quelli dell’accettore. Tenendo conto che c’è correlazione fra spettri ed energia in gioco, il fatto che sia necessaria la parziale sovrapposizione degli spettri di emissione del donatore e di eccitazione dell’accettore garantisce la possibilità del passaggio energetico. Abbiamo sottolineato che questa sovrapposizione deve essere parziale, perché? C’è o un progressivo passaggio da una radiazione a bassa lunghezza d’onda verso una a maggior lunghezza d’onda e quindi meno energetica e se consideriamo la radiazione eccitante per il donatore, la corrispondente banda spettrale di emissione del donatore ad un’energia inferiore, la banda spettrale di eccitazione dell’accettore parzialmente sovrapposta a quella di emissione del donatore, ma con progressivo passaggio via via a lunghezze d’onda maggiore e infine l’emissione dell’accettore, vediamo un progressivo processo di riduzione dell’energia in gioco. Affinché questo avvenga, ci si deve mettere nelle condizioni in cui un trasferimento opposto sia improbabile. Vogliamo ottenere un passaggio unilaterale da radiazioni altamente energetiche a radiazioni di energia inferiore. Quindi si deve trovare la condizione per cui non ci sia un ritorno di energia. Quindi vogliamo evitare il trasferimento di energia di ritorno e quindi avere un processo che passa attraverso uno stato intermedio in cui sono in teoria possibili i trasferimenti in entrambe le direzioni e questo potrebbe essere garantito dalla completa sovrapposizione tra lo spettro di emissione del donatore e lo spettro di eccitazione dell’accettore. Ossia uno stato dove l’energia in gioco è la stessa. Questo porterebbe ad uno stallo e non consente l’eccitazione del donatore e non permette neanche il passaggio completo all’accettore e quindi l’emissione di fluorescenza da parte dell’accettore. Nella condizione di sovrapposizione solo parziale, il delta di energia in gioco garantisce termodinamicamente un flusso unidirezionale. Quindi usando una coppia di fluorofori con opportune caratteristiche, quando vogliamo sfruttare l’effetto FRET, l’obiettivo è vedere un’emissione di fluorescenza che renda conto di un passaggio da un fluoroforo all’altro e quindi un’emissione finale che corrisponde allo spettro di emissione del fluoroforo accettore. L’accettore può anche avere delle caratteristiche particolari che lo fanno definire Quencher quando, anziché emettere dopo l’eccitazione una radiazione in uscita, dissipa il delta di energia acquisita sotto forma di energia termica e quindi calore e l’effetto FRET in questo caso porta allo spegnimento dell’emissione di fluorescenza. In questo caso l’output del segnale è lo spegnimento dell’emissione al posto dell’emissione di fluorescenza da parte del fluorocromo donatore. Sull’uso dei Quencher si basa la determinazione quantitativa con la tecnica di Real-Time PCR. La Cromatina e le Modificazioni Istoniche (Parte 1) La cromatina è un’entità nucleoproteica che caratterizza le cellule eucariotiche delle quali il DNA non è libero, ma si trova in struttura organizzata e dalle molteplici funzioni e consente di mediare le interazioni fra il DNA e tutti quelli apparati necessari all’uso dell’informazione in esso contenuto. Il controllo sulla struttura della cromatina fa parte dei meccanismi definiti epigenetici ossia di quei meccanismi che vanno a modulare l’espressione genica, l’accessibilità al DNA senza intervenire sulla sequenza nucleotidica, ma agendo ad un livello strutturale superiore. Infatti, sono noti i processi di metilazione delle basi del DNA, spesso c’è metilazione di citosina o a modificazioni a livello di elementi strutturali della cromatina. Questa serie di modificazioni fa sì che venga modulata la capacità della struttura cromatinica di interagire con gli apparati in funzione della necessità della cellula. Esempio, possiamo considerare il processo di trascrizione che negli eucarioti prevede una complessa interazione fra fattori variamente localizzati sulle sequenze di DNA che determinano la trascrizione di un gene. Ci sono complessi che si formano nelle regioni upstream rispetto all’inizio della trascrizione, ci sono degli elementi prossimali all’inizio della trascrizione come TATA BOX che si trova prossima alla trascrizione e sono sequenze sulle quali si va ad assemblare il complesso trascrizionale costituito non solo da RNA polimerasi, ma anche da altri fattori che ne consentono l’attività in modo tale da produrre trascritti che poi potranno correttamente essere tradotti in proteine. Storicamente la struttura nucleoproteica della cromatina è sempre stata una struttura con un ruolo di condensazione del materiale genetico e questo per fare in modo che una macromolecola di dimensioni rilevanti come il DNA degli eucarioti riesca ad essere organizzata strutturalmente nel limitato spazio disponibile nel nucleo, ma mantenere anche la disponibilità di accesso per tutti quei processi che vedono il DNA come punto di partenza. Quindi il livello organizzativo della cromatina di base è quello che ha origine dall’avvolgimento della doppia elica intorno a strutture globulari con una condensazione in quella che viene definita una collana di perle tipico di questa struttura quando si fanno analisi in microscopia elettronica. Ci sono masse sferiche che sono mantenute in contatto da brevi tratti di DNA nudo che è il DNA linker. Unità fondamentali strutturali che definiamo nucleosomi e quindi corpi dell’acido nucleico assemblato alle proteine istoniche che sono proteine basiche con possibilità di interagire in modo adeguato con il DNA. Salendo a livelli organizzativi, dalla fibra a collana di perle di 10nm di spessore mediante un ulteriore avvolgimento di questa fibra, si riesce ad ottenere una fibra di 30nm e introducendo ulteriori ripiegamenti e inserzioni si arriva alla condizione di massima condensazione corrispondente al cromosoma metafasico che è quello che gli approcci citogenetici ci permettono di vedere nei nuclei. Se ci focalizziamo sulla struttura ottenuta tramite DNA e proteine strutturali e nucleosomi e proteina che funge da linker fra nucleosomi adiacenti possiamo considerare gli istoni. Vengono definite di solito proteine basiche in funzione degli aa che le costituiscono. Per quanto riguarda l’istone H1, esso è deputato a mantenere il contatto fra unità adiacenti nella struttura della cromatina e quindi funge da linker fra un nucleosoma e il successivo. Gli altri 4 istoni e cioè H2A, H2B, H3 ed H4 costituiscono invece il core proteico del nucleosoma. Sono proteine a basso peso molecolare e costituite da poco più di un centinaio di residui. Questo è importante per definire i domini degli istoni. Di conseguenza, peso molecolare a partire dall’istone più piccolo H4 per finire con l’istone più grande H3 sono compresi fra gli 11 e i 15 KB. Spesso la struttura nucleosomale viene rappresentata con una preponderanza della struttura proteica rispetto all’acido nucleico. In realtà la situazione reale è diversa e infatti se osserviamo i modelli che rappresentano la struttura completa del nucleosoma in cui c’è in grigio chiaro il DNA e gli istoni colorati al centro, possiamo vedere che il DNA non è assolutamente una parte minoritaria e questo è importante per i meccanismi di associazione fra DNA e proteina a livello cromatinico. Immaginiamo di fare analisi strutturale fine della cromatina e immaginiamo di isolare i singoli nucleosomi e questo può essere fatto digerendo il DNA linker che connette nucleosomi adiacenti e facciamo delle stime. La componente DNA avvolta intorno al di carica. Cioè questi gruppi acetilici diventano un qualcosa di identificabile da parte di alcuni partners che possono associarsi o meno alla cromatina. Se consideriamo la metilazione, ci possono essere diversi gradi con l’aggiunta di un gruppo c’è mono-metilazione, con l’aggiunta di due gruppi c’è di-metilazione, possiamo saturare il gruppo amminico che diventerà tri-metilato e ragioniamo su questa modificazione. Se sostituiamo i protoni con i gruppi metili, il gruppo tri-metilato anche lui ha una carica che sarà mascherata da un intorno dei gruppi metilici che sono idrofobici. Quindi ciò che vinee esposto è un qualcosa di diverso rispetto al gruppo amminico con una carica ben accessibile dall’esterno. Questo tipo di modificazioni lo dobbiamo vedere non solo come modulatore di interazione ionica, ma anche come una modificazione strutturale esposta sul nucleosoma. Questo concetto è importante perché sono stati identificati dei domini proteici di interazioni mediati dallo stato di modificazione degli istoni. Ne vediamo rappresentati 3, c’è un Tudor Domain che è capace di legarsi in modo specifico a lisine mono-metilata, c’è un Chromo Domain affine a lisine di e tri metilate e un Bromo Domain che riconosce lisine acetilate. Questi domini vengono identificati in proteine non istoniche che si associano alla struttura cromatinica. Le modificazioni a carico degli istoni sono un linguaggio che può essere letto da proteine che hanno questi domini. Questo è un aspetto alla base dell’idea del codice istonico. Un codice è un linguaggio costituito da elementi che assommati vanno a definire uno specifico significato. Il codice istonico si compone di natura combinatoriale e cioè pensando a tutte le possibili modificazioni a carico degli aa degli istoni, si era immaginato di poter costruire un linguaggio sopra al linguaggio delle basi del DNA. Se pensiamo ai soli istoni H3 e H4 e pensiamo alle lisine e arginine che vengono esposte ai loro tratti ammino-terminali e abbiamo ben 15 aa suscettibili di modificazioni e possiamo restringere il tutto alle lisine e pensare ad acetilazione e metilazione come modificazioni che possono essere fatte. Ciascuno di questi 13 residui potrebbe essere non modificato, acetilato, mono-metilato, di metilato e tri metilato e quindi per ogni sito ci sono 5 possibili stati diversi. Il numero delle combinazioni teoricamente possibili è di ben 135. Con il procedere dell’analisi molecolare si è rivista l’idea iniziale del codice istonico, passando a definirlo come codice gerarchico combinatoriale. Rimane l’idea che un pattern costituito da una serie di modificazioni assume uno specifico significato, ma esistono delle relazioni gerarchiche fra le diverse combinazioni che possono essere introdotte a carico degli istoni. È stato visto che in generale l’ubiquitinazione esercita un controllo sulla metilazione che a sua volta controlla l’acetilazione. Quindi un flusso di informazioni contenute nelle modificazioni degli istoni coordina uno stato di modificazione strutturale presente sui nucleosomi da cui dipende l’accessibilità e la reattività del distretto cromatinico nei confronti dei vari processi che possono avvenire a su carico. Quindi queste modificazioni fanno sì che sia più o meno agevole trascrivere il DNA, replicarlo e sottoporlo a tutti quegli eventi necessari a fare sì che questo venga mantenuto, propagato e che venga sfruttata l’informazione in esso contenuto. In particolare, non tutti in siti sono equivalenti a livello di istoni, alcuni sono più suscettibili ad alcune modificazioni rispetto ad altre, alcuni non vengono mai modificati. Le modificazioni interessano alcuni residui e non altri e vedremo il caso dell’ubiquitinazione che è molto imprtane4 che si riscontra in un solo residuo a carico del H2B sia di lievito che di cellule di mammifero. Schema che riassume alcuni siti suscettibili di modifica Sono ben rappresentati residui sull’estremità ammino-terminale dell’istone H3 e H4 e alcune posizioni centrali nell’istone H3 piuttosto che una carbossi-terminale sull’istone H2B. lo schema si riferisce sia a lievito che mammifero. Parleremo di acetilazione, metilazione e ubiquitinazione facendo riferimento sia a lievito, ma anche in mammifero. Sono interessanti l’istone H3 e H4 per quanto riguarda metilazione e acetilazione, dell’H2B consideriamo l’ubiquitinazione. Vedremo alcuni enzimi coinvolti in queste modificazioni come Gcn5, le metilasi Set1 e Set2 responsabili della metilazione degli H3 e gli enzimi ubiquitinanti e de-ubiquitinanti che reagiscono tutti sul residuo di lisina 123 dell’istone H2B. Sono residui che si riferiscono al lievito e con alcune minime variazioni le troviamo anche negli eucarioti. La Cromatina e le Modificazioni Istoniche (Parte 2) L’acetilazione si caratterizza per il fatto di essere sempre associata a cromatina attivamente trascritta e il significato di questa modificazione è uno stato di condensazione aperto ossia è tipica di cromatina accessibile e questo fa sì che fin dalle prime evidenze di legame fra modificazioni post-traduzionali degli istoni e trascrizione si è sempre individuata (l’acetilazione) come responsabile dell’attivazione trascrizionale. Per approfondire questa tematica vedremo il caso in cui l’acetilazione è il mezzo attraverso cui si attiva la trascrizione di un gene inducibile. Per affrontare questo tema dobbiamo vedere i complessi coinvolti nella modificazione degli istoni e nell’interazione con gli elementi che consentono la trascrizione. Ci riferiamo al complesso SAGA che è un complesso multiproteico e multifunzionale e da un punto di vista strettamente legato alle modificazioni istoniche possiede due attività enzimatiche, l’attività acetil-transferasica che viene garantita dall’acetil-transferasi Gcn5 e una seconda attività di de-ubiquitinazione garantita dall’enzima Ubp8. Abbiamo degli enzimi attivi soprattutto dal punto di vista dell’acetilazione sull’istone H3 e istone H5 e attività a livello dell’istone H2B per quanto riguarda il controllo dell’ubiquitinazione a livello della lisina 123 che è determinato da Ubp8. Il complesso SAGA prende contatto con l’attivatore trascrizionale da una parte e promuove il reclutamento degli elementi necessari per la formazione del complesso trascrizionale e quindi fattori generali della trascrizione come la Tata-Binding-Protein e l’RNA polimerasi stessa e il tutto per promuovere la formazione del complesso trascrizionale in corrispondenza del sito di inizio della trascrizione. In basso, vediamo come all’evento del legame di un attivatore trascrizionale sulle sequenze bersaglio, il SAGA fa seguire l’associazione a tale attivatore e quindi la possibilità di indurre modificazioni sugli istoni a livello di nucleosomi adiacenti a queste sequenze target. Come vengono acetilati i nucleosomi della regione circostante la TATA-BOX? Stiamo considerando modificazioni che si verificano a livello del promotore. Quindi in una condizione di promotore attivato c’è l’introduzione su alcuni nucleosomi che delimitano la regione del promotore in modo tale da innescare gli eventi necessari alla trascrizione genica. Quindi siamo in un contesto di iper-acetilazione indotta da un attivatore trascrizionale e possiamo sottolineare che i residui target di questo tipo di acetilazione sono principalmente quelli degli ammino-terminali di H3 e H4. Se ragioniamo in termini di dimensioni, tenendo conto che il nucleosoma e il relativo linker corrispondono a 300-500 paia di basi al massimo, la regione interessata da questo tipo di modificazioni è strettamente delimitata nell’ambito del promotore. Quindi sarà anche il ricevente di 5 acetilazioni mediate da Gcn5. Metilando e in particolare tri metilando lisina 4 si può avere un contesto favorevole a fare in modo che Gcn5 presente nel SAGA possa acetilare il cluster di residui bersaglio nella coda di H3. Lo stato di acetilazione viene rafforzato da altre attività attive su H4 quale quella di Esa1. L’introduzione di acetilazione segna l’inizio della sintesi del messaggero. Quindi ci si sta muovendo dal contesto del promotore verso l’interno del gene. Lo stato di modificazione tipico del promotore non è lo stesso della regione seguente. Il cambiamento di contesto di modificazione istonica è segnato dalla dissociazione da questo sovra complesso dell’attività di Rad6 e di Set1. Il sistema si resetta per consentire di introdurre un contesto di modificazione istonica che permetterà al complesso di muoversi lungo il gene per ottenere dei trascritti completi. È fondamentale la rimozione dell’ubiquitinazione in modo tale che si possa svincolare l’RNA polimerasi dal promotore e si consenta di procedere avanzando lungo il gene. Diventa critico il ruolo di Ubp8 che a questo punto andrà a rimuove l’ubiquitina dalla lisina 123 del H2B e si andrà a generare un contesto in cui c’è metilazione su un residuo più interno di H4 che è lisina 36 e l’RNA polimerasi si svincola da SAGA e dagli altri elementi del complesso di inizio e procede lungo il gene. Quindi il SAGA promuove una serie di eventi fondamentali a livello del promotore e dopo di ché si cambia contesto che viene in parte generato da RNA polimerasi II capace di dislocare davanti a sé i nucleosomi e che non presuppone più un’iper-acetilazione a livello degli istoni H3 e H4 durante il suo procedere. Abbiamo visto come l’ubiquitinazione regola la possibilità di introdurre metilazioni su residui, in particolare su residui che non sono sullo stesso istone target di ubiquitinazione. L’ubiquitinazione è presente solo sull’istone H2B, abbiamo visto la metilazione che si verifica all’N-terminale dell’H3. Quale meccanismo colloca l’azione di ubiquitinazione in funzione della metilazione? Ci sono almeno un paio di ipotesi non esclusiva e una prima idea tiene conto del fatto che l’ubiquitina è un peptide di 76 aa e quindi una modificazione strutturalmente rilevante e cioè che può generare con il suo ingombro sterico cambiamenti rilevabili nella struttura della cromatina. Introducendo un residuo di ubiquitina sull’H2B, è facilmente immaginabile che questo generi un’apertura locale che può favorire l’attività della metilasi Set1 a carico della lisina4 dell’N-terminale di H3. Quindi l’ubiquitinazione come strumento per apparire la conformazione chiusa della cromatina, generando accessibilità peer la metilasi che quindi può accedere al substrato. La metilazione è una tri metilazione in questo caso. È un processo che aggiunge sequenzialmente gruppi metilici fino alla completa saturazione del gruppo amminico. Un secondo meccanismo prevede che l’ubiquitina stessa diventi punto di associazione per la metilasi e quindi con un’interazione ubiquitina-metilasi si va a stabilizzare un’interazione dell’enzima in prossimità del residuo target accomunando i due meccanismi immaginiamo che l’ubiquitina crei lo spazio e recluti localmente la metilasi per consentirle di accedere al substrato. Il contesto generale generato dalla tri metilazione della lisina4 sull’istone H3 è in grado di promuovere e di favorire e di supportare l’acetilazione di quei 5 residui target dell’attività di Gcn5. Quindi il codice gerarchico può essere contestualizzato in una serie di reazioni a cascata che vanno a promuovere delle modificazioni conformazionali che via via consentono l’introduzione delle diverse modificazioni. Possiamo tenere in considerazione per quanto riguarda l’acetilazione come ultima modificazione introdotta il significato di riduzione della carica elettrostatica delle lisine e quindi un cambiamento nelle interazioni DNA-proteine favorevole alla dislocazione dei nucleosomi al passaggio all’apparato trascrizionale. Questa non deve essere l’unica interpretazione perché ci sono anche altri fattori coinvolti all’inizio della trascrizione come quelli che rimuovono i nucleosomi sono provisti di domini di riconoscimento di queste modificazioni. Quindi con Chrome o Bromo Domain, tutti gli altri complessi coinvolti all’inizio della trascrizione vengono reclutati per consentire l’inizio della sintesi del trascritto. All’inizio della discussione abbiamo parlato di acetilazione come modificazione facilmente interpretabile perché uno stato iper-acetilato correla con uno stato di cromatina trascrizionalmente accessibili, invece uno stato ipo-acetilato correla con uno stato di cromatina non trascrizionalmente accessibile. Portiamo l’attenzione su un repressore trascrizionale che va a legare la sequenza con significato di repressione bersaglio e a questo punto è capace di reclutare un complesso con azione opposta al SAGA in cui sia presene un’attività istone de acetilasica. Quindi c’è un fattore proteico reclutatore che riconosce una sequenza target, il repressore che legando questa sequenza genera il contesto per il reclutamento dell’attività de acetilasica che viene portato in maniera specifica su promotori che sono oggetto della repressione trascrizionale. Stiamo parlando di un ristretto numero di nucleosomi adiacenti alla sequenza a cui si lega il repressore e che coinvolgerà i nucleosomi che coprono anche la regione di inizio trascrizione. Esistono diverse attività de acetilasiche e consideriamo cosa succede su un residuo interessante perché in funzione del suo stato di modificazione post traduzionale diventa una sorta di interruttore molecolare segnando o lo stato attivo o lo stato trascrizionalmente inattivo. Quindi la specificità degli enzimi coinvolti sarà per un residuo il cui stato è critico per consentire di attivare piuttosto che di spegnere la trascrizione. Consideriamo il caso della lisina9 che negli organismi pluricellulari quali l’uomo, topo, ratto si riscontra in due stati alternativi di modificazione, possiamo averla nello stato acetilato che corrisponde sempre ad uno stato di attivazione trascrizionale o all’opposto in uno stato metilato. Dal punto di vista chimico, acetilazione e metilazione sono mutualmente esclusive e questo fa sì che l’introduzione dell’una escluda l’altra. Quindi ad una acetilazione attivatoria correla l’esclusione della metilazione inibitoria. Quindi dall’analisi di questo residuo abbiamo indicazione dello stato trascrizionale della cromatina. Quali sono le caratteristiche che fanno sì che questa modificazione funga da interruttore molecolare? Se pensiamo alla metilazione, questa può essere riconosciuta da proteine provviste di un Tudor Domain e nello specifico abbiamo la proteina HP1 ed è caratteristica dell’etero-cromatina trascrizionalmente inattiva. Disponendo di due Tudor Domain, una singola molecola di HP1 va a legare i gruppi metilati a livello di lisina9 dell’H3 su due nucleosomi adiacenti e ricordiamo che la coda N-terminale dell’istone H3 è esposta dalla struttura nucleosomale e quindi questo favorisce la duplica interazione di HP1 su due nucleosomi adiacenti e permette di promuovere la formazione di una struttura sovra- nucleosomale chiusa. Si va ad ottenere una sorta di lucchetto molecolare che blocca l’accessibilità sui nucleosomi sui quali è stata introdotta la metilazione a livello di lisina9. Nella condizione opposta, dove non può essere introdotta la metilazione HP1 non ha dell’attività trascrizionale. È un meccanismo complesso e noi considereremo qui il modello Saccaromiciae Cerevisiae più accessibile dal punto di vista della descrizione in cui osserviamo un silenziamento a livello delle regioni dei telomeri, a livello di alcuni loci deputati al mantenimento del Matying Type ossia che definiscono nella fase aploide la polarità sessuale delle cellule e infine a livello del locus degli r-DNA. Gli r- DNA è la regione del DNA codificante per gli RNA ribosomiali ed è importante ed è presente in un alto numero di copie in lievito e nell’uomo c’è un estesa ripetizione di questi geni. Il silenziamento fa si che ne venga trascritta una quota sufficiente per garantire la ribogenesi senza arrivare all’eccesso di un estesa trascrizione dell’unità che porterebbe al collasso il sistema trascrizionale e la cellula stessa. Infatti, gli RNA ribosomiali sono già regolati e rappresentano più dell’80% del trascrittoma cellulare. Alcune zone del genoma di lievito correlano con uno stato cromatinico soggetto al silenziamento, impariamo a vedere gli elementi non istonici fondamentali per instaurare una condizione di cromatina condensata. Gli attori principali sono le proteine Sir che vuol dire Silent Information Repression e queste proteine sono 4 e solo una ha attività enzimatica ed è Sir2. Attività enzimatica a carico degli istoni infatti Sir2 è una de-acetilasi NAD dipendente e l’unica delle Sir ad avere attività sugli istoni. Sir2 è la capostipite di una importante famiglia di de-acetilasi che sono le Sirtuine che derivano il loro nome da Sir2 che troviamo anche nei metazoi e uomo compreso. Riferendoci al processo di silenziamento abbiamo le proteine Sir che sono 4 all’interno delle proteine Sir solo Sir2 è un enzima ed è una Sirtuina e cioè una de-acetilasi. Ai telomeri troviamo le proteine Sir2, Sir3 e Sir4. A livello dei loci del mating type abbiamo anche la proteina Sir1 oltre alla Sir2, Sir3 e Sir4, mentre a livello degli r-DNA abbiamo solo Sir2. A livello degli r-DNA altri partner molecolari consentono di avere quelle struttura sovra-nucleosomale che consente il silenziamento. Le proteine Sir non sono presenti a basso livello nella cellula, ma la loro distribuzione deve essere bilanciata e quindi la possibilità di ri-localizzare a livello di diversi siti silenti o alterazioni della loro localizzazione si ripercuotono sull’efficacia del meccanismo di silenziamento. Ci soffermeremo in particolare sulla struttura sovra-nucleosomale che viene a stabilizzare e compattare e rendere poco accessibile la regione telomerica che prendiamo come modello che meglio descrive il processo di generazione della struttura basata sulle proteine Sir al di sopra della struttura cromatinica fondamentale. Quindi di base c’è cromatina non condensata e tramite una serie di eventi di reclutamento e di associazione, dalla struttura de-condensata si passa alla struttura fortemente condensata. Presteremo particolare attenzione a interazioni proteina- proteina andando a discutere gli aspetti che permettono la formazione inziale e l’estensione per un tratto che nel lievito può coprire fino a 20Kb. Per capire nel dettaglio gli aspetti più critici nella formazione di questa struttura, dobbiamo fare un attimo un breve approfondimento di quella che è la struttura a livello di sequenze in prossimità dei telomeri. Il telomero coincide con le sequenze ripetute e introdotte dalla telomerasi finalizzate al mantenimento di questa regione e possiamo nella regione telomerica propriamente detta individuare una regione all’estremità di DNA a singolo filamento di 12-14 nucleotidi. Poi abbiamo una regione contenente sempre le ripetizioni estesa per circa 300-400 paia di basi al massimo che si trova sotto forma di DNA double strand e col termine di regioni telomeriche si passa alla regione sub-telomerica nella quale possiamo avere sequenze mediamente ripetute con una eterogeneità di sequenza leggermente superiore e ritroviamo alcuni elementi presenti su più telomeri, ma niente di paragonabile alla ripetizione in tandem tipica del telomero propriamente detto. I nucleosomi sono presenti solo a partire dalle regioni sub-telomeriche per poi estendersi verso il centromero e quindi il telomero propriamente detto non contiene nucleosomi. Nello schema vediamo rappresentata in corrispondenza dell’estremità telomerica propriamente detta la struttura della telomerasi in tutte le sue subunità che occupa il tratto a singolo filamento. Seguono poi alcune proteine in particolare il dimero Ku70- Ku80 che funge da elemento delimitatore fra il single-strand e il double strand addentrandoci in direzione del centromero nella regione telomerica double-strand e quindi prima di raggiungere il primo nucleosoma abbiamo altri fattori proteici in particolare ritroviamo Rap1 con la funzione di DNA binding protein che lega le sequenze ripetute in prossimità del telomero. Il dimero Ku70-Ku80 e Rap1 sono importanti perché coinvolte in interazioni con le proteine Sir, interazioni che sono fondamentali per l’instaurarsi della struttura compatta sovra-nucleosomale. Quindi a partire da una condizione non condensata, il meccanismo prevede il progressivo reclutamento degli elementi proteici coinvolti a partire dalla stretta prossimità del telomero dove non ci sono nucleosomi. Quindi il meccanismo che adesso vedremo fa sì che avendo come riferimento strutturale la regione telomerica una serie di interazioni proteina-proteina fanno sì che venga ad essere occupata fin dall’inizio la regione nucleosomale in modo da ottenere l’organizzazione di una struttura estremamente compatta. Quindi è fondamentale capire come si riesce a portare le proteine Sir in modo controllato sui primi nucleosomi e cioè quelli che occupano la regione adiacente a quella telomerica e quella definita come sub-telomerica e vedremo che la corretta deposizione delle proteine Sir sul nucleosoma dipende da elementi che si ritrovano nel tratto delle sequenze ripetute a doppio filamento. Prestiamo attenzione all’evento primario in cui è coinvolto un etero-dimero formato dalle proteine Sir2 e Sir4, l’unico partner molecolare disponibile per questo dimero è Ku70-80 e quindi Sir2-Sir4 non sono in grado inizialmente di contattare il primo nucleosoma e vengono reclutate in corrispondenza della fine del DNA a singolo filamento dove abbiamo posizionato il dimero Ku70-Ku80. Questa interazione induce modificazioni conformazionali a carica del dimero Sir2-Sir4 in particolare Sir4 svolge un ruolo importante perché funge da scaffold per mediare interazioni proteina-proteina. Se ricordiamo le dimensioni di questa regione, c’è un gap di 300-400 paia di basi prima di raggiungere il primo nucleosoma e quindi dal punto della prima interazione delle proteine Sir con Ku70-Ku80 al primo nucleosoma c’è fisicamente un tratto non occupato da nucleosomi. In che modo le proteine Sir lo raggiungono e vi prendono contatto? Entra in gioco la proteina Rap1 e quindi le modificazioni conformazionali a carico di Sir4 fanno sì che il dimero Sir2-Sir4 diventi affine per la prima unità di Rap1 che è adiacente a Ku70-Ku80. A questo punto dobbiamo spiegare come da questa posizione ci muova in direzione del primo nucleosoma, l’interazione Sir2-Sir4 con Rap1 va incontro ad un processo di cooperatività e cioè il legame della prima unità Rap1 modifica le caratteristiche del dimero Sir2-Sir4 e lo rende affine per un ulteriore interazione con Rap1, interazione che può essere soddisfatta contattando la seconda unità di Rap1. Se consideriamo il primo tratto di sequenze ripetute e occupate da Rap1, abbiamo più unità e l’effetto cooperativo e cioè una maggiore affinità progressiva di Sir2-Sir4 per Rap1 viene soddisfatto quando più Quindi abbiamo un bersaglio di modificazione che giace sulla regione a livello della quale Sir3 può contattare i nucleosomi. Questo è il nocciolo della questione andando a considerare la metilazione nel contesto del silencing. Importanti indicazioni per delucidare il meccanismo vengono dall’analisi genetica e se considerassimo cellule di tipo selvatico, abbiamo che il 90% della cromatina è metilata a livello della lisina 79 dell’istone H3 ad opera di un enzima DOT1 che è l’unico che ha per bersaglio questa lisina. Quindi abbiamo in cellule selvatiche una metilazione indotta su lisina 79 dell’istone H3 che copre il 90% dell’intera cromatina. Quantificando la regione di cromatina soggetta a silenziamento soltanto il 10% corrisponde a cromatina silente. Notiamo come la percentuale soggetta a silenziamento è complementare alla percentuale metilata e quindi è come dire che il 90% della cromatina è dal punto di vista trascrizionale attiva e metilata a carico della lisina 79 dell’istone H3. Quindi laddove abbiamo metilazione e in particolare di e tri metilazione su lisina 79 dell’istone H3 ciò correla con uno stato di attività trascrizionale. Viceversa, all’opposto in quel 10% di cromatina soggetta a silenziamento potrebbe essere questo stato di metilazione il discriminante per la conformazione dell’impalcatura dipendente dalle proteine Sir che porta al silenziamento. L’analisi genetica adottata in questo contesto ha previsto la caratterizzazione di due opposte condizioni e cioè una condizione in cui manca l’enzima DOT1 che è l’unico capace di metilare lisina 79 e la condizione di over-espressione di questa metilasi. Cominciamo con il considerare l’over-espressione e cioè se over-esprimiamo DOT1 riusciamo a saturare tutta la cromatina con metilazione su lisina 79 come dire che ovunque andremmo a trovare la lisina 79 di e tri metilata. In questa condizione si ha perdita del silenziamento e quindi come dire che questo segnale caratteristico della cromatina trascrizionalmente attiva se esteso completamente a tutta la cromatina impedisce il silenziamento. Andiamo a vedere se questa metilazione segnale antagonista al silenziamento vale anche nel caso del deleto ossia di cellule in cui manca questa metilasi. Rimuovendo la sequenza codificante per DOT1, non si ha più l’unico enzima capace di introdurre questa modificazione e se noi andiamo ad analizzare lo stato di metilazione su questo residuo vediamo che è completamente assente. Se un segnale antagonista al silenziamento è completamente assente, ci si potrebbe attendere un’estensione del silenziamento, ma in realtà il dato sperimentale è l’opposto e cioè anche quando manca la metilazione DOT1 dipendente, non c’è silenziamento. Come possiamo spiegare questo risultato? Immaginiamo un modello di questo tipo che può andare d’accordo con quanto visto per le cellule WT e per le cellule over-esprimenti. Abbiamo una metilazione di lisina 79 dell’H3 che correla con uno stato di cromatina attiva e quindi immaginiamo che al di fuori del distretto silenziato la lisina 79 vada a costituire un marcatore strutturale capace di escludere le proteine Sir e in particolare Sir3 da uno stato di stabile legame con i nucleosomi. Quindi immaginiamo di e tri metilazione di lisina 79 dell’H3 come segnale di esclusione. Come possiamo però spiegare anche il meccanismo in cui abbiamo delezione di DOT1 che porta allo stesso risultato? Se vediamo questo schema, nella condizione WT noi abbiamo una compatta struttura nella regione telomerica che si basa su un rapporto stechiometrico di abbondanza delle proteine Sir rispetto ai nucleosomi occupati in modo da organizzare la struttura chiusa. Nel momento in cui abbiamo una estesa metilazione su lisina 79 dell’H3, la possibilità di legame di Sir3 e di conseguenza di reclutare i complessi Sir2 e Sir4 viene meno e quindi si ha soltanto il nucleo iniziale di proteine Sir sul primo nucleosoma che è stato promosso dall’interazione con le proteine Ku70 e Ku80 e poi Rap1, ma poi non c’è possibilità di estendere la struttura con quel meccanismo basato sul reclutamento di Sir3 che legandosi ai nucleosomi richiama altre unità Sir2-Sir4. Questo perché in presenza di metilazione su lisina 79, Si3 è escluso dal legame e questo è coerente con il fenotipo osservato per l’over-espressione di DOT1 perché over-esprimendo la metilasi saturiamo tutta la cromatina con il segnale che esclude Sir3. All’opposto quando manca DOT1, il segnale esclusivo manca ovunque e tutta la cromatina è priva del segnale che esclude il legame al Sir3. Quindi non solo nella regione telomerica, ma anche al di fuori di questa, Sir3 può trovare un contesto favorevole. Le proteine Sir non sono proteine a basso livello, tuttavia la loro quantità in cellula è proporzionale alla copertura dei telomeri. Quindi una dispersione sull’intera cromatina fa saltare quell’equilibrio di distribuzione che ottimizza quindi la formazione del complesso per cui per ogni nucleosoma c’è un reclutamento dell’unità silenziante basata sulle sirtuine e il venire meno della possibilità di organizzare questa struttura e della possibilità di bilanciarla fa sì che non si riesca ad ottenere la chiusura e la condensazione ottimale nelle regioni sub-telomeriche. Dal punto di vista del codice istonico quindi abbiamo compreso il tipo di regolazione per cui una metilazione condiziona lo stato di acetilazione e in questo caso la metilazione funge da inibitore del reclutamento del complesso che porta l’acetilasi e quindi impedisce che si instauri una ipo-acetilazione e quindi se c’è un alto livello di metilazione su lisina 79 dell’H3 questa previene la de-acetilazione di lisina 16 dell’H4 e quindi rimane prevalente l’acetilazione dell’H4 su lisina 16. Come dire iper-metilazione correla con iper- acetilazione. Ora dobbiamo capire quello che è il livello superiore di controllo lungo il codice gerarchico e combinatoriale degli istoni. DOT1 è l’unico enzima che metila la lisina 79 dell’H3. DOT1 da sola è capace di indurre mono-metilazione su questo residuo, mentre è stato dimostrato che per passare dalla mono-metilazione alla di e tri metilazione è indispensabile l’intervento dell’ubiquitinazione su H2B lisina 123. Quindi la stessa modificazione che abbiamo osservato nel contesto trascrizionale, ma in quel caso questa ubiquitinazione serviva ad indurre gli eventi di assemblaggio dell’apparato trascrizionale. Ora invece la consideriamo in un contesto diverso e cioè nella regolazione dello stato di modificazione che regola l’accessibilità alla cromatina. Quindi non siamo più in un contesto promotore specifico, ma in un contesto più ampio di regini cromosomali. Quindi è stato osservato che è indispensabile la modificazione su H2B per consentire l’incremento del grado di metilazione su lisina 79 dell’H3. Per capire le basi di questo meccanismo, consideriamo un attimo la struttura nucleosomale ed essa viene rappresentata schematicamente in questo caso con un core centrale del nucleosoma occupato dalle due coppie di H3 e dalle due coppie di H4 sopra il quale giace il dimero H2A e H2B sia da un lato che dall’altro del core. Il residuo 123 di H2B giace in una posizione prossima al residuo 79 di H3 e quindi l’idea è che pur essendo questi due residui su istoni diversi, lo stato di modificazione di lisina 123 di H2B può condizionare la reattività della lisina 79 dell’H3 perché sono in stretta prossimità. L’aggiunta di una unità di ubiquitina corrisponde all’aggiunta di una componente proteica che è metà dell’istone e quindi nell’economia del nucleosoma è una grossa modificazione strutturale. In presenza di ubiquitina su lisina 123 dell’H2B DOT1 è in grado di introdurre di e tri metilazione di lisina 79. In mancanza di ubiquitinazione, DOT1 può solo mono-metilare questo residuo. Per ipotizzare un meccanismo in modo completo, ragioniamo su una sequenzialità di reazioni a carico del gruppo amminico della lisina 79. Inizialmente se partiamo da lisina non modificata, ci sono maggiori possibilità per un enzima come DOT1 di introdurre un gruppo metilico sul gruppo amminico che di fatto ha solo protoni. Quindi la mono-metilazione dal punto di vista termodinamico è favorita rispetto agli ulteriori gradi di metilazione. Quindi immaginiamo che la mono- metilazione è un evento rapido rispetto alla di e tri donatore del gruppo acetilico. Quindi il livello di acetilazione rispecchia la disponibilità di acetil-coA che anch’esso è noto come importante metabolita. Infatti, ne entra tanto nell’anabolismo quanto nel catabolismo ed è un po' il sensore della disponibilità di fonti di carbonio. Quindi Sir2 e tutte le de-acetilasi che condividono con lei la caratteristica di dipendere dal NAD+ e identificate nella famiglia delle sirtuine si trovano in una posizione che può concretamente correlare lo stato metabolico con gli effetti sulle proteine che essi de-acetilano. Possono fungere quindi da sensori dello stato metabolico delle cellule. Chi sono le sirtuine? In lievito abbiamo Sir2 che appartiene al gruppo delle proteine Sir che si riferisce al loro coinvolgimento nel processo di silenziamento. Sir2 ha attività de-acetilasica ed è l’unica perché le altre acetilasi di lievito che dipendono da NAD+ sono HST1 e HST2, HST3 e HST4 che non sono così ben caratterizzate come Sir2. Nell’uomo ci sono 7 Sirtuine e quindi un’estrema stratificazione. Sono accomunate dalla dipendenza dal NAD+ nella reazione di de- acetilazione e sono anche tutte accomunate dal fatto che possono essere inibite in modo non competitivo dal prodotto della loro reazione di de-acetilazione la nicotinammide. Quindi la nicotinammide che viene prodotta dalla reazione di de- acetilazione catalizzata dalle Sirtuine, accumulandosi può agire da inibitore sulle Sirtuine. Perché sono interessanti le Sirtuine? Nello schema le vediamo collocate in una matrice che evidenzia la possibilità di recepire stimoli e di indurre effetti down-stream che saranno mediati dal regolare l’attività dei loro substrati che in funzione dello stato di acetilazione possono essere più o meno attivi. In particolare, ci soffermiamo sul legame con il metabolismo e cioè le sirtuine possono cogliere stimoli di natura metabolica, ma possono anche sentire una stimolazione legata a condizioni di stress. Quindi le collochiamo fra gli effettori della risposta cellulare a condizioni fisiologiche che possono anche mutare rapidamente e che possono produrre effetti rilevanti per la sopravvivenza cellulare. Qui sono elencate alcune delle Sirtuine caratterizzate in cellule di mammifero e quella più vicina a Sir2 è SirT1 e oltre a questa è da segnalare anche SirP3 che si localizza in un compartimento cellulare nei mitocondri che è particolarmente rilevante dal punto di vista metabolico sia dell’acetil-coA che del NAD. Infatti, il mitocondrio è sede del ciclo di Krebs dove l’acetil-coA condensando con l’ossalacetato genera citrato e viene progressivamente ossidato generando NADH. Il NADH poi trasferisce elettroni alla catena di trasporto e quindi siamo in un organello che è particolarmente ricco in NAD che metabolizza attivamente il NAD e anche l’acetil-coA e quindi una sirtuina in questo contesto funge da sensore critico per la funzionalità mitocondriale come rappresentato nello schema. Un’altra sfaccettatura della fisiologia delle sirtuine è la loro alterata regolazione che si può osservare nel caso dell’insorgenza del cancro. L’effetto non è univoco su tutte le sirtuine, alcune vengono up-regolate ed altre down-regolate e i livelli di alterazione che si possono riscontrare nel cancro possono andare dall’instabilità genomica e quindi alterazioni che coinvolgono anche lo stato della cromatina, così come alterazioni metaboliche. Sono due contesti in cui le sirtuine sono attive. Un altro fondamentale contesto in cui vediamo coinvolte le sirtuine è quello dell’invecchiamento e prendendo uno degli aspetti legati all’invecchiamento e cioè la stabilità della struttura cromatinica, possiamo sottolineare che con il progredire dell’età, la struttura nucleosomale ordinata e finemente regolata dal punto di vista della condensazione va incontro ad una progressiva alterazione. Per cui la struttura diventa più propensa ad essere de-condensata arrivando alla condizione più estrema di ridotto posizionamento dei nucleosomi che lascia scoperte regioni più ampie di quelle che ci sono nelle cellule giovani esponendo il genoma ad una serie di rischi che possono essere rotture, ricombinazioni, trasposizioni e quindi eventi che di solito sono molto regolati e circoscritti. Sir2 in lievito si è visto essere coinvolto direttamente in questo tipo di processi per cui la mancanza di Sir2 accelera il processo di alterazione strutturale della cromatina in quei distretti laddove dovrebbe essere silenziata. Ad esempio delle regioni sub-telomeriche. Quindi Sir2 è importante nel mantenimento del corretto assetto cromatinico anche in funzione dell’invecchiamento. Oltre a questo aspetto, posiamo aggiungere che anche negli eucarioti pluricellulari è stato visto un coinvolgimento delle sirtuine nei processi di invecchiamento. Considerando che questi enzimi possono essere modulati dal punto di vista dell’attività, sono stati al centro di studi ampi e in corso per individuare molecole che agendo su di loro possono in qualche modo aiutare l’organismo a mantenersi in una condizione di efficienza per un periodo quanto più lungo possibile nel corso della vita di un individuo. Ad oggi, nei paesi economicamente progrediti dove il tenore di vita è migliorato l’aspettativa di vita supera gli 80 anni, ma dopo i 65 anni molte persone soffrono di patologie croniche più o meno invalidanti. Quindi gli individui possono sperimentare delle condizioni di non ottimale stato di salute. Si è sviluppata un’idea di uso di integratori nutrizionali che non sono farmaci, ma sono presenti in piccole dosi nella vita quotidiana e che possono essere legati alla funzionalità dell’organismo. L’idea di incrementare queste molecole che non essendo farmaci non hanno controindicazioni, potrebbe essere utile per stabilizzare le performance dell’organismo nel tempo. Quindi è nata l’idea di cercare modulatori dell’attività delle sirtuine e abbiamo visto la nicotinammide come modulatore negativo, ma per incentivare la loro attività un notevole interesse è stato riscosso dai polifenoli di origine vegetale. Molecole come Resveratrolo che è un polifenolo e presente nel vino rosso perché è presente nella buccia degli acini e facendo vinificazione che lascia la buccia nel mosto di fermentazione, l’alcol prodotto estrae questo composto. Non conferisce la colorazione, ma lo si trova solo nei vini rossi. Questa molecola lo troviamo in tanti altri frutti come bacche, mirtilli e ribes e in ortaggi e frutta secca tipo arachidi. Un putativo meccanismo d’azione del Resveratrolo sembra essere la capacità di aumentare l’affinità delle sirtuine per le NAD. Quindi anche in condizioni di ridotta disponibilità del NAD in cellula, il Resveratrolo aiuta il legame fra NAD ed enzima e quindi consente di mantenere l’enzima attivo anche quando dal punto di vista metabolico le condizioni sono sfavorevoli. Quindi su questa idea di modulare l’attività delle sirtuine per mantenere una conformazione cromatinica ottimale, si è sviluppata una serie di studi in cui il Resveratrolo è stato testato su diversi modelli e anche nell’uomo dove si sa che ha effetto protettivo contro malattie di natura cardiologica. Infatti, in Francia il tasso di mortalità per malattie cardiache è molto basso perché il Resveratrolo rende un po' più robusto l’organismo nei confronti di malattie cardiache. Bisogna capire in quali tessuti umani modulando l’attività delle sirtuine con il Resveratrolo si riesca ad ottenere benefici in merito al mantenimento di una funzionalità metabolica fisiologica e a lungo termine. Northern e RT-PCR relative Ci sono metodiche che permettono di studiare l’espressione di anche migliaia di geni e quindi Genome-Wide come Macro- Arrays e Micro-Arrays e di questi ultimi sono stati trattati i Gene-Chip e lo spot dispensing. Ci sono poi metodiche che che è rappresentato dall’OH in 3’ a cui l’enzima si attacca e in direzione 5’-3’ copia lo stampo. In funzione del primer posso avere situazioni diverse, ci può essere una situazione di Random Primer, Oligo DT primer e Specific Primer. Le prime due le abbiamo viste nel contesto degli Array perché sono due metodiche che consentono di retro-trascrivere o tutti i trascritti o solo i messaggeri. Random Primer Permettono di retro-trascrivere tutti gli RNA presenti nella miscela. Come primer si usa una miscela di nucleotidi lunghi 6 (esameri) in cui sono presenti tutte le combinazioni possibili a 4 basi e quindi 46 primer presenti. Essi si annileranno in modo specifico a delle sequenze complementari che troveranno. Hanno estremità 3-OH e saranno usate dalla Trascrittasi Inversa come innesco, ma arrivate al primer che si trovano davanti, non avendo attività eso 5’-3’ la trascrittasi si ferma e alla fine della retro-trascrizione, bisogna aggiungere la Ligasi per chiudere i Nick e otterrò una coppia a cDNA lineare integra. Oligo DT Primer Permette di retro-trascrivere solo i messaggeri sfruttando la loro caratteristica di presenza di coda di poli-A. Si usano oligo DT ancorati perché possiamo avere fino a 250 residui di poli A e i primer hanno una lunghezza di 18 massimo nucleotidi e vogliamo che si appaino vicino alla zona che viene trascritta e non a tutta la coda. Visto che i primer sono presenti in condizioni definite e controllate, c’è il rischio che i primer vengano titolati da una coda sola di messaggero e quindi non si riesce a trascriverli tutti. Quindi sono primer di 18 DT che portano all’estremità 3’ le altre combinazioni di basi e cioè A, G, C e T e così in condizioni opportune si annilano solo all’estremità 5’ della coda. A prescindere dalla metodica usata, gli etero-duplex RNA-cDNA vengono trattati con RNA-asi H che è RNAasi che idrolizza l’RNA nell’etero-duplex, ottenendo quindi cDNA single-strand e questo poi può essere usato nei micro-Array rendendolo però cDNA. Specific Primer Abbiamo una miscela di RNA totale in cui uso come innesco per la trascrittasi inversa, un primer specifico per quel target e quindi in modo specifico nella miscela, questo primer si annilerà al target e verrà usato dalla trascrittasi inversa per retro-trascrivere quel trascritto o messaggero. Vediamo dalla Slide come arrivati all’etero-duplex, c’è l’RNA-asi H che idrolizza in modo specifico l’RNA ottenendo cDNA single strand. L’RNA asi H è un enzima che può essere aggiunto alla miscela di reazione, ma è anche un’attività intrinseca di alcune trascrittasi inverse e quindi è sufficiente, dopo la retro- trascrizione, variare le temperature e si attiva l’attività RNA- asi H intrinseca di alcune trascrittasi inverse e l’RNA viene idrolizzato. Dopo c’è amplificazione del c-DNA tramite PCR tradizionale che è divisa in 3 fasi che sono denaturazione, annealing, estensione e si ripete e alla fine caricheremo su un gel di Agarosio l’amplicone ottenuto dopo un certo numero di cicli. Dopo aver eliminato l’RNA, si ha formazione del secondo strand sul cDNA usando un primer specifico da cui poi tramite la Tac che è l’enzima che viene usato tramite PCR avremo i vari cicli di PCR. Per fare una PCR, dobbiamo conoscere le zone a destra e a sinistra come sequenza della zona che vogliamo amplificare su cui poi costruiremo i primer e sono senso e anti-senso. In questo caso, possiamo anche usare come primo primer quello che abbiamo usato per retro-trascrivere, l’amplicone caricato sul gel avrà dimensioni date dalla distanza fra i due primer. Nel disegno dei primer, i 3 OH devono essere uno di fronte all’altro. Questa è una RT-PCR di tipo qualitativo perché ci permette di dire c’è o non c’è quel dato trascritto ed è rapida e se confrontata con una Northern è molto più sensibile ed è legata ai cicli di amplificazione e ci permette di determinare la presenza di un trascritto anche quando questo è presente a bassissimi livelli. RT-PCR Relativa Permette di valutare differenze nella quantità di un certo trascritto in campioni diversi o di determinare l’abbondanza di un certo trascritto rispetto ad altri trascritti nello stesso campione. L’RT-PCR relativa se confrontata con quella qualitativa, abbiamo che la retro-trascrizione è analoga e ciò che varia è la PCR che deve essere quantitativa. Durante una normale PCR, c’è un templato, dei primer specifici, c’è la Tac polimerasi e abbiamo impostato n cicli. Se ad ogni ciclo prelevassimo un’aliquota e analizzassimo la quantità caricandola su un gel e facendo analisi densito-metrica e riportando la quantità rispetto al numero di cicli otteniamo una curva di questo tipo. Solo per un certo periodo, la curva è esponenziale perché tutti i reagenti, enzima e nucleotidi e magnesio incluso cominciano a diventare limitanti e non si può più avere una sintesi di tutto il templato presente che sarà l’amplicone fino a quando con l’aumentare del numero di cicli, l’amplicone non aumenta più. I reagenti sono limitanti e la polimerasi per quanto termo-stabile riduce la sua attività e ad un certo punto ci può anche essere una riduzione e il prodotto può andare incontro a degradazione. Nella reazione di polimerizzazione, si ha liberazione di una molecola di pirofosfato e questa reazione è all’equilibrio e quando ce ne è tanto si verifica reazione di piro-fosforo-lisi. In una normale PCR, l’amplicone aumenta esponenzialmente con il numero di cicli di PCR e la resa è data da 2n T e questa dipende anche dalla quantità iniziale di substrato. Questo è valido solo nella fase esponenziale. Quindi se avessimo due target, di cui vogliamo confrontare i livelli, dobbiamo analizzare l’amplificazione quando siamo nella fase esponenziale. Così i prodotti caricati su gel ci danno delle differenze e andiamo a vedere la quantità di ampliconi che danno la misura della quantità iniziale. Per rendere questo sistema efficiente si lavora in modo da rendere ininfluenti tutti i fattori che possono inficiare un efficiente polimerizzazione. La polimerizzazione dipende dalla composizione in basi e dalla lunghezza e quindi rendiamo ininfluenti questi fattori perché se amplifichiamo delle regioni fra target diversi con composizioni simili e con dimensioni trascurabili, possiamo arrivare ad un’efficienza confrontabile fra i due campioni e un’efficienza paragonabile al 100%. Quindi in una PCR quantitativa, dobbiamo lavorare con un numero di cicli tale da essere nella fase esponenziale, ma i primer li studiamo per fare sì che amplifichino frammenti di dimensioni analoghe fra i campioni che vogliamo analizzare, ma trascurabili e quindi frammenti al di sotto delle 200 paia di basi. Quindi dopo aver retro-trascritto e aver studiato i primer ad una distanza fra loro massima di 200 paia di basi, se fermassimo la reazione di PCR specifica dopo la retro- riportato il rapporto del competitore rispetto al target. Il grafico è un’iperbole e il rapporto è 1 e riesco ad avere un’idea su quanto templato competitivo sia presente e quindi di quanto target è presente. Ma dal grafico si determina più o meno la quantità di competitore che dobbiamo aggiungere per ottenere un rapporto fra amplificati uguale a 1. Ripeto di nuovo la PCR aggiungendo alla quantità x del target quella quantità determinata di competitore che estrapolando dal grafico dovrebbe darmi 1 e carichiamo di nuovo su gel e otteniamo due bande più o meno della stessa intensità e si fa analisi densito-metrica e si fa il rapporto. Se trasformiamo il rapporto 1 in un Logaritmo viene zero. Sull’asse delle x si mette la quantità di competitore e su quella delle y il Logaritmo del rapporto. Possiamo vedere, andando a vedere l’intercetta sull’asse delle Y, qual è il valore della quantità di competitore corrispondente e risalire alla quantità del target. Real-Time PCR 1 È una PCR in tempo reale e può essere abbinata ad una RT e quindi retro-trascrizione e la Real Time PCR è quantitativa. È una PCR che permette di monitorare la reazione di amplificazione in tempo reale e seguiamo nel tempo la cinetica di amplificazione. Quindi monitora la fluorescenza emessa durante la reazione di amplificazione come indicatore della comparsa dell’amplicone e lo fa ad ogni ciclo, non si basa sulla quantità di amplificato dopo un certo numero di cicli, ma al momento della comparsa di un segnale di fluorescenza relativo ad ogni ciclo. Maggiore sarà il numero di molecole bersaglio e prima il segnale fluorescente verrà rilevato. Questo è diverso dalle PCR quantitative dove si andava ad analizzare il prodotto finale su un gel. I gel se confrontati con il sistema della Real Time PCR hanno dei limiti e infatti hanno una sensibilità e risoluzione e precisione inferiore rispetto alla Real Time e non può essere automatizzato e i risultati non sono espressi con dei numeri e infatti ogni banda deve passare attraverso analisi densito-metrica da cui si ottiene un valore e con dei calcoli si arrivava poi a dei dati quantitativi. Nella slide vediamo tutti gli step necessari in una Real Time PCR normale e una Real Time RT-PCR, si vede che il sistema porta ad una riduzione dei tempi di lavoro, riduzione di errori sperimentali e c’è retro-trascrizione e ci sono già dei dati quantitativi. Non dobbiamo passare dal caricamento su gel e analisi densitometrica e il risultato finale è che alla fine abbiamo un sistema più specifico, più riproducibile e più sensibile. Le applicazioni sono diverse e viene usata come analisi quantitativa di qualsiasi tipo di DNA e di RNA e quindi studi di espressione genica, determinazione della carica virale e serve anche ad individuare mutazioni alleliche e anche negli studi di splicing alternativo. Il sistema per fare una Real Time è costituito da un termo- ciclatore dove faremo la PCR, ma usando dei coloranti fluorescenti avremmo una sorgente laser che serve per eccitare il fluoroforo, un rilevatore ottico che serve per ottenere il dato di fluorescenza emesso e il tutto gestito da un computer. Siamo nel visibile e se eccitiamo ad una lunghezza d’onda, emettiamo ad una lunghezza d’onda superiore. Quindi attraverso la Real Time c’è un rilevamento della fluorescenza associata all’amplificazione e questa fluorescenza si analizza tramite computer. Vediamo il grafico in uscita con la scala lineare e c’è il numero di cicli e un DeltaRn che è una fluorescenza normalizzata. È un grafico in cui ad ogni ciclo di reazione della PCR si assegna un valore di fluorescenza che correla con una quantità di DNA e quindi ogni punto è un valore di fluorescenza che corrisponde ad ogni ciclo. Il valore di fluorescenza corrisponde alla quantità di DNA. Si può usare o un intercalante come il SyberGreen che si lega in modo stechiometrico a tutto il DNA oppure si possono usare sonde ad ibridazione che sono specifiche per il frammento di interesse e sono sonde marcate con molecole fluorescenti. Esistono diverse tipologie di sonde e vedremo sonde ad ibridazione dove abbiamo due sonde ognuna marcata con un fluoroforo, poi una sonda di idrolisi rappresentata dalla TacMan dove c’è un'unica sonda con i due fluorofori e un’altra sonda che si chiama Molecular Beacons ossia fari molecolari in cui la sonda ha una struttura a stem loop. Poi ci sono le sonde Scorpion con struttura a Stem Loop a cui associamo anche il primer della PCR che sono sempre primer specifici in modo da amplificare frammenti di dimensioni trascurabili. Ci sono le One Labeled Probe che sono le sonde ad ibridazione dove ci sono due sonde ciascuna con un fluoroforo, poi le Dual Labeled Probe che sono la TacMan, Molecular Beacons e Scorpion in cui abbiamo unica sonda che porta i due fluorofori. Tutte queste sonde sfruttano il fenomeno della FRET. Syber Green I È un intercalante, aromatico e policiclico che si intercala in modo stechiometrico al solco minore del DNA ds. Viene eccitato nel Blu e ha lunghezza d’onda di 480 nm ed emette nel verde e quindi lambda massima 522 nm. La scelta del Syber Green è legata al fatto che non è tossico come invece lo è l’etidio bromuro e il Syber Green da meno rumore di fondo quando è legato. L’altro aspetto riguarda il momento di emissione del segnale che è circa 200 volte superiore rispetto all’etidio e quindi sistema più sensibile. Come funziona il sistema del Syber Green? C’è il templato che viene denaturato e la DNA polimerasi termo-stabile e i primer. È presente in soluzione il Syber Green e tutto è gestito dal computer di modo che siamo noi a scegliere quando eccitare e quando acquisire il segnale di fluorescenza. Ad ogni ciclo di reazione si associa un valore di fluorescenza che correla con la quantità di DNA presente. Alla fase di denaturazione segue quella di annealing dei primer e nel momento in cui il primer si è annilato, il Syber Green comincia ad entrare e intercalarsi e man mano che la polimerizzazione avanza, il Syber Green si intercala in modo stechiometrico. Alla fine della polimerizzazione, si riprende la denaturazione e il Syber Green ritorna in soluzione. Il computer eccita e rileva alla fine di ogni ciclo di polimerizzazione. Il Syber Green è meno costoso, ma prevede che vengano messe a punto le condizioni di reazione della PCR perché il colorante si intercala anche ai primer che sono in soluzione e che possono fare self-annealing e dare valori di fluorescenza scorretti. È possibile ovviare a questo problema facendo delle curve di melting. È un sistema che non permette analisi Multiplex e cioè non possiamo nella stessa provetta analizzare più amplificati perché si intercala in modo univoco ad entrambi ed è meno specifico perché la specificità è data dai primer e dal Syber Green che si È un sistema specifico perché oltre alla specificità del target dovuta ai primer che si usano, abbiamo una specificità dovuta anche alle altre due sonde che si devono annilare al target. Le sonde non sono idrolizzate e quindi alla fine della reazione di amplificazione si possono generare curve di melting e le sonde hanno una certa flessibilità di design perché ho un certo range dove poterle disegnare rispetto al target perché dobbiamo trovare temperature di anniling a cui si annili il primer ed entrambe le sonde. È una tipologia di sonda che permette delle analisi multiplex anche se abbastanza complesse perché dobbiamo usare più sonde nella medesima soluzione oltre ai primer e questo rende il sistema laborioso. Possiamo però avere per quanto riguarda la sonda numero uno (il donatore), lo stesso fluoroforo in modo che si eccita alla stessa lunghezza d’onda, mentre quello che possiamo variare è il fluoroforo accettore delle sonde che emetterà a diverse lunghezze d’onda e possiamo usare un unico laser per eccitare. L’altra sonda è la sonda TaqMan di idrolisi perché viene idrolizzata ad ogni reazione di amplificazione. È una sonda sempre basata sul fenomeno FRET, ma è Dual Labeled ed ha in 5’ un reporter e in 3’ c’è un Quencher ossia un fluoroforo che nel momento in cui si trova alla distanza di FRET rispetto al Reporter quencha il segnale perché il trasferimento di energia viene dissipato sotto forma di calore. In più porta un Blocker in 3’ perché non vogliamo che nel momento in cui la sonda si ibrida in modo specifico al target, questo 3-OH possa essere usato dalla polimerasi per copiare il DNA. Questa sonda si chiama TaqMan perché viene usata durante questa reazione un enzima che si chiama TaqMan che è simile alla Tac polimerasi, ma in più ha un’attività Eso di Nick-Traslation e cioè attività in direzione 5’-3’ che permette il Displace dell’elica. Questa attività è presente anche nell’Oloenzima di Coli. Quindi la sonda TaqMan è un Oligo a SS e viene disegnato per essere complementare alla sequenza da amplificare e si annila a valle rispetto al primer e si ibrida nel frammento amplificato. Il Reporter e il Quencher sono alla distanza di FRET. Schema Abbiamo sempre DNA-ds che viene denaturato e dopo la denaturazione, c’è l’annealing del primer e dopo si ha anche l’annealing della sonda nella zona interna e si aumenta la temperatura perché avvenga la polimerizzazione. La TaqMan inizia a polimerizzare e man mano che polimerizza si troverà davanti la sonda e quindi in base alla sua attività ESO 5’-3’ inizia a idrolizzarla. Vediamo l’inizio della polimerizzazione nella slide e si trova davanti la sonda e idrolizza il primo nucleotide e poi procede, ma nel momento in cui idrolizza il primo nucleotide, in 5’ c’è il reporter che finisce in soluzione e reporter e Quencher non si troverebbero più alla distanza di FRET. Quindi non avendo più trasferimento di energia, non avrei più quenching e quindi nel momento in cui la sonda viene idrolizzata, se noi eccitiamo il reporter, potremmo avere emissione del segnale da parte del reporter. Quindi avremmo eccitazione e rilevamento appena inizia la polimerizzazione e si potrà rilevare un segnale specifico dovuto al reporter. Qual è il problema di questo sistema? Al di là di avere una sonda che viene idrolizzata e quindi non va bene nel caso di un’analisi di melting, ma dall’altra parte il problema è che la sonda TaqMan rimanga ibridata durante la polimerizzazione che in genere avviene a 72 gradi. Quindi dovremmo studiare una sonda che rimanga ibridata a questa temperatura. Le sonde come i primer non possono essere molto lunghe perché dobbiamo avere il fenomeno FRET e si devono trovare alla distanza di FOSTER e dobbiamo ottimizzare questo fenomeno e dobbiamo abbassare la temperatura della polimerizzazione perché non troveremo mai una sonda FRET che possa avere una Tm di ibridazione a 72 gradi. Questo diminuisce un po' l’efficienza dell’enzima che viene usato. È comunque un sistema molto usato perché la sonda TaqMan rispetto alle altre costa meno. È un sistema che permette un’analisi Multiplex più facile da attuare rispetto all’ibridazione con due sonde perché possiamo avere due o tre sonde TaqMan con un fluoroforo diverso e avere emissione a lunghezze d’onda diverse. Molecular Beacon and Scorpion Abbiamo visto la sonda TaqMan che porta in 5’ un Reporter e in 3’ un Quencher e in 3’ anche un Blocker che impedisce alla DNA polimerasi di usare la sonda come primer. È una sonda di idrolisi che viene idrolizzata dall’enzima TaqMan grazie all’attività ESO 5’-3’. È specifica per il target e si ibrida e una volta che si è ibridata, reporter e Quencher si trovano alla distanza di FOSTER che varia fra 10 e 100 Amstrong. Un giro d’elica corrisponde a 34 A. Quando si ha polimerizzazione, la TaqMan incontra la sonda e in base all’attività ESO 5’-3’ idrolizza il primo nucleotide rappresentato dal Reporter che si verrà a trovare in soluzione e non ci sarà mai l’effetto FRET. Il sistema eccita e rileva il segnale. Ci sono dei limiti nel sistema perché devo fare in modo che la sonda resti appaiata durante la polimerizzazione che avviene a 72 gradi. Quindi compromesso fra attività della TaqMan e la Tm della sonda. È una sonda che non permette analisi di Melting perché idrolizzata, ma il limite è legato all’effetto FOSTER perché dobbiamo essere sicuri che reporter e quencher una volta appaiati si trovino alla giusta distanza. Per ovviare a questo si è cercato di realizzare altre sonde fra cui i fari molecolari (Molecular Beacons). Molecular Beacons La sonda è sempre specifica e di ibridazione per il target ed ha una struttura in loop e ha sempre in 5’ un reporter e in 3’un quencher che presenta sempre un Blocker. Come è fatta questa struttura? Il fluoroforo e il quencher si trovano dalla parte opposta dello stem-loop che è costituita da sequenze complementari fra di loro che formano una struttura a stelo, ma che non hanno nulla a che vedere con il target. Dopo c’è il loop che invece porta la sequenza complementare del target e si annilerà all’interno del target che verrà amplificato. Con una struttura di questo tipo fluoroforo e quencher sono vicini e questo fa sì che il segnale del fluoroforo sia quenchato e che non si possa avere il segnale di emissione del reporter di fluorescenza. Il loop è complementare ad una sequenza del target e quando la sonda ibridizza, questo separa il reporter dal quencher e questo produce un segnale di fluorescenza e la quantità di fluorescenza dipende dalla quantità del prodotto specifico in quel dato momento. I usano o geni House-Keeping o RNA-r. è una metodica che serve per studiare l’espressione genica ed è legata anche alla farmacologia. Poi c’è la quantizzazione assoluta dove si può determinare il numero iniziale delle copie del target che può essere RNA o DNA. In questo caso, dobbiamo preparare una curva standard di fluorescenza di DNA o di RNA contro una quantità variabile di templato. Serve per quantizzare patogeni e controllo qualità. È una PCR quantitativa e le misurazioni vengono fatte in fase esponenziale tramite rilevazione di fluorescenza e gli ampliconi dovranno avere dimensioni trascurabili e in uscita abbiamo un plot di questo tipo. Abbiamo il numero di cicli sull’asse delle x e sull’asse delle y è riportata una fluorescenza normalizzata perché da una parte avremmo il nostro campione da analizzare con i primer e la polimerasi e la sonda, ma abbiamo anche la stessa cosa in cui è presente tutto ciò, ma senza templato. La fluorescenza emessa dal campione mi da il Background di fondo del grafico e i valori di fluorescenza sia del mio target sia della provetta in cui non è presente il target devono essere normalizzati ottenendo quello che si chiama Rn+ e un Rn-. È presente anche la misurazione di un segnale di fluorescenza rispetto ad un fluoroforo che non partecipa alla reazione e che non deve interagire con il templato e che da il riferimento interno per correggere fluttuazioni di fluorescenza non dovute alla PCR. Quindi ogni valore di fluorescenza sia del templato che della miscela senza il templato vengono normalizzate rispetto al controllo interno. Quindi avremmo la fluorescenza del templato che viene normalizzata e quindi divisa per la fluorescenza del riferimento passivo e la stessa cosa avviene per la miscela senza templato la cui fluorescenza viene normalizzata e quindi divisa per il riferimento passivo. Di questi si calcola il Delta e si parla di DeltaRn. Grafico Abbiamo il numero di cicli in funzione del DeltaRn e compare il Ct che è il ciclo soglia. La Real Time PCR misura la quantità di prodotto ad ogni ciclo sulla base della quantità di fluorescenza emessa. Tutte le analisi quantitative della Real Time si basano sulla determinazione del ciclo soglia. Il ciclo soglia o CT è il punto della reazione di amplificazione al quale il livello di fluorescenza supera una soglia prestabilita sopra il segnale di Background. Le quantizzazioni nella Real Time PCR devono essere fatte nella fase di amplificazione. Amplifichiamo frammenti di dimensioni trascurabili e la reazione di amplificazione è efficiente al massimo quasi al 100% in modo tale che P= 2n T. Sulla base della fluorescenza P possiamo determinare T. Il momento ideale per la determinazione quantitativa è lavorare nelle prime fasi con dei valori che siano discriminabili dai valori di fondo e quindi viene stabilito dall’operatore una soglia. Soglia che si chiama Treshold e rappresenta un valore di fluorescenza soglia che incontrerà tutte le curve di amplificazione che otterremo nella fase esponenziale. È un valore arbitrario perché viene calcolato e viene misurata la fluorescenza nei primi cicli di reazione e ottenuti questi valori di DeltaRn nei primi cicli, si fa la media e il valore che si ottiene viene moltiplicato per 2 o per 3. Così si ha un valore statisticamente significativo al di sopra del Background che si ha nei primi cicli e questo fa sì che venga fissata una soglia. È quindi un valore di fluorescenza che sarà raggiunto da un certo campione dopo un certo numero di cicli in funzione della sua quantità iniziale secondo la regola 2n T. quindi se abbiamo campioni più abbondanti il Ct sarà più basso perché saranno necessari meno cicli per raggiungere quel valore di fluorescenza. Se avessimo campioni più diluiti o presenti in minor quantità, sarebbero necessari più cicli per raggiungere lo stesso valore di fluorescenza e quindi avremmo dei Ct più elevati. Quindi il ciclo soglia correla con la quantità iniziale. In realtà dalla macchina associata alla Real Time, in uscita il grafico viene rappresentato con il numero di cicli su scala lineare, mentre il DeltaRn su scala logaritmica. Quindi il software misura per ogni campione il numero di cicli al quale la fluorescenza incrocia la linea arbitraria soglia che è un valore di fluorescenza e il punto in cui si incontra si chiama Ct. Tutte le misurazioni in Real Time, sia relative che assolute, si basano sul calcolo del Ct. Quantificazione Assoluta e Relativa In entrambi i casi di quantificazione (assoluta e relativa) si parte dai Ct che è il numero di cicli a cui si raggiunge un certo valore soglia di fluorescenza e nel caso della quantificazione assoluta, riusciamo a sapere quanto campione c’è nella preparazione, ma dobbiamo costruire una curva standard e questa la costruiamo tramite uno standard di cui conosciamo la concentrazione e di cui misureremo i vari Ct al variare della sua concentrazione. Nel caso di quella relativa, abbiamo bisogno di un controllo interno di cui valuteremo e misureremo il Ct e misureremo il Ct dei target e la quantizzazione viene fatta tramite il calcolo dei DeltaCt. Quantificazione Assoluta Dobbiamo ottenere delle curve standard che sono simili a quelle del dosaggio proteico dove vediamo l’assorbanza in funzione della quantità e in base alla curva si avranno dei valori di assorbanza ed estrapolando dalla curva si può risalire alla quantità. Qui abbiamo un campione a quantità nota e si fanno delle amplificazioni tramite Real Time di diluizioni seriali e si determinano i vari Ct. Vediamo le varie curve di amplificazione su scala Log del campione che ci servono per costruire la curva standard a diverse diluizioni seriali e i Ct relativi. Riporteremo su un grafico i valori di Ct ottenuti in funzione della quantità e il grafico però è un grafico dove i valori di Ct ottenuti sono riportati sulle ordinate in funzione del logaritmo della quantità e il risultato è un grafico lineare che dice che i Ct sono inversamente proporzionali al logaritmo in base dieci del numero di copie. Questa retta ci dà indicazioni sull’efficienza della reazione di amplificazione che dovrebbero essere simili a 100 e l’efficienza è data dalla pendenza della retta. C’è anche l’intercetta sulle ordinate che dice la sensibilità. Il campione noto ideale è il target che dobbiamo aver purificato e lo possiamo fare se il punto di partenza è l’RNA che abbiamo trascritto in vitro e lo possiamo dosare, potremmo averlo clonato e quindi aver la possibilità di dosarlo oppure averlo sintetizzato tramite sintesi chimica di oligonucleotidi. Costruita la curva standard, faremo delle diluizioni del campione in cui è presente il target e faremo partire le reazioni di Real Time e calcoleremo e avremo dei valori di Ct e in base a questi valori che si ottengono estrapoleremo e riporteremo sulla curva standard e possiamo arrivare a determinare l’ammontare iniziale del templato. quanto varia il target nel fegato rispetto al cervello. E faccio il Delta Ct del campione- Delta Ct del calibratore e poi applichiamo la formula e cioè 2-Delta Delta Ct. Gli esprimenti devono essere ripetuti almeno due volte e i risultati vengono poi espressi tramite istogrammi. Il calibratore ha un valore di 1 e tutti gli altri vengono espressi in funzione di ciò. Metilazione del DNA Vediamo le tecniche che ci permettono di studiare lo stato di metilazione del DNA e in particolare la presenza di 5-metil-citosina. Questa è una modificazione epigenetica che caratterizza gli eucarioti dove si trova con percentuali diverse. Il substrato favorito è il di-nucleotide CpG e nell’uomo circa l’80% del CpG metilato lo si trova a livello delle sequenze ripetute del genoma e dei trasposoni e della regione del centromero dove ha funzione di repressione. Il restante 20% di CpG non è metilato e lo si trova in zone a livello dei promotori in cui è presente un’alta percentuale del di-nucleotide e queste zone si chiamano CpG Island. Troviamo queste a livello dei promotori dei geni per la glicolisi e la presenza di CpG Island non metilate favorisce la trascrizione e troveremo CpG Island più o meno metilate in quei geni che devono essere trascritti in modo tessuto specifico. Quindi c’è correlazione fra i livelli di metilazione e silenziamento. La metilazione avviene ad opera di DNA-Metil-Transferasi specifiche che sono di due tipi: - DNA Metil-Transferasi di mantenimento che sono responsabili del fatto che la metilazione delle CpG Island è ereditabile. Esse intervengono durante la replicazione del DNA e fanno sì che si abbia la metilazione dei filamenti neosintetizzati usando come stampo il filamento complementare a quello metilato. - DNA Metil-Transferasi EX Novo che sono responsabili di tutti gli eventi di metilazione che avvengono durante la vita di un organismo e sono quelli responsabili delle diverse metilazioni che troviamo nei geni che vengono espressi in modo diverso nei diversi tessuti. Considerando di un certo gene la zona CpG Island, durante l’invecchiamento si osservano cambiamenti della metilazione. Allo stesso modo, cambiamenti si hanno durante l’instaurarsi di certe patologie come il cancro che induce l’instaurarsi di repressioni trascrizionali. Oltre ad una iper-metilazione a carico delle CpG Island che di solito sono represse possono essere associati stati di ipo-metilazione che riguardano di solito elementi ripetuti che di solito sono metilati correlando a fenomeni di instabilità cromosomica. Le metodiche di analisi degli stati di metilazione del DNA si sono evolute nel tempo. Le metodiche che vedremo ci permettono di avere informazioni relative ad una specifica sequenza e di uno specifico gene. Mentre la HPLC ci permette di ottenere un’indicazione sul livello totale di metilazione presente. I saggi di metilazione del DNA sono divisi in due gruppi: - Alcuni sono legati da un’analisi di restrizione per cui il DNA genomico viene digerito con un particolare enzima di restrizione e successivamente alla digestione enzimatica può seguire o un’amplificazione tramite PCR o analisi di Southern. - Metodi che trattano il DNA genomico con il Bisolfito che fa sì che quando c’è una citosina non metilata, essa venga convertita in uracile, mentre la citosina metilata resta citosina. Quindi c’è un trattamento che inserisce un cambiamento di base a cui poi segue un’amplificazione tramite PCR e un’analisi successiva che avviene in diversi modi e infatti possiamo avere trattamento del genoma con Bisolfito a cui segue una PCR con primer specifici per la regione a cui può seguire il sequenziamento della regione oppure si può avere il trattamento con il Bisolfito e la PCR con primer specifici a cui segue poi un’analisi di restrizione. Questa metodica viene chiamata COBRA. Posso avere anche un trattamento del genoma con il Bisolfito e PCR successiva con dei primer specifici per zone metilate o non metilate. Metodiche basate su digestione enzimatica del genoma Vediamo degli enzimi di restrizione di tipo II (ricordare la definizione) e associati a questi esistono le metilasi corrispondenti e quindi per questi esiste la Metilasi corrispondente che riconosce lo stesso sito di restrizione e metila. Una volta che il sito viene metilato, l’enzima corrispondente non sarà più in grado di digerire. Esistono anche gli Iso-schizzomeri che sono enzimi di restrizione isolati da diversi organismi che hanno diversi nomi, ma che riconoscono la stessa sequenza e tagliano allo stesso modo, ma anche tagliare in modo diverso e quindi possono lasciare estremità 5’-protruding e 3’-protruding a seconda dell’iso-schizzomero che si sta usando. Questo fa sì che anche per gli Iso-schizzomeri esiste la metilasi corrispondente, ma tagliando in modo diverso, il risultato è che a seconda dell’iso-schizzomero che si usa, questo può essere sensibile o no alla metilazione. Esempio Hpa2 riconosce la sequenza CCGG riconosciuta dal suo iso-schizzomero Msp1 e quando viene metilata dalla metilasi corrispondente, succede che un enzima taglierà e l’altro no. Sfruttando questa sequenza è possibile usare le metodiche che adesso vedremo. Analisi del DNA genomico con Southern Blot Vediamo una sequenza che è stata sequenziata, ma non sappiamo se sulla citosina ci sia un metile perché il sequenziamento normale non legge le metil-citosine. Quindi si estrae il DNA genomico e in doppio viene trattato con i due enzimi Msp1 e Hpa2 che taglieranno o no a seconda che sia presente il metile. Hpa2 non taglia se c’è il metile, mentre Msp1 taglia sempre anche con il metile. La digestione è totale e se è presente il metile, otterremo un pattern diverso a seconda dell’azione dei due enzimi. Nel caso di Hpa2 taglierà solo in corrispondenza del sito non metilato e quindi il frammento che si trova fra i due siti riconosciuti in presenza della metilazione non sarà presente. Quindi facciamo una digestione in doppio e cioì DNA genomico con un enzima e DNA genomico con l’altro, separiamo su un gel d’Agarosio e facciamo poi un’analisi di Southern per cui ho bisogno di una sonda e conosco il locus e cioè il gene che sto studiando e possiamo costruire una sonda marcata che ibridi con il target e vedremo, dopo l’analisi di Southern Blot che nel caso dell’enzima che taglia indipendentemente dalla presenza del gruppo metilico tre bande, di cui la banda B è quella dovuta ai due siti e le altre due sono legate ai siti presenti a destra e a sinistra. Mente nel caso della digestione con l’enzima che è sensibile alla metilazione, la banda B sparisce e sarà presente un’altra banda dovuta al primo sito CCGG che si trova a destra rispetto al sito metilato. Mente la banda A rimane. Quindi in un caso avrò tre bande, nell’altro ne avrò due. Questa metodica si applica anche allo studio dello stato di metilazione degli elementi ripetuti che si trova nel centromero. Anche in questo caso bisogna avere una probe specifica contro il target e vengono fatte digestioni in doppio con l’enzima che è in grado di tagliare e con quello che non taglia. Le zone ripetute sono altamente metilate metodica di sequenziamento che si usa. Non c’è il limite che la citosina in questione debba trovarsi nel sito riconosciuto dall’enzima di restrizione. Il limite è legato al trattamento con il bisolfito che è pesante e il DNA non è troppo stabile in ambiente acido. Un’altra metodica che prevede il trattamento con il Bisolfito seguita da PCR con primer normali è la COBRA perché dopo il trattamento con il Bisolfito e PCR c’è trattamento con un enzima di restrizione. Guardiamo solo la parte sinistra della slide e nella zona amplificata c’è un sito di riconoscimento di un enzima al cui interno c’è CpG e non stiamo usando un enzima sensibile alla metilazione, ma basiamo il tutto sul fatto che se la citosina non è metilata, il trattamento con il Bisolfito determina un cambiamento e il sito cambia. Se la citosina era metilata, dopo PCR il sito resta sempre quello ed è quello riconosciuto dall’enzima in questione e potrà essere riconosciuto e tagliato. Mentre se la citosina all’interno del sito non era metilata, con il bisolfito il sito cambia e quindi si ha perdita del sito di riconoscimento. Nel caso in cui è metilata, non avrò l’amplicone delle dimensioni attese, mentre se la citosina non era metilata, il sito viene perso e l’enzima non può più tagliare e avrò un amplificato le cui dimensioni sono definite dalla distanza fra i due oligo costruiti. Il limite è legato al fatto che dobbiamo avere enzimi che riconoscono il sito di restrizione in questione e le informazioni che ottengono sono limitate a residui specifici di citosine. Abbinata al trattamento sempre con il Bisolfito c’è un’altra metodica che si chiama Methylation Specific PCR e cioè ho sempre il trattamento con il Bisolfito che ha sempre lo stesso effetto e la citosina è diventata uracile e la PCR che segue non è una PCR dove si usano primer adiacenti normali alla citosina che pensiamo sia metilata, ma dei primer specifici per la metilazione. È un tipo particolare di PCR che usa delle reazioni distinte e usa dei primer specifici in grado di ibridare con DNA metilato o non metilato. Nel momento in cui si ritiene metilato, vuol dire che c’è citosina metilata che è rimasta dopo il trattamento con il bisolfito e il primer si appaierà alla citosina. Invece, nel caso in cui c’era citosina non metilata, essa è stata convertita dopo il trattamento con il Bisolfito in uracile e saranno dei primer in grado di appaiarsi all’uracile. È una PCR particolare che ci consente di ottenere informazioni sulle citosine metilate o no che cadranno nella regione riconosciuta dai primer. Avremo una reazione con i primer che si appaieranno con la U e un’altra reazione con i primer che si appaieranno alla C e poi le combinazioni con il senso e non senso che riconoscerà la U che si appaierà alla C e non senso e senso reciproci in modo da stabilire se si può avere due verdi e cioè due citosine non metilate alle estremità o due citosine metilate oppure una citosina non metilata a sinistra e l’altra metilata a destra. Quindi si fa trattamento con il bisolfito e reazioni di PCR con tutte le copie possibili dei primer e caricamento su gel d’Agarosio per vedere gli amplificati. Anche qui possiamo avere informazioni di siti sulle citosine metilate che non devono necessariamente trovarsi all’interno di un sito di restrizione. Altre metodiche abbinate al trattamento con il Bisolfito sempre a partire dall’estrazione del DNA genomico a cui segue una PCR Real Time. È basata sulla tipologia di Real Time che prevede l’uso della sonda con il fluoroforo e il quencher tipo TaqMan. In questo caso i primer sono normali e la sonda TaqMan che è specifica per la citosina metilata o no. Vediamo solo la parte alta e abbiamo due sonde TaqMan e una porterà CG e l’altra TG e nella stessa reazione è possibile usare queste due sonde con dei fluorofori che verranno eccitati alla stessa lunghezza d’onda, ma che emetteranno a lunghezze diverse e che quindi vediamo e quantizziamo la cinetica di amplificazione. Usiamo una sonda che mi dice se all’interno è presente un sito con la citosina metilata o no, ma possiamo giocare sulle combinazioni. Compatibilmente allo studio delle sequenze di annealing perché la TaqMan si deve annilare, possiamo avere anche sonde che riconoscano due citosine metilate oppure oltre alla sonda lavorare sui primer esterni e li possiamo costruire per poter amplificare frammenti che contengano le estremità con le citosine metilate o no. Un’ultima metodica di tipo Genome-Wide che è un’immunoprecipitazione del DNA metilato. Anche qui partiamo dal DNA genomico che va trattato con sonicatore per frammentarlo in modo casuale e con certe dimensioni e il DNA così trattato viene immuno- precipitato con anticorpi che riconoscono in modo specifico la metil-citosina. L’immuno-precipitato verrà poi ibridato su un chip. Il punto di partenza è il DNA che viene frammentato e viene denaturato e immuno- precipitato con anticorpo specifico e avremo un immuno-precipitato di DNA metilato che dobbiamo marcare con due cianine perché entrambi verranno messi sull’Array. L’Array può essere costituito da oligo lunghi 50 che sono rappresentativi di un numero elevato di promotori e lavorare come nel caso degli Array con le due cianine e arrivare a stabilire i Fold Change per vedere se sono presenti zone metilate dove ci sono i promotori. Resta il problema della marcatura con le due cianine che sono 3 e 5. Una metodica è la T-PCR e cioè la Target-Random Primers e quindi sia sull’input che sull’immuno- precipitato possiamo fare una PCR usando dei pool di primer che hanno queste caratteristiche: - Da 9 a 15 pb in 3’ delle sequenze che sono random, ma in realtà sono tutte le possibili combinazioni usando 9 o 15 nucleotidi di 4 pb e in 5’ hanno 17 pb che sono costanti e sono degli adattatori. Quindi i primi cicli di astringenza sono bassi in modo da permettere che la parte in 3 si annili in modo specifico ai target e poi si aumenterà la temperatura di anniling. Quindi tutte le parti in 3’ si annileranno a quasi tutti i frammenti e questo permette di amplificarli e far sì che si arrivi dopo i primi cicli ad una famiglia di frammenti che hanno tutte le estremità uguali e se inseriamo primer specifici per queste estremità e inseriamo cianina 3 e 5 nelle due PCR ottengo input marcato e immuno-precipitato marcato che posso immuno-precipitare.