Anda di halaman 1dari 75

10-10

I metodi biochimici non sono utilizzati solo in campo biochimico, ma anche nei laboratori di analisi forensi,
ambientali e in campo industriale

Il grosso dibattito biologico è se effettuare studi in vivo o in vitro: studi in vivo sono fatti su animali interi
(come i topi) e hanno una visione più complessiva.
La complessità dei vari sistemi è comunque uno svantaggio perché bisogna contare le variabili che sono
messe in gioco, non sempre controllabili. Inoltre, non c’è una garanzia che gli animali siano un buon
modello per studiare la fisiologia umana, perché non hanno gli stessi sistemi e non è facile trasferire i dati.
Ci sono comunque anche dei problemi di costi.
Gli studi in vitro invece si riferiscono a cellule isolate; in realtà le cellule eucariotiche per essere in vitro
dovrebbero trovarsi in un ambiente diverso dal loro, cioè trovarsi in coltura, ma il comportamento deve
essere lo stesso.
Queste definizioni sono un po’ border-line: le cellule a volte vengono inserite e tolte dalla coltura, lo studio
viene allora definito ex vivo.
Se studio ad esempio un batterio, anche se in coltura, sarebbe uno studio in vivo perché il batterio è vivo.
Lo svantaggio degli studi in vitro è che non siamo convinti che i sistemi si comportino allo stesso modo e
dobbiamo gestire la complessità delle proteine, in un sistema isolato.

L’uso di proteine ed enzimi isolati ci permette di capire componenti fondamentali di cellule per come
funzionano; le proteine sono poi dei marker prognostici e diagnostici: la presenza di alcune proteine rileva
delle disfunzionalità, ma possono anche essere dei target per la cura.
Le proteine sono poi dei tool analitici, ma hanno però il problema di essere instabili, per questo molti studi
avvengono a -4°C.

Quali sono i materiali di partenza? Partiamo da materiale biologico che trattiamo per ricavare le proteine
che ci interessano, nella forma che ci interessa.
Partiamo da tessuti animali primari, ma molto più spesso tessuti e organi in coltura o cellule; cellule
vegetali, da cui però estraiamo principi non proteici, utili in farmacologia o cellule microbiche, dove le
proteine possono essere identificate, creare dei vaccini, identificare legami tra due proteine oppure
possono essere usate come fabbrica cellulare per produrre altre proteine.

Dobbiamo considerare le condizioni ottimali per riprodurre in vitro e salvaguardare le proprietà di


interesse, siccome gli ambienti intracellulare ed extracellulare sono molto diversi.
Uno di questi parametri chiave è l’osmolarità: all’interno della cellula c’è una concentrazione di soluti,
neutri o carichi, notevole che è importante per mantenere un certo tipo di ambiente. È importante ad
esempio nella lisi cellulare, cioè quando rompiamo la struttura della cellula per isolare le componenti, ed è
importante se hanno una membrana cellulare, come gli organelli (mitocondri o cloroplasti).
Va mantenuto l’ambiente isotonico per evitare interferenze.
Un altro parametro da tenere in considerazione è la viscosità: è importante per i danni dovuti agli sbalzi
termici; viene definita sperimentalmente ed evita i danni dovuti al congelamento.
Forza ionica e pH: forza ionica influisce la solubilità delle proteine; il pH, e la regolazione attraverso i sistemi
tampone, è intrecciato con la forza ionica, che influisce sulle cariche superficiali delle proteine.
Amminoacidi con carica negativa: acido glutammico e acido aspartico (a pH 7); altri amminoacidi che
possono avere carica negativa a pH più alti: tirosina (con pKa 10) e la cisteina (pKa circa 8.3).
Amminoacidi positivi: istidina, lisina e asparagina.
Le proteine sono ioni, quindi interagiscono con altre molecole e altri componenti cellulari tramite
interazioni elettrostatiche; la forza ionica va ad influire sull’energia di dissociazione e agisce sull’interazione
elettrostatica che può stabilizzare o destabilizzare la molecola.
Il pH regola la catalisi e la stabilità delle proteine; molte volte il pH è neutro anche se ci sono delle eccezioni
perché alcuni enzimi operano a pH acidi, come nello stomaco.
Alcuni enzimi, presi da organismi eterofili, sono acidofili o basofili, quindi operano a pH molto lontani dalla
neutralità; anche se il pH non è neutro, comunque, l’intervallo di operazione è molto limitato, perché deve
essere compatibile con l’intervallo di stabilità della proteina.
Quando devo riprodurre il sistema di funzionamento di una proteina in una matrice extracellulare devo
avere un sistema tampone, perché anche una bassa differenza di concentrazione o di pH, ha enormi
cambiamenti. Tutto in campo biologico avviene in soluzioni tampone.
Si definisce capacità tamponante la quantità di base forte necessaria ad aumentare di 1 il pH. Quindi
maggiore la quantità di base che dobbiamo aggiungere, maggiore è la capacità tamponante.
Tampone: acido debole + sale di una base forte oppure con un acido forte + sale di una base debole.

La capacità tamponante dipende dalla concentrazione


delle specie che tamponano; la concentrazione dei
buffer rientra normalmente nel range 50-200 mM, a
volte si scende a 20 mM: la concentrazione non può
essere più alta per la forza ionica: se è troppo
concentrato ho una forza ionica eccessiva che
destabilizza la cellula.

La capacità tamponante è massima quando il pH


coincide con pKa; inoltre il buffer è usato nel range
pH= pKa ± 1 per via dell’equazione di Henderson-
Hasselbach:

Il pH in soluzione è collegato con la dissociazione; pH=pKa quando le concentrazioni sono uguali: per questo
ho il massimo del potere tamponante perché ho uguali chances di avere un abbassamento o un
innalzamento del pH.
L’intervallo utile è pH= pKa ± 1: ho pH= pKa + 1 quando ho uno sbilanciamento di dieci volte, quindi
l’equilibrio si sposta. Se avessi 2 unità in più o in meno, il rapporto sarebbe 100, e non avrei abbastanza
specie che possono controbilanciare questo sbilanciamento.
Se devo verificare il funzionamento di una proteina in un intervallo di pH ad esempio tra 3 e 8, non utilizzo
lo stesso sistema tampone, ma sistemi che contengono più equilibri ionici per avere così un sistema
omogeneo.
Altri tipi di tampone entrati in gioco negli anni 60: “Good’s buffer”, che includono molecole anche
aromatiche, hanno bassa assorbanza, bassa forza ionica, ottima capacità tamponante e stabilizzanti per
l’equilibrio redox. Sono molecole simili tra di loro, hanno pKa che non scendono sotto 5.5 (non vanno per
pH troppo bassi), ma la forza ionica intrinseca è bassa, quindi si può regolare la forza ionica affinché sia
omogenea aggiungendo dei Sali.
Buffer calculators: servono per calcolare la forza ionica e la ricetta.

Caratteristiche quindi richieste per un sistema buffer:


1. Buona capacità tamponante (stabile anche nel tempo)
2. Alta purezza
3. Stabile all’idrolisi enzimatica e chimica
4. Non deve essere influenzato dalla temperatura e dai sali
5. Non deve essere tossico o danneggiare le macromolecole biologiche
6. Non deve assorbire nel UV/VIS (perché usiamo metodi spettroscopici) .

17-10

Nelle proteine la presenza di amminoacidi che sono acidi e basi deboli può influire sulle soluzioni di
tampone.
Un altro parametro da tenere in conto negli esperimenti in vitro è il potenziale redox: nelle produzioni
sperimentali, dividiamo la cellula e liberiamo le componenti intracellulari in un ambiente ossigenato , e
quindi portiamo dei componenti che erano in un ambiente compartimentato riducente (amminoacidi ed
equivalenti di riduzione, dovuti ad esempio all’attività cellulare e all’accumulo di NAD ridotto).
Quando avviene la lisi, le proteine nelle cellule sono quindi esposte ad un ambiente più ossidante e questo
può danneggiarle: alcuni gruppi delle proteine sono sensibili all’ossidazione; può alterare l’equilibrio redox
che avviene all’interno ed è quello che avviene ai gruppi sulfidrilici (che sono ridotti): attraverso
un’esposizione possono essere ossidati e, se c’è la geometria, formano dei ponti disolfuro. Un altro caso
sono i derivati ossidati: esistono degli acidi sulfenici, dei derivati della cisteina, che vengono ossidati e
cambiano la conformazione della proteina stessa, impedendo l’attività della proteina.
Le proteine extracellulari, che normalmente sono esocitate, hanno numerosi ponti di solfuro, che possono
stabilizzarle, perché sono favoriti dal fatto che l’ambiente esterno è più ossidato.
Se non si vuole danneggiare il contenuto proteico, si possono utilizzare degli scavenger, che funzionano da
antiossidanti, ossidandosi loro stessi: si usa il β-mercaptoetanolo, il ditiotreitolo e il tioglicolato.
Le concentrazioni non sono eccessive perché non promuovano eccessiva riduzione dei ponti disolfuro.
In alcuni casi il β-mercaptoetanolo è usato in eccesso per ridurre tutti i ponti disolfuri ed è il caso
dell’elettroforesi.
Un altro importante parametro in vitro è la proteolisi: quando si ha la lisi della cellula e sono liberate le
proteasi intracellulari si possono danneggiare le proteine all’interno: ciò non avviene normalmente nella
cellula integra o nella cellula conservata per congelamento. Nel momento in cui la lisiamo, tutti i
componenti vengono liberati; queste proteasi possono danneggiare il campione perché sono molto attive
quindi un lisato cellulare non è stoccabile nemmeno a temperature molto basse. Le fasi di congelamento e
scongelamento possono danneggiare notevolmente le componenti intracellulari.
Per evitare questi danni, si cerca di operare a basse temperature (si lavora in ghiaccio, quindi a -4 °C) e si
aggiungono degli inibitori delle proteasi, che sono dei cocktail di diverse molecole, visto che le proteasi
sono molto diverse (acido aspartico, metallo proteasi).
Inibitori aggiunti: Pepstatina, Leupeptina, PMSF, fenantrolina; possono essere aggiunti a dei chelanti dei
metalli per inibire le metallo proteasi.
Gli inibitori però hanno un effetto temporaneo quindi bisogna procedere agli step successivi o per
inattivazione delle proteasi o per purificazione del campione.
Le proteasi si trovano all’interno della cellula.
Uso delle soluzioni tampone e delle loro concentrazioni deve essere adeguato.
Si evita la proteolisi tenendo la temperatura il più basso possibile.
Alcune proteine sono invece sensibili alla denaturazione termica: la proteina P53 deve essere funzionale
perché aiuta la cellula a non andare incontro ad una degenerazione neoplastica. Ha delle varianti con
stabilità termica inferiore a 37°C.

METODI DI LISI

Tecniche di base ma funzionali per le proteine.


Le tecniche esaminate sono tecniche preparative finalizzate ad
estrarre una certa quantità di campione per poi fare delle
analisi complete; si può anche estrarre una certa quantità di
campione per effettuare delle tecniche analitiche.
Cromatografia di gel-filtrazione si basa sulla taglia e sulle
dimensioni delle proteine e delle molecole target.
Alcune tecniche, come la cromatografia, sono preparative ed
analitiche perché ci danno informazioni sul peso molecolare delle proteine.
Le tecniche preparative sono applicabili alla purificazione di proteine da varie fonti, cioè animali, piante,
batteri e lieviti. L’estrazione da tessuti animali è rilevante nell’ambito clinico; le piante servono per proteine
di interesse; batteri, lieviti e cellule eucariotiche in condizioni non naturali, cioè colture, possono essere
fonte di proteine eterologhe, cioè molti strumenti sono utilizzati per produrre proteine che non sono
intrinsecamente prodotte dall’organismo.
Le prime proteine studiate furono le proteine da capodoglio perché erano presenti in grandi quantità.
Le proteine prodotte dai batteri ad esempio e poi esocitate sono più facili da studiare e purificare perché si
trovano in un medium meno complesso di quello intracellulare; inoltre i batteri sono più facili da crescere.
Le proteine intracellulari invece hanno bisogno di una lisi cellulare; quelle associate alle membrane sono
più complicate perché possono essere olointegrali o periferiche e quindi sono associate strettamente al
doppio strato lipidico o ad una delle due facce, e in modo più blando. Quelle associate alle membrane dei
vegetali sono ancora più complicate perché è presente la parete cellulare e le membrane vegetali sono
intrinsecamente più complesse.

Si parte quindi da tessuti multicellulari o monocellulari, il


preparato deve presentare cellule singole: per gli organismi
multicellulari si passa ad una omogeneizzazione di organi e
tessuti per avere le cellule e poi si procede alla lisi della
parete o della membrana.
L’omogeneizzazione di organi e tessuti a volte non porta
alle cellule, ma direttamente alla lisi perché è difficile
fermarsi per via della drasticità del trattamento.
Omogeneizzazione può avvenire su tessuti o organi più o
meno resistenti, e poi si passa alle fasi successive del
trattamento, cioè al frazionamento. Ci sono molti metodi di
omogeneizzazione: alcuni sono basati su un approccio
meccanico, in cui si usa pestello e mortaio ed è una tecnica
utilizzata sui tessuti vegetali, previo congelamento in azoto
liquido; ci sono poi i sistemi di omogeneizzazione di Potter o
Dounce; esistono dei veri e propri frullatori (Polytron) ed
infine esistono dei metodi chiamati Mickle cell with glass
beads, in cui sfere di vetro o metallo possono avere un
effetto di distruzione del tessuto per agitazione.
Il problema maggiore è la temperatura: essendo un processo meccanico si ha innalzamento di temperatura;
fa eccezione il metodo con il pestello e mortaio, in cui il congelamento con azoto liquido garantisce una
temperatura molto bassa. Tutti gli altri metodi devono avere una temperatura controllata, quindi essere
effettuati in ghiaccio o, meglio ancora, alcoli e sali per abbassare ulteriormente la temperatura.
Omogeneizzazione può avvenire:
- in soluzione, con possibili agenti chimici che facilitano la lisi,
- per azione meccanica (polverizzazione),
- si possono usare enzimi che digeriscono la matrice del tessuto: l’indebolimento della matrice
extracellulare consente la distruzione e l’isolamento delle cellule,
- tramite congelamento, in condizioni più o meno controllate.

Gli omogeneizzatori Potter sono fatti da un pestello in teflon e un contenitore in vetro; i Dounce hanno
pestello e contenitore in vetro, ma il pestello ha una porzione in vetro smerigliato che aumenta le
proprietà.
Questo viene applicato per cercare di distruggere maggiormente i tessuti.

Nelle colture invece di batteri o cellule eucariotiche, cresciute in coltura, l’omogeneizzazione non è richiesta
e si parte da grosse quantità che possono essere allestite su larga scala e possono essere cresciute a pH e
temperatura controllati, in presenza controllata o in assenza di ossigeno e con dei nutrienti controllati.
Fonti di proteine: colture cellulari, cellule di lievito o batteriche (es. Escherichia coli).
Le colture eucariotiche sono allestite su scala maggiore, mentre quelle batteriche si possono allestire in
beuta o in fermentatori.
I fermentatori possono essere su larga o piccola scala; sono dei competitori che sono controllati tramite
sonde, c’è un sistema di agitazione e uno starter e permettono in condizioni di aerobiosi, microaerofilia o
anaerobiosi di controllare la crescita degli organismi (le vere fermentazioni sono in microaerofilia).
Ci possono essere diversi tipi di approcci di set up; i fermentatori sono chiamati anche bioreattori perché
non sempre i processi biologici sono delle vere fermentazioni, ad esempio l’insulina prodotta ora
artificialmente viene prodotta da dei batteri non tramite fermentazione, ma tramite una crescita nei terreni
di coltura, in condizioni controllate.
Tipi di set up:
- fermentatori batch sono i più semplici ed è ciò che avverrebbe in una beuta di coltura ma in dimensioni
maggiori. Le beute sono utilizzate in laboratorio per far crescere dei batteri e dei lieviti in agitazione in un
terreno con dei nutrienti che vengono prodotti finché la cellula non li consuma tutti. Dopo essere cresciuta
in modo esponenziale, di numero, va nella fase finale, detta stazionaria.
Nei reattori batch avviene la stessa cosa, con un volume maggiore, in condizioni controllate, e raccolgo
tutto ciò che viene prodotto.
- fermentatori fed batch sono quelli in cui, per motivi di aumento della resa, voglio aggiungere dei nutrienti
in modo tale che, quando sono esauriti quelli iniziali, i batteri o i lieviti possano ricominciare a crescere.
Posso eliminare parte del volume, quindi posso aggiungere o recuperare parte del volume per mantenerlo
statico; molto spesso nei fed batch si aggiunge ma non si toglie. Alla fine di questi cicli di batch, prolungati
nel tempo, si svuota.
Fed vuol dire proprio che aggiungo dei nutrienti; in alcuni casi sono necessari dei nutrienti o del materiale
per far crescere il lievito o il batterio perché inizialmente la concentrazione, che poi si raggiunge in fase
finale, è eccessiva. Questo vale anche se abbiamo come nutriente un materiale che successivamente in
alcune concentrazioni risulta tossico per la cellula. Facciamo quindi dei cicli per far crescere la cellula in cui
continuiamo a somministrare dei nutrienti.
- reattori in continuo sono dei reattori in cui si è raggiunto l’equilibrio, si aggiungono dei nutrienti e si
estrae una parte del terreno di crescita in cui saranno contenute cellule già cresciute e dei prodotti di
queste cellule; il sistema si mantiene per lungo periodo.
Definiamo tempo di ritenzione idraulica (HRT= Hydraulic Retention Time) il tempo di ricircolo completo dei
fluidi nel reattore.

Si usano principalmente i reattori batch e fed batch nel campo delle proteine; quelli continui sono utilizzati
quando le cellule sono reattori cellulari (self-factory) in cui la cellula produce qualcos’altro che poi è
ricavato nel fluido in uscita e poi è trattato.

LISI CELLULARE: nel momento in cui non trattiamo proteine extracellulari, che sono più facili da raccogliere
nel brodo di coltura, ma vogliamo recuperare proteine che sono all’interno della cellula o di un organismo,
dobbiamo lisare l’organismo per ricavarla.
Questa lisi avviene per cellule con parete cellulare; il problema principale è la distruzione tramite
omogeneizzazione dei tessuti, in temperatura controllata.
Le cellule con parete cellulare, oltre che membrana, sono le cellule batteriche, i lieviti e i funghi, e le cellule
vegetali; le cellule animali hanno solo la membrana. La parete è una protezione per gli shock osmotici in cui
la concentrazione dei soluti è diversa da quella intracellulare.
Le cellule eucariotiche non hanno una parete e si possono trovare in una soluzione iposmotica (globuli
rossi): siccome la membrana plasmatica è semipermeabile e la concentrazione dei soluti è molto più alta
all’interno della cellula, si tende a ristabilire un equilibrio; l’acqua entra attraverso la membrana
semipermeabile costituita dal bilayer e tenta di diluire i soluti all’interno della cellula, che quindi si gonfia e
scoppia  effetto dell’emolisi e concetto di ghost, cioè le cellule vuote che sono esplose.
I batteri, i lieviti e le cellule delle piante hanno una parete che protegge da questi shock: nelle cellule delle
piante questo è il motivo per cui si osserva un’espansione notevole, fornendo solo acqua. Le cellule non
scoppiano perché la parete è costituita da cellulosa e polisaccaridi.
I lieviti e i funghi hanno una parete polisaccaridica, fatta da chitina, un polisaccaride reticolato.

Metodi per lisare questi tipi di cellule sono soprattutto di tipo meccanico, perché quelli enzimatici sono
ristretti al laboratorio.

È una scala quantitativa, 1 indica forte resistenza, 7 è la scala massima, quindi la facilità ad essere lisata. Le
cellule animali sono le più facili ad essere lisate perché appunto non hanno una parete.
Le tre classi sono agitazione, sonicazione ed estrusione liquida:
- la sonicazione sfrutta dei sonicatori che emettono degli ultrasuoni, nella frequenza intorno 20-50 kHz, che
promuovono delle contrazioni e decontrazioni nella cellula che formano delle microcavitazioni nella cellula
e promuovono la rottura della cellula;
- l’agitazione è una variazione del metodo microcell: l’agitazione meccanica avviene tramite sfere di
dimensioni compatibili con le cellule da lisare;
- l’estrusione liquida (french press, dip press, huge press) consiste in cellette a pressione in cui il materiale
congelato è sottoposto a una pressione che promuove lo scongelamento e si promuove l’estrusione
attraverso una valvola a spillo; il materiale è raccolto in un altro contenitore: si ha quindi un contenitore
superiore e uno inferiore, collegati tramite una valvola, che dà estrusione e poi una rapida espansione.
Essendo in condizioni di temperatura bassa, si ha congelamento-scongelamento-ricongelamento, nel
momento in cui il materiale si espande, si congela.
Questo metodo promuove congelamento-scongelamento che promuove espansione ed estrusione e quindi
favorisce la lisi della cellula.
Le cellule delle piante sono suscettibili ai tre metodi elencati, se hanno dimensioni considerevoli
(dimensioni cellule eucariotiche: 20-100 micron, batteriche: 1 micron, lievito: 3-4 micron).
Ciò che si osserva nei batteri Gram-negativi (come l’Escherichia coli) è che sono suscettibili alla sonicazione,
l’estrusione liquida dà un buon output, l’agitazione non è molto efficiente.
I Gram-positivi hanno pareti più resistenti, sono quindi meno suscettibili, sono dei bacilli, di forma a
bastoncino, o cocchi, di forma sferica, e sono minori in dimensioni: la sfera influisce quindi sul metodo.
Lieviti sono l’unico caso in cui l’estrusione liquida è più efficace, mentre l’agitazione e la sonicazione sono
blande.
Le spore sono forme resistenti: stesso trend, agitazione inefficace.
Miceli, responsabili della crescita filamentosa dei funghi, sono suscettibili ad agitazione perché hanno una
struttura estesa in una delle dimensioni, sono allungati, quindi urto con sfere è più efficace rispetto all’urto
di un coccio o un bastoncello. Per via delle loro dimensioni, sono quindi suscettibili a lisi meccanica.

Le temperature sono basse; su scala di laboratorio si hanno metodi enzimatici e metodi basati sui
detergenti.

 I metodi enzimatici di trattamento delle cellule isolate utilizzano un enzima per eliminare la parete
cellulare e formare un protoplasto, cioè una cellula con le stesse caratteristiche di una cellula con
parete ma si trova senza parete, solo con la membrana, quindi nelle stesse condizioni di una cellula
eucariotica animale.
Enzimi da utilizzare dipendono dalla parete: cellulasi per le cellule vegetali, glucarasi o zimolasi per
le cellule di lievito, lisozima (albume d’uovo, saliva, lacrime) è un antibatterico naturale, è facile da
ottenere ed è una proteina molto robusta. Le cellulasi sono ora facilmente commercializzabili;
indebolendo la parete questi metodi possono essere usati come coadiuvanti per i metodi
meccanici.
Gli svantaggi dei metodi enzimatici sono: vasta riproducibilità, la poca applicabilità su larga scala e
costo.

 I metodi meccanici dei detergenti vengono usati in concomitanza con gli enzimatici: alcuni
detergenti sono in grado di penetrare attraverso la parete e destabilizzare la struttura della
membrana.
Si usano normalmente due tipi di detergenti; si preferisce non usare gli ionici, in particolare l’SDS,
perché va ad alterare la struttura della membrana e va a denaturare la proteina, mentre noi
dobbiamo recuperare le proteine non denaturate. Spesso si usano i non-ionici o gli zwitterionici
(Chaps e Triton).
Il Triton è molto utilizzato per la lisi di cellule batteriche che producono un enzima che non deve
essere esposto all’ossigeno; si usano quindi metodi meccanici.

 Metodi beads: nel macchinario viene montata una celletta contenente il materiale e delle sfere di
metallo o più spesso di vetro e si ha un’agitazione controllata. Lo strumento andrebbe messo in
camera fredda per evitare eccessivo riscaldamento; materiale congelato in ghiaccio secco.

 Sonicatori presenti in molti laboratori; si trovano soprattutto i bagnetti a sonicazione che non
vanno bene per le cellule perché promuovono agitazione nel liquido e quello che c’è dentro viene
solo pulito sulla superficie grazie agli ultrasuoni. Nel nostro caso abbiamo bisogno di una sonda, che
può avere una sezione più o meno grande, che viene immersa nella sospensione cellulare da lisare.
Si usa una cameretta per evitare danni sonori.
La sospensione è sottoposta a più cicli di impulsi con frequenza 20-50 kHz e la potenza è modulata
da un controller. I cicli sono di tempo limitato così si evita il surriscaldamento.
Sensibilità non è prevedibile perché dipende dalla struttura e dalle microcavitazioni; a volte si
liberano radicali liberi perché le proteine non sono stabili alla sonicazione.
Si può anche usare su scala maggiore e a volte è alternativa alla catalisi. Si possono usare piccole
quantità di materiali.
 Sistemi di “cell bomb” sono sistemi chimici in compressione-decompressione; campioni sottoposti
fino a 25000 psi. Compressione-decompressione favorisce anche la lisi di proteine stabili in fase
stazionaria.

Altri metodi meccanici: Rotor-stator Processors


Valve-type processors
Fixed-geometry fluid processors.
I più diffusi sono i valve-type; metodi facilmente applicabili su scala industriale. Siamo di nuovo intorno ai
25000 psi (210 MPa). Nelle aziende vengono usati per produrre proteine.

CENTRIFUGAZIONE: è lo step successivo nella separazione delle componenti cellulari; velocizza il


processo di sedimentazione. La centrifuga più semplice è la centrifuga da bancone refrigerata, che ospita i
tubi da 50-100 mL (tubi falcon).
Le centrifughe servono per separare la componente cellulare da quella del terreno (usate anche in ospedale
per separare il plasma dal sangue).
Parliamo di RPM (rotazioni per minuto) o g (o RCF=relative centrifugal force), dove g è l’accelerazione
terrestre: è più corretto usare g perché è universale. L’accelerazione in RPM dipende dalla centrifuga: raggi
diversi danno rotazioni diverse.
RCF: unità di misura in g.
Le centrifughe da bancone arrivano a circa 3000g (dipende dalla geometria).
Centrifugazioni ci consentono di separare le particelle in base alla dimensione in un tempo ragionevole; la
velocità di sedimentazione dipende dalla velocità di rotazione.
Viene definito un coefficiente di sedimentazione, s, che assume valori tra 1 e 200 x 10-13 secondi. Si
definisce come unità Svedberg (S) un coefficiente di sedimentazione di 10-13 secondi. Più è piccolo s e più la
sedimentazione è lenta.

È una scala logaritmica!


Proteine stanno nei primi 10 Svedberg; siccome
le proteine sono molto piccole non possiamo
frazionarle una con l’altra con la
centrifugazione; volendo separare le proteine
da altre componenti cellulari dobbiamo operare
a centrifugazioni differenti.
Con la centrifuga da bancone posso separare le
cellule batteriche (dimensioni di un
mitocondrio) dal terreno in circa 10 minuti a
3000g, oppure posso cercare di separare in
parte delle frazioni cellulari (mitocondri o altre
particelle) e con 12000g delle microcentrifughe
posso separare i detriti cellulari, cioè delle
cellule rotte dalla frazione citosolica.
Le proteine non riusciamo a sedimentarle con
tempi decenti, quindi ciò che è nella parte
arancione non è sedimentato ma resta in
sospensione.

Si centrifuga e sedimenta ciò che ha una differenza nella regione tra 10 e 1000 Svedberg; in particolare ci
interessano i microsomi: quando si lisa una cellula, la frazione citosolica si libera ed è la frazione solubile,
che non sedimenta, a meno che non ci siano componenti cellulari proteiche molto grandi. I microsomi
sono la frazione di membrana cellulare, che essendosi frammentata, può richiudersi su se stessa e
formare micelle più piccole a doppio strato in cui risultano proteine di membrana intrappolate.
Siccome le proteine di citosol hanno soluzioni diverse rispetto alle proteine di membrana, può essere utile
separarle. La centrifugazione che arriva a 12000 g non è in grado in poco tempo di separare le proteine di
membrana da quelle citosoliche; è necessario andare ad accelerazioni più elevate ed usare le
ultracentrifughe.
Le ultracentrifughe sono state usate anche per determinare la dimensione delle proteine; permette di
separare le componenti microcellulari perché arriva fino a 600 mila g.
Si separa la parte delle proteine di membrana dalla parte citosolica: questo è importante perché si ha
frazionamento delle componenti e quindi posso eliminare tutti gli scarti associati alla membrana e il
sedimento. È importante anche nella proteomica in cui sono interessata ad un solo proteoma.
C’è un interesse anche nello studio di patologie in cui si ha riciclo dei recettori di membrana che
subiscono uno scompenso: sulla superficie ce ne sono troppi o troppo pochi.
L’ultracentrifugazione può essere effettuata in modalità zonale: dipende dalla velocità di sedimentazione
e dal frazionamento; misuro forando il tubo, raccolgo il frazionamento a deposizione rapida da quella
lenta. Ora si separa di più il pellet dalla soluzione surnatante.
Nella centrifugazione in gradiente di densità all’equilibrio (o isopicnica), invece, il materiale forma un
gradiente di densità (saccarosio o cloruro di cesio per purificare grosse quantità di acidi nucleici): la
separazione avviene finché la particella non si trova in uno strato di densità pari alla sua densità.
Sedimentazione specifica è utile a separare mitocondri o altri organelli cellulari.
Le utracentrifughe sono macchine più complicate perché hanno una camera a vuoto per evitare l’attrito;
le condizioni sono controllate, e ci sono dei rotori ad angolo fisso o swing.
La velocità di sedimentazione è correlata al peso molecolare, quindi s dipende dal peso; approccio
analitico è stato ormai abbandonato e si usano spettrometrie di massa o SDS-PAGE.

20-10

Isolate le proteine di membrane, che ora si trovano in questo pellet di centrifugazione, associato alla
parte microsomiale, dobbiamo scegliere come estrarle dal contesto cellulare ed eventualmente
purificarle.

PURIFICAZIONE PER SOLUBILIZZAZIONE: se vogliamo sintetizzare rompendo le interazioni delle proteine


con il doppio strato lipidico, dobbiamo lavorare in condizioni molto drastiche: le proteine di membrana
sono però stabilizzate dai fosfolipidi di membrana e quindi se interrompiamo le interazioni con la parte
idrofobica, ne alteriamo la struttura. Il trattamento drastico può essere fatto ad alta osmolarità ed alta
forza ionica: si fa una precipitazione con grosse quantità di un sale, che però ha un effetto denaturante
(esempio: sali di calcio, concentrazioni molto alte) e si ottiene un precipitato dove la proteina ha perso la
sua struttura secondaria/terziaria/quaternaria ma ha mantenuto quella primaria. Studi sono non dinamici,
non funzionali e non strutturali ma sono possibili studi sulla natura della proteina, perché sono
informazioni ricavabili dalla struttura primaria.
È possibile studiare i cofattori se sono legati in modo covalente: se non lo fossero, essendo la struttura
ripiegata su se stessa, quando viene a mancare, il metallo o la proteina legata si perde.
È uno studio limitato.

PURIFICAZIONE PER ESTRAZIONE: se invece vogliamo mantenere le proprietà possiamo estrarle.


Solubilizzazione e estrazione sono due concetti diversi: in un caso si interrompono le stabilizzazioni con la
membrana, ed è un effetto denaturante, mentre nell’altro caso possiamo estrarre dalla membrana
plasmatica in modo da ricostruire l’ambiente lipofilico, sostituendo alla membrana delle molecole di
detergenti.
Detergenti possono essere di tipo ionico (DOC(desossicolatoNa), SDS(dodecilsolfatoNa)) o di tipo non-
ionico (POLIOSSIETILENETERE; TRITON; TWEEN80; LUBROLWX; C12E8) e zwitterionici.
I detergenti non-ionici sono meno drastici nell’estrazione (le caratteristiche dipendono dalla
concentrazione micellare critica, dalla struttura…).
I fosfolipidi possono stabilizzare proteine di membrana o proteine periferiche: i DETERGENTI IONICI
interagiscono con il core idrofobico e rischiano di rompere le strutture tridimensionali delle proteine;
quelli NON IONICI, soprattutto esteri ed eteri, che hanno strutture somiglianti ai fosfolipidi, ripristinano
una situazione che assomiglia al doppio strato lipidico, formando micelle a singolo o doppio strato (i
cosiddetti liposomi) che rispecchiano abbastanza bene l’ambiente all’interno della membrana.
Necessitano una piccola quantità di detergente associato.
È possibile quindi ripristinare e stabilizzare le proteine di membrana e studiarle dal punto di vista
funzionale.
Il detergente associato alla proteina è difficilmente rimosso, ma se lo è, destabilizza la proteina.
I detergenti a volte interferiscono con le misure analitiche.

Prima centrifugazione a bassa velocità serve per separare le


cellule dal surnatante, in cui possono essere presenti delle
proteine di interesse (enzimi o proteine extracellulari) oppure,
se abbiamo solo proteine endoplasmatiche, passiamo alla lisi,
una seconda centrifugazione ad alta velocità
(ultracentrifugazione) dove nel sedimento troviamo le
proteine di membrana e nell’estratto citosolico gli enzimi. Le
proteine di membrana sono poi trattate con i detergenti e
troviamo dei campioni abbastanza omogenei.
Esempio: coltura di batteri in un grosso fermentatore, dove la
proteina di interessa viene esocitata dalla cellula: la proteina si
trova quindi in un volume di surnatante molto grande.
Le proteine extracellulari hanno la facilità di purificazione
perché meno contaminate di quelle intracellulari, ma sono
diluite in un volume molto grande, difficile da trattare in
laboratorio: c’è quindi l’esigenza di concentrarle. Le proteine
citosoliche spesso non hanno questo problema, mentre quelle
di membrana hanno i detergenti e sono spesso confinate in un
ambiente più piccolo.

Quindi è necessario mantenere le proteine nella loro forma funzionale, usare dei volumi trattabili in
laboratorio ed eliminare i contaminanti.

Prima della purificazione, è possibile fare qualche passaggio per le proteine extracellulari: concentrazione
tramite filtrazione o precipitazione, che concentrerà le proteine, mantenendone la funzionalità.
Per le proteine intracellulari c’è uno step di chiarificazione, cioè di eliminazione delle proteine di
membrana o citosoliche, e si può procedere con dei metodi di precipitazione, per prepurificare la
proteina; poi si procede con le tecniche cromatografiche.

Nella PURIFICAZIONE PER PRECIPITAZIONE si promuove la formazione di aggregati di dimensioni


sufficienti a formare strutture che poi sono precipitabili con l’ultracentrifugazione (le dimensioni devono
essere infatti sufficienti per essere precipitate). Questi aggregati possono formarsi per interazioni
idrofobiche (gruppi aminoacidi superficiali) o tramite aggregazioni che permettono interazioni
elettrostatiche, annullando le repulsioni di carica che si possono formare.
Bisogna avere reversibilità, cioè vogliamo che le proteine precipitate siano risolubilizzate senza perdita del
campione. Strategie possibili: precipitazione con solventi organici miscibili in acqua (hanno quindi ε
minore) che possono promuovere l’aggregazione perché favoriscono le interazioni idrofobiche. Il rischio è
che l’esposizione ai solventi sia eccessiva e che quindi anche il core idrofobico possa essere stabilizzato
nella soluzione in cui si trova, ormai non più acquosa; alcune proteine possono essere stabilizzate aprendo
la propria struttura ed esponendo il core idrofobico. È una cosa che vogliamo evitare perché le proteine
rischiano se no di essere denaturate, almeno parzialmente.
Spesso questi metodi si usano per far precipitare in modo differenziale le proteine che sono più o meno
tolleranti a questi solventi. I trattamenti con solventi non rendono più aggregabili le proteine di
membrana perché non cambia la loro natura: non precipitano infatti più facilmente.
Le proteine più grandi precipitano a concentrazioni minore; quelle idrofobiche (quindi quelle di
membrana) non precipitano perché non risentono di questo trattamento, non cambiando le loro
proprietà di solvatazione.
Le basse concentrazioni di solvente e le basse temperature servono per evitare maggiormente la
denaturazione.

Molto più usata è invece la precipitazione salina: all’aumentare della forza ionica la proteina può essere
più o meno solubile, secondo l’equazione di Cohn:

All’aumentare quindi della forza ionica, il secondo fattore con il


segno meno pesa nel diminuire la solubilità.
Di solito, il comportamento delle proteine in soluzioni è
definito da una curva: all’aumentare della forza ionica,
solitamente si ha un andamento iniziale per cui in assenza
totale di Sali, la proteina non è così solubile in acqua perché
mancano i controioni che permettono di controbilanciare le
cariche della proteina.
Prima regione detta di “salting-in”, in cui aumenta la solubilità;
dopodiché per effetto dell’equazione e aumentando la
concentrazione salina, cominciano a competere i Sali con l’acqua di idratazione della proteina e la
sottraggono (si favoriscono le interazioni idrofobiche in una regione in cui le molecole di acqua sono
molto organizzate: acqua ritorna ad essere acqua di bulk, cioè scambiabile, per via dei ∆H e ∆S). Inoltre,
un’alta concentrazione della proteina va a mascherare gli effetti di repulsione di carica e permette
l’aggregazione più facilmente, perché la repulsione elettrostatica è minore: si ha la regione di “salting-
out”, in cui quindi, ad una certa concentrazione, diminuisce la solubilità.
Le caratteristiche della proteina giocano sul coefficiente beta e sul coefficiente k della proteina.
A seconda delle proteine che mi trovo a trattare, ad una certa concentrazione, una può essere solubile
mentre l’altra no, quindi ho dei profili diversi.
I Sali con cui precipitiamo la proteina devono essere facili da rimuovere e non devono andare ad
interferire con la struttura della proteina: i Sali sono classificati in base alla loro capacità di sottrarre acqua
di idratazione (Sali diotropici), hanno un’attività del controione (hanno una maggiore o minore attività a
seconda della loro capacità di scambiarsi con gli ioni, es. cationi Ag, anioni I). I Sali più comuni sono:

•(NH4)2SO4
•Na2SO4
•KH2PO4
•K2HPO4

Quello più usato in base alla stabilizzazione della proteina e della sua proprietà di salting-out è il solfato di
ammonio perché è il più solubile (saturazione a 4-5M): il gruppo ammonio non interferisce molto ed ha un
effetto abbastanza positivo; tuttavia ha un basso potere tamponante.
La precipitazione sottrae acqua di idratazione alla proteina: non è un danno per la proteina, ma si evita la
digestione batterica (i batteri hanno bisogno di acqua, se ci fosse una contaminazione non potrebbero
agire) e la proteolisi (proteasi è un enzima di classe 3, che ha bisogno di acqua come substrato): la proteina
si trova quindi in una forma precipitata e protetta, la denaturazione è mantenuta al minimo perché il sale
mantiene la struttura tridimensionale.
Si può operare una precipitazione mirata a ridurre notevolmente il volume del nostro campione: per
esempio abbiamo 3L di surnatante in cui c’è la proteina, molto diluita, aggiungiamo grosse quantità di Sali,
la proteina viene raccolta in un volume molto piccolo, dopodiché per solubilizzarla è sufficiente aggiungere
la quantità di diluente necessaria a riportarla in soluzione. Il surnatante non funziona solo sulle proteine
esocitate ma anche su colture delle cellule eucariotiche (es. anticorpi monoclonali vengono prodotti da
cellule in coltura chiamate ibridomi).

La precipitazione frazionata, detta per salatura,


inizialmente era usata per eliminare alcune classi di
proteine ed è la stessa usata in campo alimentare;
avviene perché classi di proteine diverse, più o meno
solubili, vengono trattate con concentrazioni di sale
molto elevate: si ha una prima frazione di proteine che
si aggrega e precipita, viene trattata a bassa
temperatura (4 °C) con il sale per un certo tempo, dopodiché si fa un’ultracentrifugazione ed eliminiamo
questa prima frazione. Aumentiamo poi la concentrazione facendo precipitare la frazione di proteina che ci
interessa, altre resteranno ancora solubili, quindi posso recuperare il surnatante di una singola
precipitazione e infine tenere solo il pellet.
A questo punto mi trovo ad avere un eccesso di Sali: per le applicazioni successive, non è detto sia
compatibile. Devo poi eliminare la proteina per dialisi o per filtrazione.

La DIALISI viene fatta con acetato di cellulosa perché serve a separare una
componente a grandi dimensioni da una a più piccole perché l’acetato di
cellulosa è prodotto a porosità controllata che permette di definire il cut-off
della membrana, o limite di esclusione.

Es: Abbiamo una proteina a 4 Da; y: % passaggio attraverso i pori, x:


dimensioni particella in kDa. Inizialmente ho il 100 % del passaggio,
quando la dimensione diventa troppo grande, comincia a diminuire e a 4
Da ho il cut-off. Ideale sarebbe che ad un certo punto avessi una
concentrazione tutta nulla, ma la dimensione dei pori non è omogenea.
Quando definisco il cut-off, si definisce il punto in cui abbiamo il flesso di
questa curva, in cui ho il 50% del passaggio. Questo limite di esclusione
definisce la proprietà della membrana semipermeabile, quindi le molecole più piccole del cut-off
passeranno secondo gradiente e le molecole più grandi che non passeranno, saranno trattenute dalla
membrana. Una molecola di 4Dalton passerà parzialmente.

I sacchetti cilindrici cavi che sono legati all’estremità, vengono riempiti dalla soluzione, lasciando una
piccola cavità per far passare l’acqua che tende ad entrare e diluire, soprattutto le componenti che non
possono passare. All’equilibrio i Sali all’interno hanno potuto diluirsi.
Volume iniziale 3 mL, concentrazione solfato ammonio nel sacchettino della dialisi 3M: se inserisco in un
volume di 500 mL, la concentrazione finale sarà 0,03 M. Per abbassare ancora la soluzione inserisco in un
altro becher e diluisco. Soluzione va tenuta in agitazione e a freddo.
La dialisi è un po’ lenta, si usa quindi filtrazione e ultrafiltrazione: si applica una pressione alla proteina per
aumentare la velocità di passaggio attraverso membrane di materiale diverso dall’acetato di cellulosa ma
dove ci sarà di nuovo un cut-off di peso molecolare e diversi tipi di set up. Uno dei primi set up sfruttava la
forza centrifuga e si faceva in modo che la proteina passasse attraverso la membrana con un contenitore
superiore e uno di raccolta: il set up è compatibile con i tubi di raccolta e la dimensione dei cestelli delle
centrifughe da bancone. Se io forzo attraverso la membrana ed il flusso è perpendicolare alla membrana,
rischio che si intasi di proteina. Si usano altri set up che ospitano fino a 15 mL.
Posso scambiare i Sali ma anche i buffer, cioè i sistemi tamponi.

Un’altra tecnica di ultecentrifugazione prevede una pressione di un gas


inerte, He o Ar; le membrane hanno porosità controllate, chiuse e fissate
da una guarnizione. Solo le molecole che passano attraverso la
membrana possono essere filtrate. La proteina invece resta nell’outlet
dove c’è un’ancoretta magnetica, perché si opera in agitazione. Il
sistema è collegato alla bombola di gas attraverso un tappo. Il flusso è
perpendicolare alla membrana, quindi c’è problema di intasamento. A
volte la membrana è trattata per minimizzare le interazioni aspecifiche.
Problema set-up: camera fredda, bombola deve stare fuori per questo,
costo gas, ma volumi max 500 mL.

La dialisi e l’ultracentrifugazione hanno anche la capacità di purificazione delle proteine.

Si usano in seguito delle tecniche cromatografiche, in particolare quella di affinità: le proteine sono marcate
a livello genico con sequenze specifiche che codificano peptidi particolari che sono riconosciuti con alta
affinità dalla sequenza cromatografica. Altra cromatografia: gel filtrazione.

Conservazione campioni proteici: congelamento o liofilizzazione, cioè un congelamento e poi una


sublimazione della frazione solubile a 0.05-0.01 mmHg. La polvere ottenuta impedisce a contaminazioni
batteriche e proteasi di operare perché è più stabile nel tempo. La liofilizzazione non influisce sulla
struttura, soprattutto se fatta gradualmente nel tempo, ma certe proteine sono sensibili e sono fatte in
assenza di Sali.

DETERMINAZIONE DELLA CONCENTRAZIONE DI PROTEINE TOTALI

La quantificazione è un metodo utile per monitorare la resa della proteina, ma anche per conoscere la
concentrazione totale.
I metodi usati sono di tipo diretti o indiretti.
 Il Metodo di Kjeldahl (indiretto) viene usato per dosare le proteine ma è poco usato: va bene per
quantificare proteine liquide. Determina la quantità di azoto totale: se doso le proteine in un
campione biologico, devo precipitare tutte le proteine perché N non è contenuto solo nelle
proteine. A questo punto doso N proteico contando che, nella quantificazione della proteina, l’N è
circa 16% del peso totale della proteina (perché presente negli aminoacidi: lisina, istidina, arginina,
asparagina, triptofano e glutammina).
Sono metodi usati soprattutto per proteine di interesse alimentare: carne, uova, farina.
Si basa su una digestione e mineralizzazione completa delle proteine: l’N è trasformato in NH3,
ossidando e distruggendo la struttura delle proteine; si usano acidi concentrati (come l’acido
solforico), catalizzatori e Sali per raggiungere p.eb maggiori. Lo stadio di digestione può durare 12-
24 ore. La soluzione si scurisce e si possono formare vapori di SO2; in seguito si limpidizza e viene
scaldata per altre due ore. La miscela viene poi raffreddata e trasferita in una fiasca di distillazione:
la miscela è resa alcalina con aggiunta di NaOH e l’ammoniaca viene distillata e raccolta in una
fiasca contenente acido borico (per intrappolarla) e titolata con HCl.
Alta concentrazione di acidi e alta temperatura.
 Metodi spettrofotometrici

I metodi diretti di dosaggio delle proteine si basano sulla rilevazione spettrofotometrica e quindi
sull’analisi quantitativa dello spettro UV/visibile.
L’assorbanza è molto importante perché è correlata alla concentrazione, è quantitativa ed è facile
da misurare; cammino ottico è quasi sempre 1cm. A può assumere massimo valore 1; se avessi A=2,
dovrei diluire. Ha valore unitario perché sopra 1 non è più lineare: A=Log I0/I  se A=1, il rapporto è
uguale a 10, quindi la misurazione strumentale deriva da un valore 10 in un caso e 1 nell’altro:
misuriamo quindi due grandezze che sono una il 10% dell’altra. Se A=2, rapporto =100: strumento
100:1 poco affidabile e accurato.
La lunghezza d’onda è 280 nm, ma alcune proteine assorbono ad altre lunghezze d’onda: dipende
dall’aminoacido e dai gruppi aromatici contenuti (triptofano assorbe a 290 nm, fenilalanina assorbe
a 267 nm, tirosina assorbe a 270-274 nm).
Approssimativamente un’assorbanza 1 vuol dire circa una concentrazione 1mg/mL; il coefficiente di
estinzione molare è nel range 0.4-1.5 con estremi da 0 fino a 2,65.
La sensibilità è bassa; il vantaggio è che se conosco veramente ε, posso mettere la proteina nella
cuvetta di quarzo, la inserisco nello spettrometro, il raggio passa e faccio la rilevazione, non
distruggendo nulla: non devo avere contaminazioni esterne (per questo esiste una formula di
correzione) e se ho interferenze a 280 nm posso fare un’analisi del bianco con un sistema tampone.

24-10

ε delle proteine si può calcolare sulla base di programmi che fanno una stima, un po’ grossolana, su
miscele di proteine in cui A=1 equivale a una concentrazione di 1mg/ml con gli estremi però molto
vari; ε è noto quando la proteina è stata purificata, liofilizzata, pesata e attraverso uno spettro si
calcola ε.
A complessità maggiore, in presenza anche di contaminazioni, e con miscele di proteine, l’analisi
richiede più tempo.
Le proteine assorbono nell’UV, nel lontano UV e nel visibile: emoglobina, contenente il gruppo eme
(prostetico) ha transizioni associate al Fe, ai complessi metallici e ai gruppi flavinici.
Il citocromo c ha una struttura piccola, tondeggiante, con diametro circa 2 nm, contiene l’eme ed è
inserito in una tasca che è quasi i 2/3 della dimensione della proteina; tutto ciò dà un contributo
chiamato bande di Soret. Siamo nella forma ossidata a 409 nm, mentre nella regione dei 500 nm la
proteina è ridotta e il picco è meno definito. Se la proteina è purificata, si ha ε=274 e dà un
contributo specifico sulla parte della porzione proteica; ho tre bande: α, β, γ, dove α ha un
assorbimento specifico normalmente a 550 nm. Le proteine con un cromoforo ci permettono di
quantificare sia la parte proteica che il cromoforo. ε specifico a 550 ci fornirà un valore relativo
all’eme legato alla proteina. La banda di assorbimento mi permette di quantificare quanto eme c’è
legato alla proteina, che mi permette di quantificare quanta proteina c’è e se non c’è una
corrispondenza 1:1 tra la proteina e il cofattore può significare che la proteina non è pura e che non è
del tutto in forma olo (oloproteine contengono un fattore proteico e uno non proteico e sono
considerati nella corretta stechiometria)  se la concentrazione ricavata dal cofattore è inferiore a
quella attesa, significa che c’è una porzione in forma apo, cioè ha perso il cofattore: non ha le stesse
caratteristiche strutturali, può avere problemi di folding perché destabilizzata.
Se ad esempio ho la proteina in forma olo 5 μM e la proteina pura 10 μM ed escludo che ci sia un
contributo del solvente o una contaminazione (da proteine o acido nucleico) significa che la proteina
è in forma olo al 50%, mentre è al 50% in forma apo  ho già avuto una parziale caratterizzazione
della proteina.

METODO DEL LONTANO UV: Le proteine assorbono anche nel lontano UV, con un max di
assorbimento a 194-196 nm però in quella regione le interferenze sono molto alte e non tutti i
normali spettrofotometri possono arrivare a quelle lunghezze d’onda; in presenza di ossigeno si
comincia a generare ozono e dà dei problemi. C’è una componente di assorbimento delle proteine,
cioè dei legami peptidici che sono parzialmente delocalizzati ed hanno un assorbimento specifico a
205 nm, ed è quindi più facile misurarli.
I gruppi aromatici interferiscono, quindi c’è una formula di correzione da 280 a 205 nm: il vantaggio
delle tecniche cromatografiche a 205 nm è che posso vedere le componenti peptidiche anche se non
hanno una componente aromatica. La variabilità associata alla composizione degli aminoacidi non c’è
perché tutte le proteine hanno un legame peptidico quindi l’omogeneità di assorbimento è legata
alla dimensione delle proteine: tanti più legami peptidici ho, tanto più ho un contributo. In ogni caso
so che in questa regione assorbono tutte le proteine e anche i peptidi (insulina, ossitocina,
endorfine…)

 Metodi colorimetrici

1. METODO DI BRADFORD: si basa sull’interazione tra gruppi carichi /gruppi basici delle proteine e il
colorante, Coomassie Brilliant Blue G250, che ha dei gruppi
aromatici e quindi interagisce anche con gli aminoacidi idrofobici.
Le interazioni con proteine che non hanno residui basici danno
contributi non rilevabili.
La proteina si lega al colorante, che cambia quindi le sue proprietà
spettrali e dà uno spettro (tratteggiato). Ha un picco di
assorbimento un po’ più spostato tra il 500 e il 700 e dà una
colorazione sul marroncino.
Lo stock di colorante è preparato diluendolo in una soluzione
blandamente acida (acido fosforico o perclorico a bassa
concentrazione). Quando il colorante si lega alla proteina shifta
all’altro spetto di assorbimento che è quantitativo: maggiore è lo
shift, maggiore è l’intensità di assorbimento. Il picco massimo si ha a 595 nm e il colorante assume
colorazione blu. Andamento lineare in accordo con la legge di Lambert-Beer, ma quando si ha la
saturazione del colorante si perde un po’.
È un metodo abbastanza sensibile: 0.2-1.4 mg/ml il metodo standard, 2-10 μg prot./ml per la
procedura microassay, che serve ad avere un’elevata sensibilità per i campioni diluiti o molto
concentrati e inoltre sacrifico una piccola quantità di proteina, siccome le rese di quantificazione
delle proteine non sono molto elevate.
Le proteine non si comportano allo stesso modo; non posso usare un ε fisso perché l’interazione
proteina-colorante si sviluppa in determinate condizioni, ad una certa T, con un batch.
Si usa come riferimento la BSA, cioè la sieroalbumina bovina, che è facile ottenere
commercialmente; ha una composizione acida media come standard di riferimento, che rispecchia
in modo abbastanza sufficiente la media comune delle proteine.
Si trovano anche rette standard con immunoglobuline e hanno pendenze un po’ più ripide.
Il vantaggio è la rapidità: il colore si sviluppa in 15 min ed è stabile per circa un’ora; alcune proteine
hanno problemi di solubilità perché c’è un ambiente acido. È utilizzabile per miscele di proteine.
Il limite è che se ho dei detergenti, come il Traiton con una regione idrofobica, dà interazioni con le
regioni idrofobiche del colorante e quindi si hanno interferenze; può succedere anche con
detergenti zwitterionici, come il Chaps.

2. METODO DELL’ACIDO BICINCONINICO (BCA): si usa come alternativa a Bradford. Colorazione è più
indiretta; si usa solfato di rame come solvente che sciolto in acqua libera ioni Cu+. Interagisce con la
proteina, che ha potere riducente verso alcuni gruppi chimici specifici, un po’ meno associati agli
aminoacidi; in un ambiente alcalino la riduzione è quantitativa. Il Cu (I) si può coordinare a 2
molecole di BCA, formando un addotto che ha colorazione; assorbe a massimo 562 nm. La
colorazione è inizialmente verde, alla fine prugna: si sviluppa in mezz’ora nel metodo standard
(range simile al metodo di Bradford); nel micrometodo il range è 0.5-20 μg prot/mL ed è più
sensibile, non è particolarmente influenzato dalla composizione in aminoacidi, la colorazione è più
lenta e bisogna scaldare a 60°C per circa mezz’ora (più lungo del metodo di Bradford).
È più tollerante ai detergenti, ma è sensibile a qualsiasi molecola riducente che abbiamo come
contaminante: composti riducenti che proteggono dall’ossidazione, zuccheri riducenti…

Servono metodi con bassa interferenza dai detergenti denaturanti perché molto spesso le proteine
sono trattate, soprattutto le miscele complesse, con agenti riducenti e denaturanti in metodi
successivi di elettroforesi. A volte può servire dosare la concentrazione: si usano dei saggi (tra cui il
quant-kit) l’interferenza è così pesante che si misura un parametro nel campione così com’è e si
valuta l’interferenza; si precipita poi la proteina e si ridosa il parametro in assenza di proteina. Il
valore è ottenuto per differenza. Metodi rapidi, compatibili con le interferenze e quantificabili.

3. METODO DEL BIURETO: si basa sull’interazione degli ioni rameici con la proteina, in un ambiente
alcalino. Lo ione si coordina con N dei legami peptidici e forma il complesso cupritetrammonio;
assume colorazione porpora intorno a 550 nm: è molto stabile nel tempo, ben correlata alla legge
di Lambert-Beer e avrebbe uno spettro perfetto se non fosse che ha una sensibilità troppo bassa. Il
colore si sviluppa in 15 min, ma le concentrazioni richieste sono troppo alte senza sacrificare troppo
materiale.

4. METODO DI LOWRY: per aumentare la sensibilità si combina con il metodo del biureto e con il
reagente di Folin-Ciocalteau per dosare i gruppi fenolici; quando interagisce con i fenoli subisce una
reazione redox e l’anello si ossida a chinolo, mentre il colorante si riduce formando
eteropolimolibdeno, blu. È un metodo quantitativo e assorbe intorno 570 nm, tuttavia si ha bassa
stabilità perché c’è un ambiente alcalino e nel tempo il colorante vira.
La sensibilità è più bassa del metodo di Bradford e del BCA.

5. METODO SILVER-BINDING: ripreso per la colorazione su supporto di gel elettroforetico. La proteina


ha un effetto riducente su Ag+ che viene ridotto ad Ag metallico e si ritrova a formare una
sospensione grigia, che non è un vero cromoforo, ma dà uno scattering a 420 nm.
Si usa più su supporto di gel perché è molto sensibile.
Sono interferenti: tutti i riducenti, perché hanno lo stesso comportamento, i detergenti, altri anioni,
che possono sottrare cationi Ag all’equilibrio e l’EDTA.
Può essere utile su campioni diluiti.

ELETTROFORESI
Elettroforesi di proteine; alcuni metodi sono usati per separare gli acidi nucleici.
Si separano molecole cariche in un campo elettrico e avviene in liquido o su supporto; quello che si può
misurare, che è dettato dalla singola particella carica che noi andiamo a separare, è la velocità di
migrazione o mobilità elettroforetica. Di solito per misurare la velocità, si guarda quanto si è spostata la
particella in un certo tempo: misuro cioè la migrazione effettiva in un certo set di tempo  mobilità
relativa. La migrazione è misurata con un righello; Rf va da 0 ad 1 ed è un valore frazionale.
La mobilità e la migrazione dipendono dagli stessi parametri: campo applicato, a voltaggio costante o a
corrente costante; carica della particella (maggiore la sua carica superficiale, maggiore la mobilità) e sono
inversamente proporzionali al coefficiente di frazionamento, f, che dipende dalla forma, dalla dimensione,
dalla reticolazione del supporto e dalla massa della particella. La mobilità dipende quindi dal rapporto q/m.
Negli acidi nucleici l’elettroforesi viene usata per separare le molecole ma il supporto è un po’ diverso
perché è più grande della proteina; inoltre è carico negativamente e più è grande, più è carico: c’è una certa
omogeneità tra q e m. Ciò che conta quindi è f  se è troppo grande non passa attraverso i pori, se invece
è piccolo c’è un frazionamento in base al peso molecolare, perché l’effetto carica va verso un eccesso di
carica negativa.
Nel caso delle proteine invece q e m sono incognite  q dipende intrinsecamente dalla forma e dal pH: per
ogni proteina possiamo definire un punto isolettrico (pH isoionico), che è il pH a cui il bilanciamento degli
effetti di protonazione/deprotonazione, o dissociazione della proteina, dà una carica netta complessiva = 0.
A questo pH la proteina non ha un bilanciamento elettroforetico.

In generale il punto isoelettrico di una proteina si può calcolare se si conosce la frequenza, stabilendo il pH
e, attraverso dei programmi, si conoscono i dati di dissociazione e la pKa; il punto isoelettrico ci dirà quindi
se la proteina ha carica neutra, positiva o negativa al pH che decidiamo di utilizzare. Solitamente non ci
poniamo mai al pI perché le proteine sono meno solubili; hanno principalmente un pI acido, ma non è
sufficiente perché le proteine si comportino allo stesso modo a pH acido.

Supporti utilizzati: SU CARTA, in campo medico, o SU GEL (amido, agarosio, poliacrilamide): si usa
poliacrilamide perché è resistente, inerte, ha una porosità controllabile e viene di solito colata in un set-up
verticale. Si usa normalmente poliacrilamide con il 30% di disacrilamide per promuovere i legami
trasversali. La polimerizzazione è avviata da una miscela di ammonio persolfato e TEMED; ammonio
persolfato libera dei radicali ed è quindi preparato poco prima della polimerizzazione; viene aggiunto alla
miscela con una soluzione tamponante e si avvia la polimerizzazione. Si ottiene un polimero reticolato, con
una porosità abbastanza regolare che può essere controllata dalla quantità di polimero che mettiamo in
soluzione. L’idrogel che si forma può essere più o meno lasso, dipende dalla quantità di poliacrilamide-
disacrilamide che si mette.
La reticolazione è più stretta ed è correlata alle dimensioni della proteina; i gel di poliacrilamide si usano
anche per la separazione di piccoli tratti di DNA.
Si possono usare dei gel omogenei, con una reticolazione costante, oppure dei gel discontinui, con un
gradiente di concentrazione.
Se ho una concentrazione maggiore e una reticolazione più stretta verso il fondo del gel e più lassa verso
l’inizio del gel, posso avere un range di separazione differente. Ho quindi un gel meno reticolato all’inizio e
con un f minore.

 Elettroforesi su Gel di PoliAcrilamide con Sodio DodecilSolfato (SDS-PAGE)


Se vogliamo separare e avere informazioni su z o m, in base al comportamento delle proteine, dobbiamo
isolare uno dei due parametri, in particolare m, saturando la carica della proteina ed eliminando alcune
irregolarità del comportamento, cioè linearizziamo la proteina denaturandola, eliminando qualsiasi
interazione del comportamento di migrazione nel gel, che sia dovuto alla forma della proteina. A parità di
massa, una proteina allungata e una globulare si comporterebbero differentemente, quindi le srotoliamo
tutte aggiungendo un denaturante che altera la struttura 3D: l’SDS ha una q negativa (dovuta al gruppo
solfato) che promuove la saturazione della proteina che diventa anione e migra verso il polo positivo. La
superficie di interazione è di 1.4 SDS/1g proteina; la saturazione di proteine è fortemente in eccesso 
annulla tutte le differenze di carica.
Spesso si aggiunge il β-mercaptoetanolo o il litiotritolo per ridurre i ponti disolfuro ed evitare che le
proteine restino arrotolate.
In questo caso la tecnica si chiama SDS-PAGE; se si evita questo passaggio è definita solo PAGE e si
mantengono i ponti, anche se si rovina il compattamento.

A volte si usa un sistema discontinuo su un gel, chiamato running, a reticolazione costante o gradiente; il
range di separazione dipende dal peso molecolare e abbiamo delle percentuali intorno al 10-12%, che
permettono di separare proteine fino ad 80 kDa.

Set-up: ci sono due vetri chiusi da un sistema, sotto c’è una


guarnizione per far colare il gel all’interno di questi due vetri. Si
lascia polimerizzare; primo gel colato è il separating gel e poi
viene colato lo stacking gel, che ha un pH più acido: il gel è colato
in un spazio piccolo per avere una resistenza bassa; per poter
caricare un campione di 5 μL devo avere dei pozzetti: se la
separazione è fatta in base al peso molecolare mi aspetto di
risolvere queste proteine in modo lineare. Normalmente non è
così perché le proteine sono disperse all’interno del pozzetto per
un’altezza notevole. Il campione proteico deve essere
concentrato in uno spazio piccolo quindi lo stacking gel confina la proteina in una banda allineata e stretta,
in modo che sia risolta bene in base al peso molecolare.
Il compattamento avviene perché il fronte del pozzetto entra nella poliacrilamide che è più acida, quindi la
q negativa è meno spiccata e quindi la proteina è meno veloce; viceversa la coda del pozzetto è in contatto
con l’elettrolita di contatto degli elettrodi, che è il running buffer, un tampone di trisglicina a pH 8.2.
Vengono quindi esaltate le proprietà negative della proteina e il campione va più veloce. Mentre il
campione comincia a correre, il pozzetto si compatta, permette di arrivare all’interfaccia e può avvenire la
separazione.

La separazione serve per sapere quanto è purificata la frazione che ci interessa, cioè 3 componenti
peptidiche α, β e γ, che sono arricchite dai processi di purificazione, ma posso indicare le componenti
contaminanti che sono state separate su gel, colorate con un metodo simile a quello visto con il Blu di
Coomassie, e ho quindi un’informazione sulla purezza.
Posso avere anche un’informazione sul peso molecolare perché se faccio riferimento ad una scala di pesi
standard, mi aspetto che una proteina più pesante migri di
meno; per monitorare il fronte si usa il blu di bromotimolo, un
colorante piccolo ma molto anionico che traccia la sequenza.
Una volta interrotta la separazione si stabilisce il percorso
finale, si va a misurare e se misuro per ciascuno di questi
standard gli Rf e faccio un grafico in cui metto Log(MW),
ottengo una relazione lineare e posso fare un’interpolazione. Il
peso molecolare è quello della forma denaturata.
La differenza d potenziale a cui si opera è massimo 200 Volt,
ma si può operare a voltaggio costante perché nel tempo
diminuisce l’amperaggio.

 Elettroforesi PAGE, cioè in condizioni native senza denaturante: separo in base al rapporto z/m (e
non solo in base alla massa), ma è più difficile associare un peso specifico; la tecnica page viene
fatta quando voglio controllare attraverso delle proprietà funzionali, che si possono mantenere,
l’identità di una proteina; uso quindi una tecnica di colorazione specifica.
27-10

 Elettroforesi su carta: usa acetato di cellulosa; è usata nei laboratori clinici per le analisi del sangue,
ed è una tecnica di separazione simile all’elettroforesi vista la volta scorsa. A sinistra c’è
il profilo densitometrico: l’area sottesa nel picco di densitometria mi dà la
quantificazione relativa  si esprime la percentuale relativa del picco dell’albumina e la
frazione delle α, β e γ globuline, dove le gamma globuline sono le IGG. Queste proteine
sieriche in varie percentuali sono un profilo che danno informazioni per la pratica
clinica: è un’analisi diagnostica dove si ha un picco normale e picchi delle sottoclassi
delle proteine; i profili atipici danno luogo ad indagini ulteriori e possono essere
associati a patologie. Quelle che si riscontrano più facilmente sono le MGUS, le
gammopatie monoclonali di origine sconosciuta: alcune immunoglobuline sono
prodotte da cellule che hanno perso il controllo e c’è quindi un clone di queste proteine
che prolifica (può essere indicazione di un menoma, malattia del sangue di tipo
bioplastico).
Ciò che ci interessa è la distribuzione delle proteine, quindi in realtà è una specie di screening.
Ci sono dei picchi extra, α, β e γ, indicatori di altri patologie, come delle parassitosi in α.
Gammopatie di origine incerta sono solo tracciate.

Dopo la corsa elettroforetica, si fanno le colorazioni: Blue Coomassie e Silver Staining, ma al posto di essere
saggi in litro, la colorazione deve restare nel supporto e le proteine non vengono dilatate: la precipitazione
del colorante avviene laddove si è separata la proteina.

 Colorazione con Blue di Coomassie avviene con acido acetico al 10% e metanolo al 40%: l’acido
acetico promuove la fissazione della proteina, evitando che venga dilatata; l’SDS viene rimosso dal
colorante tramite il metanolo, si può effettuare prima una fissazione, ma spesso si fa fissazione e
colorazione insieme: il colorante diluito in questi due solventi promuove la colorazione e si ha
contemporaneamente la fissazione e la denaturazione della proteina. Il tutto dura 30min-1ora. Si
colora tutto il gel, il colorante penetra perché ho un idrogel poroso, dopodiché si decolora (acido
acetico:10%, metanolo 40%) e la decolorazione rimuove tutto il background, cioè ciò che è stato
adsorbito in modo aspecifico e restano solo le bande. A questo punto si può fare una
quantificazione in densitometria con densitometri laser.
La sensibilità è negli ordini dei μg.

 La colorazione con Silver Staining è molto più sensibile, ma è più complicata; si possono usare
carbonato di Na e formaldeide, Sali di I, si possono avere più lavaggi; la fissazione avviene con acido
acetico e si ha precipitazione di Ag metallico in corrispondenza delle proteine. Tuttavia non tutte le
proteine reagiscono allo stesso modo con Ag+: alcune reagiscono maggiormente e possono dare
sovrasaturazione  è difficile leggere qualitativamente.
La sensibilità è però 100 volte maggiore e serve a rilevare concentrazioni basse.
È una colorazione da usare per valutare la purezza del campione o se sono interessata ad una
proteina al di sotto che prima non si vedeva.

L’elettroforesi è una tecnica analitica e dà informazioni sul peso molecolare, ma la proteina è denaturata; si
può anche effettuare una colorazione specifica, che dà informazioni specifiche sulla proteina, ma avviene in
presenza di SDS.
È usata anche come una tecnica micropreparativa, cioè posso ritagliare il gel e recuperare la proteina  ho
informazioni sulla struttura primaria della proteina.
Posso fare un’elettroforesi nativa o PAGE, cioè non si mette l’SDS, la proteina non è denaturata e mantengo
l’integrità del campione. Nel campo elettrico si comporta in base al rapporto z/m, non posso identificare m
e z ma posso separarle, la temperatura è bassa. Lo scopo è separare la proteina e verificarne la presenza
tramite Sali più specifici.
Se inserisco DOPA (Diossifenilalanina), si ossida a DOPA-chinone e dà degli addotti, tra cui un colorante
rosso, Dopacromo, che si evidenza nelle bande in corrispondenza della proteina. L’enzima deve essere
attivo per essere visto.

 Colorazione specifica, anche su composti denaturanti: la proteina è associata ad un cromoforo o


fluoroforo ed è legata covalentemente.
I gruppi eme non sono legati covalentemente nelle proteine denaturate; eccezione è l’eme di tipo c
perché i vinili possono dare un legame con il sulfidrile di una cisteina. Se operiamo in condizioni non
riducenti, quindi non riduciamo il sulfidrile a SH, l’eme resta ancorato covalentemente alla
proteina. La presenza dell’eme è quindi rilevabile con tecniche analitiche, tipo il luminolo, o tramite
coloranti (colori blu o marrone).
Si può osservare, sempre in forma denaturata, se sono presenti forme dimere o trimere,
stabilizzate con ponti disolfuri, tramite la presenza di riducenti.

Elettroblotting: proteine separate da un gel elettroforetico sono separate da un campo elettrico su una
membrana, chiamata Western Blotting (prima membrana studiata è stata il Southern Blotting per separare
il DNA, poi il Northern Blotting per l’RNA). La membrana può essere nitrocellulosa, sintetica o una
membrana chiamata olinividene difluoride, un polimero simile al teflon, idrofobico.
Si vuole evitare un supporto che abbia un trappolamento, per questo si trasferisce la proteina su un
supporto, per poi essere riconosciuta da un anticorpo.
Modalità di trasferimento: si applica una differenza di potenziale, il sistema semi-drive prevede di avere
fogli di carta assorbente imbevuti negli elettroliti che possono essere diversi o uguali all’anodo o al catodo.
Gli elettrodi sono inseriti tipo sandwich e dal gel alla nitrocellulosa le proteine migrano all’anodo perché
hanno ancora l’SDS. Esistono dei marker colorati per controllare che la proteina sia trasferita.
La proteina non è sempre trattenuta dalla nitro-cellulosa.
1. Incubazione con l’anticorpo: si riconosce la proteina con alta sensibilità grazie alla prima
interazione con un anticorpo specifico, detto primario, ottenuto tramite un trattamento da un
animale di laboratorio.
2. Questo anticorpo subisce un lavaggio tramite soluzioni presentanti altre proteine.
3. Anticorpo è depositato sulla membrana e recuperato.
4. Per amplificare la reazione, si usa un anticorpo secondario, contro tutti i sieri dell’anticorpo
primario, e riconosce la frazione delle globuline dell’anticorpo primario. Spesso è marcato ed è
riconoscibile tramite un fluoroforo o un enzima, chiamato HRP, una perossidasi, che riconosce il
perossido di idrogeno e promuove una redox: dov’è presente l’enzima, si accumula il colorante in
modo notevole ed è facile rilevarlo, tramite il luminol ad esempio.
Non marchiamo l’anticorpo primario perché costa troppo; una volta che è stato incubato lo
rimuovo e lo recupero per usarlo altre volte.
Proteine non sono associate a bande maggiori, finché non sono associate al blotting e sono riconosciute in
modo specifico.
Esistono anticorpi monoclonali, ottenuti da cellule specifiche in colture chiamate ibridomi, e producono un
solo anticorpo perché riconoscono una sola proteina.

LA PARTE VISTA FINORA SERVE PER IL QUIZ INIZIALE

ELETTROFORESI BIDIMENSIONALE

Sono molto usate per la proteomica (POTREBBE ESSERE OGGETTO DELLA DOMANDA D’ESAME).
Dobbiamo separare una miscela complessa di proteine: la risoluzione è bassa e non si risolvono tutte le
proteine. Se abbiamo due parametri di separazione e l’analisi non è più monodimensionale, cioè solo in
base alla q o solo in base alla massa, ma è una tecnica bidimensionale, allora la risoluzione migliora. La
separazione non è più lineare, ma ho un piano cartesiano.
Per separare solo in base alla massa, uso l’SDS-PAGE; per separare solo in base alla q, elimino la massa. Per
eliminare l’effetto massa si usa la focalizzazione isoelettrica (IEF).
Sono tecniche dell’era post-genomica, cioè la proteomica.
Ogni cellula esprime delle proteine che sono caratteristiche del fenotipo.
L’era post-genomica cerca proteine specifiche di un certo tipo cellulare, in condizioni normali, ma
soprattutto patologiche, e cerca dei biomarcatori, cioè proteine che sono indice di patologie, modifiche,
trattamenti farmacologici…
Elettroforesi bidimensionale permette di fare un’analisi del proteoma, cioè di fotografare la presenza di un
certo tipo di proteine in una cellula in un certo tempo. Prima tecnica applicata al proteoma, che è una
mappatura delle proteine nella cellula  dipende anche dalle tecniche viste finora.
Si basa sulla possibile separazione delle proteine che mi danno dei microcampioni su cui fare le analisi.
Tecniche di separazione dipendono da due proprietà indipendenti ed avvengono in due steps; si ha una
dispersione di proteine su una superficiale bidimensionale.
Il primo step è la focalizzazione isoelettrica (IEF) in condizioni denaturanti: le proteine vengono comunque
denaturate per evitare comportamenti dovuti alla massa e alla loro forma e si espongono tutti gruppi
carichi sulla superficie. Le proteine migrano in base al loro pI in un campo elettrico: la q determina dove e
quando vanno a migrare.
Una volta separate, annullando l’effetto massa, annullo l’effetto carica e separo in base alla massa, cioè con
una SDS-PAGE.
C’è bisogno di separare le proteine in un gel che abbia una reticolazione molto bassa, dove quindi non ci sia
effetto frizionale; ho bisogno però di avere una migrazione che mi consenta di separare le proteine in base
al pI. Si cerca di fermare le proteine in modo che si localizzino in un gradiente di pH, corrispondente al pH
del loro pI. Le proteine diventeranno neutre e non si muoveranno più.
La separazione isoelettrica inizialmente era fatta su un supporto in plastica; in questo gel c’era un gradiente
di pH 3-10: a seconda delle zone il pH sale. Non c’era grossa omogeneità.
Ora ci sono degli strip di poliacrilammide con dei gruppi chiamati immobiline che possono dissociarsi,
perché hanno gruppi anfoliti, e creano dei gradienti di pH immobilizzati nella poliacrilammide, grazie ad un
buffer, quindi è più omogeneo.
Non posso denaturarla con SDS e non posso avere grosse concentrazioni di Sali, quindi devo usare un
denaturante forte, come un detergente non-ionico; tuttavia la proteina non è molto solubile perciò mi
serve una sostanza non carica che la denaturi e aumenti la solubilità: uso l’UREA.
Le proteine sono trattate anche per ridurre i ponti disolfuri per non avere strutture 3D; posso usare
detergenti come Chaps e Traiton.

Il campione è distribuito su tutta la superficie della striscia:


immaginiamo di avere una proteina A con un pI=5.5 e una proteina B
con pI=8. Se la proteina A è distribuita su tutta la superficie, tra 4 e 5
ha q +, al pI ha carica zero, e non si muove, dopo 6 ha q -.
I poli sono distribuiti come in figura perché vogliamo che la proteina
focalizzi al punto in cui non si muove più.

Se confronto una cellula sana con una cellula differente, patologica, trattata con farmaci o droghe, il plasma
sarà differente e posso quindi avere un’informazione qualitativa, non solo quantitativa.

TAPPE ESPERIMENTO:
1. Nel primo step trattiamo l’estratto cellulare con il Chaps, l’urea (per denaturare la proteina), il
mercaptoetanolo (per interrompere i ponti disolfuro) e il buffer specifico (IPG), compatibile con la
separazione sugli strip (è standardizzato).
2. Viene applicata una differenza di potenziale; pH minore applicato al polo positivo, pH maggiore a
quello negativo. I voltaggi vanno fino a 8000V (SDS-PAGE: 200V). In totale si misura Volthours, cioè
applichiamo voltaggi sempre più alti per molto tempo.
Una volta che abbiamo la distribuzione delle proteine, applicando la ddp, migrano in base alla loro
q e arrivano ad un pH che annulla il loro effetto carica e quindi si focalizzano ai corrispondenti pI.
3. Striscia a questo punto è trattata per annullare l’effetto carica, saturando con l’SDS, tratto poi di
nuovo con Urea, tritolo, glicerolo + buffer un po’ più acido (c’è un mini effetto di stacking gel) e la
strisciolina viene poi depositata su un gel che avrà un grande pozzetto. Le proteine sono quindi
sature con SDS, e partiranno in corrispondenza del pI e migreranno in base al peso molecolare.
x e y quindi del sistema saranno caratteristici per ogni proteina.
4. Ho quindi degli spot proteici che possono essere evidenziati con il Blue di Coomassie o con il Silver
Staining: strisciate orizzontali indicano poca focalizzazione, quelle verticali indicano la presenza di
sali.
5. Analisi dei risultati: nell’esempio abbiamo un’analisi del proteoma di Acinetobacter radioresistens
cresciuto utilizzando fonti di carbonio diverse, un inquinante che questi batteri sono capaci di
metabolizzare. Per fornire C al metabolismo della cellula, il batterio sintetizza una proteina che
produca fenolo, se non è presente. È un enzima inducibile e si induce solo in presenza del fenolo.
Questa proteina è stata obbligata a consumare fenolo; se inserisco benzoato, che assomiglia al
fenolo, ho 2 proteine.
Posso capire quali proteine ci sono in maggiori o minori quantità, cioè che RADDOPPIANO o
DIMEZZANO la loro concentrazione: servono allora dei replicati biologici (valutano gli aspetti
biologici ed identificano le microdifferenze tra i campioni) e tecnici (valutano le variabilità della
tecnica)  si fanno almeno 5 replicati tecnici e 3 biologici.
Mi interessano le proteine che variano: per sapere il come, ho bisogno di mappe dimensionali e di
metodi statistici, esaminando la variabilità.
Non ho mai una quantificazione assoluta, ma relativa.

31-10

Approfondimento analisi dei risultati: mappe che ad occhio ci permettono di individuare degli spot
(spot page).
2 steps: identificazione degli spot proteici di interesse, che subiscono una sensibile differenza di
quantità da una condizione basale ad una trattata (raddoppio o dimezzamento dello spot).
Quantificazione è sempre relativa e non assoluta; l’analisi dell’immagine si ha con l’integrazione del
volume sotteso e ci dà la quantificazione.
Quantificazione in concentrazione deve essere correlata con l’assorbanza; il colorante più usato è il
Blue di Coomassie, perché quella con Ag dà saturazione.
Il Blue di Coomassie colloidale è più lineare nella quantificazione ma si utilizza una volta sola.
La rilevazione si fa con un densitometro laser e funziona come uno spettrometro; il programma
analizza il gel e quantifica i picchi: elemento chiave per poter garantire un risultato preciso e
accurato è avere una misura di riproducibilità della mappa bidimensionale, che viene fatta in più
replicati (almeno 5 tecnici). Essendo un’analisi bidimensionale ho già 2 possibili errori.
Il densitometro dà una misura fisica della densità ottica; la qualità dell’acquisizione dipende dallo
strumento. Per fare un’acquisizione relativa bisognerebbe caricare sullo stesso gel delle macchie di
cui non conosciamo la concentrazione, cioè si carica una specie di scaletta degli spot.
Vogliamo mappare quali proteine sono interessanti tra il gel trattato e non trattato 
quantificazione relativa.

Steps analisi di immagine:


1.Spot Detection: rilevamento spot proteici
2.Background Substraction
3.Scelta del Reference Gel
4.Matching I: appaiamento in modo tale da dare coordinate univoche alle varie macchie
5.Costruzione del Master Gel: gel di riferimento
6.Matching II
7.Analisi Statistica

Per costruire il master gel di riferimento, si ottiene una sorta di condizione a media, non trattata,
andando ad analizzare tutti gli spot presenti nella prima condizione.
L’average media relativa a tutti gli spot è il numero di replicati definiti dagli operatori.
Le condizioni a e b medie sono date dagli spot presenti sulle 2 condizioni; nel master gel ci sono
tutti gli spot di a e quelli di b  il gel di riferimento mi dice tutte le posizioni rilevate dallo
strumento nello spot nelle 2 condizioni. Il master gel ci serve da griglia di riferimento.

1. Ci sono diversi tool per lo spot detection; l’algoritmo è il più possibile automatico e ci permette di
definire e modificare manualmente nel caso ci siano degli errori. Approccio automatico preferibile a
quello manuale per evitare gli errori.
Image master: nel rilevamento degli spot ho lo stesso tipo di gel con il livello di rilevamento dello
spot che aumenta la sensibilità da sinistra verso destra e dall’alto vero il basso.
Ultimo riquadro: sensibilità eccessiva, è il background quindi sono degli artefatti. Il programma
calcola la posizione dei vari spot e disegna le mappe di riferimento.
Con alcuni strumenti posso fare un profiling cioè si evidenziano delle sovrapposizioni tra gli spot,
separo le integrazioni tra i due picchi e poi vado a rilevarli.

2. -Approccio manuale: definiamo il valore della colorazione del background.


Altre modalità: - Lowest on Boundary: traccio una linea al di fuori del background, dove l’intensità
di pixel è più bassa;

- Average on Boundary: il valore di background è dato dal valor medio dell’intensità di quello che il
programma considera non-spot;
- Mode of non-spot: si prende un rettangolo definito all’intorno dello spot e si misura l’intensità di
pixel più ricorrente non appartenente ad uno spot  si fa la moda al posto della media.

3. Nella costruzione del master gel si fa riferimento ad un gel di riferimento, cioè si seleziona un gel
di riferimento che è la base del programma su cui costruisce il master gel e sarà scelto tra gli
average, in base a quello che ha più spot e si addizionano gli altri spot. Non è una costruzione
artificiosa ex novo.

4. Nel matching, il software prende la griglia di riferimento ed identifica gli spot; all’interno di
un’area di ricerca ci possono essere modificazioni dimensionali e quindi lo strumento deve essere
adattato.

5. La costruzione del master gel è quello che contiene tutti gli spot e può andare a ritoccare anche
gli spot che sono stati esclusi perché magari non rilevanti.

6. Definito il master gel si fa un secondo matching e si fa una quantificazione relativa: si definisce la


deviazione standard, r standard, cioè tutti i parametrici statistici di questa rilevazione quantitativa.
Total Spot Volume normalization: Si fa una normalizzazione sul totale degli spot, dividendo il
volume di ogni spot per il volume totale. Normalizzo in base alla colorazione; c’è un limite:
condizioni A e B prevedono che in uno dei due casi ci sia una diminuzione della sintesi proteica,
questa normalizzazione non va bene perché c’è un problema di quantificazione assoluta.
Spot volume normalization: il volume di ogni spot viene valutato per confronto con il volume noto
di un determinato spot.

7. Analisi statistica: metodo più classico è il t test. Il programma dà variazioni statisticamente


significative, utilizzando il P value, che è un metodo statistico basic: p è la probabilità dell’ipotesi
nulla.
Quando considero due serie di dati, l’errore dovuto alla variazione percentuale è spesso > 10% in
campo biologico: considero una serie di dati su due gaussiane diverse, su cui ho una dispersione
casuale sulle gaussiane o una distribuzione di una stessa serie che non è una gaussiana tipica  t
diventa tanto più grande quanto maggiore è la distanza e diminuisce in base all’ampiezza
dell’errore.
L’ipotesi nulla è che le serie dei dati siano diverse; più piccola è la probabilità p, più posso affermare
che sono diverse. Posso dire che sono diverse se la probabilità è inferiore a 0.05; se avessi p=0.06,
le serie non sarebbero diverse. Considero due serie di dati: ad esempio z<0.05 e y<0.001: y è
migliore perché ho la probabilità più bassa, e sono significativamente significative entrambi.
Analisi statistica però non è sufficiente, ecco perché si considerano solo raddoppi o dimezzi di
volume, a patto che p sia minore di 0,05.
Identificato lo spot di interesse devo sapere che proteina è: si ha un’analisi dimensionale a partire
da un gel, identifico gli spot e poi li analizzo tramite spettrometria di massa o microsequenziamento
secondo la degradazione di Edman, ormai quasi abbandonata perché la resa è bassa.
MS applicata alla proteomica mi permette di fare 2 identificazioni: in massa usando MALDI-TOF o
spettri in tandem MS-MS, che mi permette di ottenere la sequenza della proteina: lo spot su gel è
ritagliato, viene digerito dalle proteasi (normalmente pepsina) e mi permette di ottenere peptidi
(MALDI-TOF mi fa ottenere il peptyde finger prints) e ne analizzo la massa.
Analisi MS-MS fatta con quadrupoli: esistono delle frammentazioni peptide per peptide, si usano
delle trappole ioniche per selezionare i frammenti e posso avere informazioni dei peptidi, ma anche
sulla massa dei singoli aminoacidi perché l’electrospray ha come sito di frammentazione il legame
peptidico.

Tecnica alternativa: DIGE; limite della


tecnica vista è che dobbiamo fare più
replicati tecnici per comparare le condizioni
A e B (dove si fanno replicati biologici,
almeno 3 volte) e quando devo preparare
dei gel ho dei problemi di matching degli
spot.
La dige è una tecnica alternativa che tenta di
bypassare questi limiti tecnici: si
confrontano le condizioni 1 e 2, marcando le
proteine (tutto il proteoma è estratto con il
metodo precedente) con dei fluorofori
(cianine): è una marcatura per legami
covalenti (colorazioni sono differenti ma la reattività deve essere paragonabile), tuttavia non tutte le
proteine saranno marcate perché dipende dalle caratteristiche. Si diminuisce un po’ la complessità;
mescolo gli estratti proteici e li separo su un unico gel; posso eccitare alla lunghezza d’onda prima di un
fluoroforo e poi dell’altro e posso sovrapporre poi le due immagini: le immagini di sovrapposizione sono
sullo stesso gel.

Per identificare lo spot proteico posso usare la spettrometria di massa o il sequenziamento aminoacidico,
in cui il gel deve essere trasferito su una proteina da blotting, come il western blotting, cioè la PVDF, che fa
da supporto solido per la degradazione di Edman.
La sequenza proteica è ricostruita e posso inserirla nel database con il codice ad una lettera degli
aminoacidi e si può avere un matching perfetto vista la vasta disponibilità di genomi sequenziati; se non ho
un matching perfetto con la banca dati posso fare un allineamento con alcune sequenze di proteine che ci
assomigliano.
L’approccio proteomico è una disciplina post-genomica: è più facile sequenziare il DNA che una proteina,
dal punto di vista tecnico, per questo ci sono più discipline genomiche che proteomiche.
Da una proteina sconosciuta possiamo avere delle informazioni; bisogna quindi capire se la proteina ha una
funzione correlata al differenziamento e può essere un marcatore di patologie.
Esempio di mappature:

Le mappature sono fatte su cellule di interesse, come le


piastrine e gli epatociti. Ogni spot è stato identificato; esistono
dei depositi di mappe di riferimento e se riproduciamo lo stesso
protocollo con la stessa mappa, abbiamo l’identificazione della
proteina.
Nella foto ci sono più spot associati all’albumina, ci sono dei
trenini di spot, cioè spot associati alle stesse proteine: hanno
stesso peso molecolare, ma punto isoelettrico diverso  la
sequenza del DNA che codifica con una proteina non è
sufficiente al 100% per dirmi com’è fatta la proteina.

Es. insulina: 2 catene tenute insieme da un ponte disolfuro, ma il gene è uno solo: è prodotta con un
peptide aggiuntivo che collega due regioni tramite un loop, che poi viene tagliato via  sono modifiche
post-traduzionali (come la glicosilazione successiva: può cambiare il punto isoelettrico, se ci sono dei
derivati, e determina anche il cambiamento di un peso molecolare; la fosforilazione della proteina ha un
significato funzionale molto elevato, il peso molecolare cambia poco ma cambia moltissimo il pI e ottengo
questi trenini di spot).
L’analisi bidimensionale serve quindi per le modifiche post-traduzionali, per vedere se sono più o meno
fosforilate, ed è una cosa studiata dalla proteomica, mentre nella genomica non potevo studiarla  ho
informazioni aggiuntive.

07-11

ANALISI DI PROTEINE

Come identifichiamo le proteine importanti per la proteomica e quali informazioni possiamo recuperare?
Due tecniche: microsequenziamento con la degradazione di Edman o metodi di spettrometria di massa che
sono anche applicati alla proteomica, indipendente dall’analisi con l’elettroforesi dimensionale; esistono
quindi dei metodi di gel free in cui la massa viene direttamente applicata per lo screening su campioni
complessi in cui si vuole identificare la mappatura proteomica.
Si sta abbandonando l’elettroforesi bidimensionale perché lo screening non è molto rapido.

Per analizzare la proteina dopo l’elettroforesi bidimensionale o per ricavare informazione sulla sequenza
(che è l’unica cosa che si mantiene dopo la denaturazione) è necessario ottenere frammenti più piccoli e
posso usare metodi chimici o enzimatici:
- il primo avviene con degradazione tramite idrolisi acida, ma non ho informazioni di sequenza, ma solo
sugli aminoacidi, a meno che non usi il bromuro di cianogeno  reagisce con una metionina, lo S rende
labile il legame con il carbonio alfa e si stacca il CH2  si crea un gruppo reattivo con il metilene: il
carbossile della metionina subisce un attacco e si forma un lattone (omoserina lattone), a scapito del
legame peptidico. Tutti i peptidi formati dal bromuro quindi terminano con l’omoserina lattone e l’aa
successivo sarà con la metionina.
Il beta mercaptoetanolo scinde i ponti disolfuro, come nell’ SDS-PAGE; per evitare che questi ponti disolfuri
si riformino si usa l’acido performico o la iodoacetammide.
Tutto questo spezzetamento serve per ottenere dei frammenti di peptidi che poi possiamo andare a
studiare.
- Un altro metodo applicabile è la degradazione enzimatica con delle proteasi: si usa soprattutto la tripsina
che scinde il legame peptidico in siti preferenziali, infatti riconosce la lys o arg nel residuo R1 e scinde il
legame peptidico immediatamente successivo: quindi si ha sempre lys o arg come terminale, eccetto per un
C terminale.
Si usano anche altre proteasi, come la chimotripsina (riconosce aa aromatici o idrofobici) o la proteasi V8
(ha specificità di riconoscimento per gli acidi); la specificità verso una proteina è data dalla struttura
dell’enzima. Tutte le proteasi hanno un sito attivo con i 3 residui catalitici, ma soprattutto hanno una tasca
che ospita la catena laterale, orientando il legame peptidico di fronte alla triade catalitica  il legame
peptidico è orientato in modo specifico mentre la tasca ancora il residuo aminoacidico, in questo caso
quello che dona il carbossile. Viene ancorato perché al fondo della tasca c’è un residuo di acido aspartico
che riconosce il residuo di arg o lys, bloccandola (q- e q+).

DEGRADAZIONE DI EDMAN

Quello che ci serve è ottenere peptidi analizzabili successivamente: l’unico metodo per degradare le
proteine è la degradazione di Edman, un metodo chimico che viene fatto su supporto solido, su cui si
immobilizza la proteina intera o una parte della proteina.
La degradazione parte sempre da un N-terminale, cioè dal primo aa e se ho una proteina intera, ottengo
informazioni sulla sequenza.
Se la proteina o il peptide è in soluzione, devo comunque farla adsorbire sul disco di materiale polimerico,
per avere un supporto.
Se ho la proteina intera, immobilizzata sul disco, la quantità che abbiamo su uno spot è sufficiente a
effettuare queste analisi; fasi:
1. COUPLING: si usa il fenilisotiocianato che interagisce con il primo residuo aminoacidico, avendo un
atomo di C fortemente positivo, e si lega sul primo gruppo libero, cioè l’N-terminale  si ottiene un
fenilcarbammidico.
C attacca il primo N, si interrompe il doppio legame e si forma questo primo addotto che di fatto orienta
l’atomo di S molto vicino al carbossile del legame peptidico: S ha un doppietto disponibile e quindi può
attaccare il Carbossile, a scapito del legame peptidico.
2. CLEAVAGE: il fenilcarbammide non è stabile ma si riarrangia e si ottiene un feniltiocarbamoile, che è il
primo prodotto della degradazione; in più si forma una catena peptidica.
3. CONVERSION: Viene eliminato un H e il prodotto è la feniltioidantoina, corrispondente al primo aa.
Essendo aromatico, posso rilevare l’assorbimento e ogni feniltioidantoina avrà un assorbimento un po’
diverso perché dipende dal residuo.
Il prodotto si separa in HPLC, assorbe e posso identificare il primo aa che si stacca.
Ogni ciclo si ripete più volte.
I tempi di ritenzione sono diversi perché dipendono dai residui; la reazione non ha il 100% di resa perché
non tutti i passaggi hanno la resa massima e ci sono molti step.

Alla fine della degradazione posso ottenere la sequenza N-terminale, ma se ho delle modifiche post-
traduzionali non posso ottenerla perché l’N è bloccato e non si può operare (esistono delle modifiche nelle
proteine ma anche modifiche dovute ai trattamenti).
Si ottiene una proteina e la si confronta con la banca dati  si può ottenere un matching del 100 % o posso
avere una somiglianza quindi si ipotizza un’omologia di sequenza e di funzione; l’omologia di sequenza si
calcola con la presenza di aa simili (l’identità si calcola con gli stessi aa nella stessa posizione).
Se l’identità è molto bassa, molto probabilmente non è la mia proteina. Per questo si producono più peptidi
tramite HPLC e si sequenziano, in questo modo non studio solo gli N-terminali.
(SLIDE 22) È ciò che è stato fatto con l’insulina, Il cui gene è stato il primo sequenziato, ma si è prodotta la
pro-insulina, una molecola da cui l’insulina deriva, perché l’insulina è processata da post-traduzioni e viene
ritagliata: la pro-insulina è una molecola molto lunga.
Non tutte le sequenze N-terminali iniziano con la metionina, perché in alcune proteine è rimossa da
modifiche post-traduzionali.
Problemi: per riuscire ad avere informazioni devo riuscire ad interrompere i ponti disolfuri con B-
mercaptoetanolo o tritolo e poi li blocco con un agente ossidante che li trasforma in gruppi SO3-.
Nell’insulina ho dei ponti inter-catena che diventano poi intra-catena; in questo modo si ottengo 2 peptidi
diversi, ognuno dei quali viene sequenziato: so che sono diversi perché avrei 2 picchi facendo la
degradazione di Edman.
Le catene sono abbastanza corte, ma tramite la tripsina le scindo in più punti ed ottengo 3 peptidi diversi
(uno molto corto, perché ho lys e arg), da cui posso avere il sequenziamento. Non so però come metterli in
ordine: posso utilizzare un’altra scissione, chimica o enzimatica, ad esempio con la chimotripsina 
ottengo un primo peptide che continua con la leucina e l’altro peptide più corto ha un’alanina: ricostruisco
la sequenza.
Devo fare più scissioni con dei metodi diversi per ottenere dei frammenti e riuscire poi a ricostruire
l’ordine.
Se ho proteine più complesse è ancora più complesso.

La conoscenza delle sequenze aminoacidiche, anche breve, mi permette di conoscere il gene e con la
conoscenza di un breve peptide, posso sintetizzarlo in vitro per ottenere degli anticorpi che saranno poi
analizzati con la tecnica di immunoaffinità.
Sintesi dei peptidi avviene in fase solida: parte dal C-terminale ed aggiunge vari amminoacidi utilizzando dei
gruppi bloccanti. La reattività è dovuta al fatto che i gruppi che reagiscono sono modificati dalla
dicicloesildicarbodiimmide, che consente la coniugazione dei vari aa.
Sintesi in vitro avviene all’opposto che nella cellula, a partire dal C-terminale verso l’N-terminale.

Esistono tecniche fotolitografiche che sbloccano gli agenti bloccanti attraverso


irraggiamento e si creano delle nanostrutture: c’è la differenza di un solo aa. Alcuni
anticorpi riconoscono solo alcuni peptidi; la tecnica è fatta per fluorimetria.

SPETTROMETRIA DI MASSA

MS ha dato un buon contributo alla proteomica. Sono stati elaborati strumenti più compatibili con le
possibili frammentazioni, quindi l’elettrospray non era più fattibile.
MALDI-TOF mantiene l’integrità della proteina, è desorbita come specie monocarica ed è facilmente
identificabile; è la miscela dei peptidi che viene assorbita, grazie ad esempio la degradazione tramite la
tripsina. Ho una famiglia di analiti monocarichi che vengono assorbiti tramite il rapporto m/z:
questa tecnica è detta 1. PEPTIDE MASS FINGERPRINT  ottengo delle masse molecolari corrispondenti ai
peptidi. Conoscendo già il genoma, è possibile calcolare i punti di frammentazione della proteina e i pesi
molecolari se noi la tripsinizziamo; i mw sono calcolati dallo strumento e sono specifici per le proteine. Ho
una bassissima probabilità che due pesi molecolari siano simili per due proteine diverse.
Se ho sostituzioni con aa simili, è possibile che non diano un matching esatto, ma basta il 30% per
identificarle.
2. Se sto sequenziando una proteina e non ho la sequenza nel database, a meno che non sia simile ad
un’altra e dia comunque un buon matching (è quindi una proteina omologa), questo metodo non funziona.
Uso allora una tecnica di tandem massa, cioè la PEPTIDE FRAGMENTATION (MS-MS): prima frammento
tripsinizzando con il fingerprint e poi frammento con l’elettrospray; si agisce quindi sul legame peptidico.
Tutti i legami peptidici sono sensibili e nello spettro di massa ottengo dei picchi corrispondenti agli ioni e
avrò sempre una differenza di massa tra uno ione e quello successivo che sarà pari al peso molecolare
dell’amminoacido (a parte leucina e isoleucina, gli aminoacidi non hanno lo stesso peso molecolare).
Se il mw che io leggo è quello di ser+fosforile, so che la serina è stata fosforilata, quindi posso sapere se gli
aminoacidi hanno subito modifiche.
Posso ottenere quindi le sequenze e le informazioni sulle modifiche post-traduzionali.

Es. percentuale di coverage del 23%: 8 possibili proteine su 40 identificate, quindi è bassa.
Tanto più alto è lo score, maggiore è la probabilità.
Esempi sui vari programmi e modifiche possibili (si può dire se c’è una q + o -, se ci sono degli isotopi, se la
proteina è stata digerita, dire se le cys sono state modificate, scegliere di dare una tolleranza e dire che la
tripsina salti dei siti di taglio).
Possiamo avere dei programmi che considerano di avere modifiche polisaccaridiche: N-linked o O-linked,
quindi con la sequenza consenso dell’arginina o sequenze non-consenso.
Si passa dalla proteomica alla glicoproteomica perché analizziamo glicoproteine.

Tecnica di massa non è del tutto quantitativa, ma se ho bisogno di confrontare frammenti o proteine
analoghi con una quantificazione che sia più affidabile e ci permetta di bypassare l’elettroforetica uso altre
tecniche, come la TECNICA ICAT (Isotope Coded Affinity Tag) che mi permette di non usare tecniche
elettroforetiche prima e si basa sul principio di marcare le proteine con 2 tipi di sonde, o tag, una leggera ed
una pesante; sono costituite da una regione linker e una di tagging, che contiene la molecola della biotina
(vit H) che viene riconosciuta con altissima affinità dalla vidina. L’interazione tra le 2 molecole serve ad
identificare e separare i peptidi che sono stati marcati. C’è un’interazione con i gruppi sulfidrilici e una
promozione del legame covalente: in un caso la sonda ha isotopo H mentre nell’altro ha D; abbiamo una
differenza netta di 8 unità di massa atomica.
Quando la differenza in uma è così piccola, i frammenti e l’analisi degli ioni che si formano, ci garantiscono
che il comportamento in resa e in ms, e il picco, siano confrontabili nei 2 casi.
L’approccio è di prendere 2 diversi stati: si fa una mappatura dello stato 2 marcato con l’ICAT pesante
mentre lo stato 1 con ICAT leggera; le sonde non marcheranno tutte le proteine ma solo una certa
popolazione  avrò uno snapshot del proteoma uguale per la proteina 1 e 2.
Dopodiché sulle proteine marcate posso fare una proteolisi che mi darà alcuni frammenti marcati che
saranno equivalenti nello stato 1 e 2; sono poi isolati e, utilizzando il tag della biotina, permette di separarli
da tutto il resto: su ciascuno di questi peptidi posso quindi fare un’identificazione perché c’è una netta
differenza tra quelli marcati dalla sonda 1 e quelli marcati dalla sonda 2.
Avranno lo stesso mw tranne quello aggiunto dalla sonda. Ottengo dopo uno spettro:
Il peptide a non mi interessa perché c’è poca differenza in altezza, quello b
sì, quello c no, quello d più o meno perché non ho grandi differenze, quello e
sì perché diminuisce notevolmente, peptide f sì perché è quasi il doppio,
peptide g no.
La sequenza del peptide è analizzata da un database per identificare la
proteina. Con la tecnica MS-MS faccio l’identificazione.
ICAT riduce la complessità.
Esistono varianti, come l’ICAT: ICPL, dove vengono marcate le lisine, che
sono più abbondanti e gli N-terminali, che mi danno spettri più complessi ma più completi.

Approccio SHOTGUN: si combinano gascromatografia LC-LC (cromatografia liquida bidimensionale) o


gascromatografia MS-MS. La cromatografia liquida permette di separare in base all’idrofobicità, oltre alla
carica e alla massa. Analizzando proteine e peptidi con le tecniche cromatografiche, al posto di quelle
elettroforetiche, ho una ripartizione tra MP e SP, che ha una serie di varianti, quindi potrei usare anche
tecniche liquide in 3D e 4D, perché separo in base a diversi criteri; ho classi sempre più semplici e poi le
analizzo cromatograficamente.
L’analisi primaria è stata effettuata sulle proteine del cristallino, digerendole con 3 proteasi, una specifica e
2 aspecifiche, e si generano peptidi con parziale sovrapposizione. Sono poi stati analizzati
cromatograficamente e l’analisi è stata fatta identificando le modifiche post-traduzionali (PTM), con
particolare riferimento alla fosforilazione, perché è responsabile di molte patologie tumorali.

Articoli caricati sono esempi sui protocolli.


10-11

SPETTROFOTOMETRIA: APPLICAZIONI ALLO STUDIO DELL’ATTIVITÀ ENZIMATICHE

La spettrofotometria è molto usata anche per l’attività enzimatica; lo studio dell’attività enzimatica,
attraverso dei metodi di isolamento della forma attiva dell’enzima che viene purificato, avviene attraverso
metodi cromatografici e può permettere di studiare non solo gli enzimi, ma anche analiti.
Se si ha un’assorbanza, la spettrofotometria è un metodo molto rapido per conoscere la concentrazione
delle proteine.
Nel rilevare la formazione di un prodotto, bisogna verificare che l’attività enzimatica sia specifica
dell’enzima che ci interessa e che non ci siano reazioni aspecifiche: classico caso è la rilevazione di
un’attività enzimatica di un enzima in una miscela complessa dove valuto la concentrazione di acido
piruvico che si forma nel tempo: questo acido si può formare in seguito all’attività di diversi enzimi, quindi
quando vado a fare le analisi spettrometriche devo accertarmi che l’enzima sia di mio interesse.
Quando si usa un saggio enzimatico per rilevare un analita, bisogna essere sicuri che nel campione non ci
siano delle sostanze che possano denaturare l’enzima stesso.

Quando abbiamo visto l’attività degli enzimi in elettroforesi non denaturante, abbiamo visto la tirosinasi e
la reazione del dopacromo: la tirosinasi ossida la diossifenilalanina in dopachinone, che spontaneamente si
riaggiusta e forma un cromoforo, il dopacromo, che è il precursore delle melanine. Il dopacromo ha una
colorazione rossa quindi, se è presente, c’è un incremento di assorbanza nella regione del 476 nm.
Se non è presente, si ha un picco solamente a 270 nm, dato dal carbossile.

SAGGIO VISTO IN LABORATORIO: trasformazione del metilcatecolo, o catecolo o 4-Clorocatecolo, in un altro


prodotto: l’enzima catecolo deidrogenasi può catalizzare una reazione che dipende dalla presenza di
ossigeno molecolare, che funge da substrato: viene scisso il legame e si inseriscono i 2 ossidrili derivanti
dall’ossigeno; si ha Fe (III) come catalizzatore e quello che si forma è l’acido cis, cis-muconico: se si idrogena
in modo esauriente si ottiene l’acido adipico.
Il catecolo si forma spesso come intermedio nella degradazione degli aromatici.
Il catecolo, o metilcatecolo, si forma in un conato: aumenta un picco tipico a 260 nm, tipico del derivato
muconico. L’assorbimento del muconato è molto maggiore: c’è un fattore 1:10 di assorbanza tra il catecolo
e il muconato  non sono necessarie ulteriori reazioni con molecole clorogeniche o fluorogeniche, si rileva
direttamente la formazione del prodotto tramite spettrometria (UV o nel visibile) ed è una reazione molto
veloce.

Reazioni enzimatiche molto utilizzate non prevedono il monitoraggio della formazione del prodotto ma di
co-substrati associati alla reazione e il più utilizzato è il NAD: ha una forma ossidata e una forma ridotta.
Nell’esempio l’alcol deidrogenasi 1, ADH1, tipica dei lieviti di birra, converte l’acetaldeide in etanolo 
conversione di riduzione del substrato si accoppia all’ ossidazione del cofattore.
Nel nostro fegato la reazione è più spostata verso sinistra: per rilevare la presenza di etanolo si può
utilizzare l’ADH che riconosce questo co-substrato e ossidando l’etanolo, si forma del coenzima piridinico
ridotto, che ha un assorbimento a 340 nm che quello ossidato non ha (hanno entrambe comunque
assorbimento 280).
Bisogna contare la specificità; questa reazione è molto utilizzata per rilevare la presenza dell’alcol in un
etilometro. 340 è un po’ al confine tra il visibile e l’UV.
Il NAD ridotto ha anche una fluorescenza, ma è meno quantitativa: si hanno fenomeni di quenching, dà
saturazione e i fluorimetri sono poco diffusivi, quindi la rilevazione fluorimetrica è poco usata, a meno che
non si abbiano problemi di sensibilità.

Con l’attività enzimatica si può misurare l’attività specifica di un enzima: valuta l’attività e la purezza di un
enzima, ed è correlata al numero di turnover e alla costante catalitica.
Metodi di rilevamento del glucosio, per esempio ematico, sono un accoppiamento di studi dell’attività e di
metodi spettrometrici: esochinasi riduce ATP ad ADP + reazione accoppiata che forma NADH. L’esochinasi
ha un’attività specifica.

Alla formazione di NAD ridotto si possono associare delle reazioni, basata in questo caso sulla rilevazione di
un altro analita (difosfoglicerato) e il NADPH non è rilevato direttamente a 340 nm ma è usato accoppiato
ad un’altra reazione: porta alla formazione di un altro prodotto con una colorazione visibile a 412 nm.
Reazione enzimatica specifica aumenta il riconoscimento.
Es. articolo propone un enzima artificiale, con struttura polimerica, a stampo molecolare, che riproduce una
struttura simile ad un enzima, con una tasca specifica di riconoscimento per il 5-hydroxyindole-3-acetic
acid, un marcatore di cellule tumorali nelle urine. L’analita viene riconosciuto dal polimero, che è stato
associato ad un’attività enzimatica che si manifesta quando si lega al substrato ed è associato all’attività
vista nell’eme, perossidrogenasica.

ENZIMOLOGIA (prima delle due domande d’esame)

Per le lezioni successive fare riferimento al libro Copeland.

Caratteristiche: abbiamo in alcuni casi la presenza di cofattori, metallici o vitaminici, associati alla
componente proteica nella forma di oloenzima, e si ottiene un gruppo prostetico o un cofattore, che non fa
parte della catena polipeptidica, ma è associato con interazioni deboli o legami covalenti.
Gli enzimi sono classificati sulla base della loro attività in 6 classi:

Idrolasi non necessitano di cofattori, ma si basano su reazioni di idrolisi catalizzate; le reazioni delle liasi
sono reversibili e possono portare anche alla formazione; le isomerasi sfruttano reazioni che poi risultano in
una isomerizzazione; ligasi sono reazioni endoergoniche e quindi necessitano di alta energia, per questo
sono delle condensazioni.
Ciascun enzima ha una classificazione a 4 numeri, si chiamerà: EC: primo numero indica la classe +
sottoclasse + sotto-sottoclasse + il numero identificativo dell’enzima.
L’ADH si chiama EC1111 perché è stato il primo enzima studiato.

Ogni enzima è caratteristico e deve la sua alta specificità alla presenza di un sito attivo che è definito dalla
presenza degli aminoacidi che contornano la cavità: danno riconoscimento idrofobico, idrofilico, cariche + e
-, forniscono legami idrogeno specifici che switchano, possono dare conformazioni differenti e hanno
mobilità diversa.

Come tutti i catalizzatori, non toccano né l’E di partenza del substrato né l’E di arrivo dei prodotti ma
influenzano l’E dello stato di transizione, che viene abbassata favorendo la formazione del complesso.
Si abbassa il ∆G dello stato di transizione, e l’energia di attivazione determinata dall’enzima è definita
−∆𝐸
dall’equazione di Arrhenius: 𝑘 = 𝑘𝑜 𝑒 ⁄𝑅𝑇 .
∆G è legato alla costante di equilibrio: ∆G = -RTlnKeq, dove Keq= [prodotti]/[reagenti], mentre il ∆G è dato
dalle componenti ∆H e ∆S ed è più difficile calcolarlo: ∆G=∆H-T∆S.
∆G=-RTlnKeq/RT
∆G=(∆H-T∆S)/RT
Quindi: lnKeq= (-∆H/RT) + (∆S/R) che equivale all’equazione di una retta, dove y=lnKeq, a=∆H/R, x=1/T e
b=∆S/R.
Di fatto possiamo misurare il ∆S e il ∆H dall’intercetta e dalla pendenza di una retta.

Gli enzimi non cambiano la termodinamica della reazione se non per l’aspetto correlato al ∆G di reazione,
che è una barriera cinetica. Cambia l’altezza della barriera che potrà essere superata ma in tempi molto più
lunghi. Quindi vanno ad influenzare la velocità, cioè il rate della reazione.
Alcuni catalizzatori sono molto performanti e si adattano alla forma del substrato, stabilizzando alcune
interazioni.

Tre esempi:
-reazione non catalizzata
-reazione catalizzata da un enzima complementare al
substrato: si forma velocemente il complesso enzima-
substrato, ma poi la formazione dello stato di
transizione ha una barriera molto alta. Avrò quindi
un’ottima binding-protein, cioè una proteina di legame,
ma questo legame resta rigido.
-reazione catalizzata da un enzima complementare allo
stato di transizione (TS): favorisce la formazione del
complesso, ma facilita soprattutto la formazione dello
stato di transizione, che poi sarà più simile alla forma
dei prodotti.
Gli enzimi che funzionano meglio sono quelli più
complementari al TS.

Esempi degli enzimi che possono catalizzare la reazione: fosfato isomerasi catalizza la reazione di
isomerizzazione della gliceraldeide-3-fosfato a diidrossiacetone fosfato, una reazione classica della glicolisi.
Nel caso di reazioni con due substrati abbiamo una reazione di secondo ordine mentre le reazioni
monomolecolari sono di primo ordine.
Normalmente la reazione misurata nei sistemi enzimatici, cioè la costante catalitica, è di primo ordine,
mentre quella di specificità è di secondo ordine.

Anche le reazioni enzimatiche sono spesso basate sul coinvolgimento di gruppi acidi e basici e sono reazioni
sostenute dalle catene laterali degli aminoacidi (lys, arg, cys, ser e tyr): la ser per dissociarsi deve avere
un’interazione molto stretta con altri aminoacidi perché ha una pKa di 16, altrimenti l’OH si stacca
difficilmente, l’Arg ha pKa intorno a 10; gli altri aa hanno generalmente pKa intorno a 4.

La modalità di misurazione della velocità prevede di calcolare la velocità iniziale, cioè si misura la
concentrazione dei prodotti che varia nel tempo. Per assicurarsi che la velocità iniziale sia istantanea si
misura il rate di produzione del substrato, prendendo la tangente alla curva nei primi secondi della
reazione.
Ci sono reazioni molto veloci in cui il tempo di misurazione dello spettrometro non è sufficiente: sono
reazioni allo stato stazionario che rispecchiano Michaelis-Menten.
Il modello di Michaelis-Menten prevede una relazione tra la concentrazione del substrato e la velocità
iniziale che definisce un’iperbole.
Negli enzimi in cui c’è inibizione da substrato, ci sono effetti cooperativi nelle proteine di legame e nelle
proteine catalitiche e c’è disomogeneità delle caratteristiche dei siti attivi; il modello di Michaelis-Menten
non è corretto.

Metodi di linearizzazione matematica permettono di rielaborare un’equazione iperbolica in una lineare.


Svantaggi della linearizzazione: in alcuni casi i dati sperimentali evidenziano i comportamenti del dato
stesso, soprattutto per gli inibitori reversibili.
LINEARIZZAZIONE DEI DOPPI RECIPROCI: è valida per determinare la velocità massima.
LINEARIZZAZIONE DI EADIE-HOFSTEE
LINEARIZZAZIONE DI HALDANE

Km degli enzimi sono nell’ordine del μM: 108 è un valore troppo alto. Il catecolo ha Km intorno ai 4μM.
Per uno stesso enzima posso avere diverse Km perché sono legate alle costanti di affinità degli enzimi e alla
velocità di decadimento del complesso enzima-substrato. Più Km è piccola, maggiore è l’affinità per il
substrato.

Un altro parametro da tenere in considerazione è il numero di turnover, detto anche kcat (costante
catalitica) che indica la FREQUENZA di reazione, cioè il numero di volte in cui ho una reazione catalizzata dal
sito attivo dell’enzima. Ci sono valori molto diversi: una reazione ogni 2sec, ogni 6sec, ogni 32 sec…
La kcat è una costante di primo ordine ed è una costante cinetica, mentre la Km è termodinamica.
(N.B. SCRIVERE kcat MINUSCOLO E Km MAIUSCOLO)
Un enzima è più performante se ha una Km più bassa perché può riconoscere concentrazioni di substrato
più basse ed essere già a metà della reazione  una combinazione di Km e kcat dà la costante di specificità,
che è una costante di secondo ordine ed indica il substrato su cui l’enzima dà la migliore performance.
kcat/Km arriva fino a 108 ed è ciò che fa la differenza; la costante di specificità è paragonabile al limite di
diffusione, un limite determinato dal coefficiente di diffusione in soluzione acquosa: ogni volta che l’enzima
incontra una molecola di substrato al limite della diffusione, avviene la reazione.

Ci sono 2 classi di INIBITORI: REVERSIBILI e IRREVERSIBILI  sono molto importanti nella regolazione
enzimatica e nei farmaci.
INIBIZIONE COMPETITVA: somiglianza tra inibitore e substrato; il sito di legame tra i due è simile.
INIBIZIONE ACOMPETITIVA (UNCOMPETITIVE): il legame dell’inibitore richiede la formazione del complesso
enzima-substrato. Il sito di riconoscimento dell’inibitore è specifico solo dopo che si è legato il substrato.
EFFETTO MISTO: il legame dell’inibitore è indipendente dal legame del substrato e quindi si può legare sia
che l’enzima sia già legato al substrato, sia che non lo sia. Un caso particolare è quello in cui il legame
dell’inibitore avviene sull’enzima libero e sull’enzima già legato al substrato: questo vuol dire che il
substrato non cambia significativamente il sito della struttura dell’inibitore, quindi le due costanti di legame
sono simili  la caratteristica è un’INIBIZIONE NON COMPETITVA, in cui si definiscono due costanti, una
della formazione del complesso ENZIMA-INIBITORE e una di quello ENZIMA-SUBSTRATO-INIBITORE (dal
punto di vista numerico sono uguali).

C’è una correlazione tra costante di inibizione (KI) e EC50 dei farmaci.

14-11

CINETICA ENZIMATICA

La costante di velocità di una reazione di ordine zero è costante ed è indipendente dal substrato; in una
reazione di primo ordine la velocità dipende da k e dalla concentrazione istantanea (bisogna derivare con
equazioni differenziali); nelle equazioni di secondo ordine v dipende da k e dai prodotti dei substrati, o dal
quadrato della concentrazione se è una reazione bimolecolare.
Ordine zero: v=kvel (unità di misura variazione di concentrazione/s(min))
Espresso in funzione del tempo: (dx/dt)=k  [x]=kt, dove x è la concentrazione del substrato
Ordine I: v=kvel*[A]  s-1 (min-1) (espressa in funzione del tempo ho una funzione logaritmica)
Ordine II: v=kvel[A]2 (M-1s-1)

Spesso si definiscono costanti di primo o pseudoprimo ordine. La velocità massima è una costante di
velocità assimilabile a quella di ordine zero, kcat è una pseudo primo ordine, mentre la costante di
specificità è una secondo ordine.

Come misurare kvel?


Ho un’assunzione dello stato stazionario: il modello è di Michaelis-Menten. Ho un enzima, un substrato, un
complesso enzima-substrato che, tramite transizioni e stati intermedi, ridà l’enzima ed un prodotto.

Si assume che ES  E+P non sia reversibile.


L’assunzione dello stato stazionario si riferisce alla concentrazione del
complesso ES, che non varia: si forma inizialmente ES e nel tempo, risulta
essere costante. Aumenta la concentrazione dei prodotti mentre decade il
substrato.

PRIMA ASSUNZIONE: stato stazionario, che ci guida nel modello matematico che tiene in conto tutte le
costanti di velocità k1, k-1 e k2.
Si parte dall’assunzione che tutte le reazioni hanno una velocità.
[E]=e [S]=s [ES]=c
VELOCITA FORMAZIONE COMPLESSO: v1=(e-c)(s-c)*k1
VELOCITA DECADIMENTO SUBSTRATO: v-1=k-1*c
VELOCITA FORMAZIONE PRODOTTI: v2=k2*c

Facciamo una prima assunzione dello stato stazionario: la concentrazione c è costante  velocità di
formazione del complesso = velocità di decadimento  v1=v-1+v2  (e-c)(s-c)*k1= (k2 + k-1)*c

SECONDA ASSUNZIONE: e è molto piccola perché è una concentrazione catalitica quindi anche c sarà più
piccola rispetto ad s: e <<s; c<<s.
Se s è molto maggiore (almeno un eccesso di minimo 100 volte) posso semplificare l’equazione:

(e-c)*s*k1=c(k-1 + k2)

Divido tutto per k1: (e-c)= c*Km dove Km è la costante di Michaelis-Menten  è assimilabile ad una
costante di dissociazione ma non lo è perché non misura l’affinità enzima-substrato.
È una costante termodinamica di equilibrio; si misura in Molare.

es -cs=c*Km  c(Km +s)=es

(e ∗ s)
Divido per Km+s: c= ⁄(Km + s)

Quello che a me interessa è la velocità quindi posso moltiplicare per k2, che è un insieme di costanti ed
approssima le microcostanti.
k2*c=(e*s*k2)/(Km+s)  Ottengo quindi la velocità MASSIMA di formazione del prodotto (e*k2), cioè tutto
l’enzima è impegnato a formare il prodotto.
Si osserva un andamento iperbolico con origine nel punto 0,0 e asintoto in vmax.
y=(a*x)/(b+x) eq. iperbole

Km: concentrazione substrato in cui ho la metà della vmax.


Se v= vmax /2:
vmax/2= (vmax *s)/(Km+s)  vmax *Km+ vmax *s=2 vmax *s
Semplifico vmax e ottengo: Km=s
Km è la misura della concentrazione necessaria per raggiungere
vmax.
vmax è una misura relativa; dipende dalla concentrazione
dell’enzima e non del substrato, quindi ho un perfetto ordine zero
 se dimezzo la quantità dell’enzima, dimezzo la vmax.
Posso esprimere k2 con kcat  vmax =k2*[e]
Se divido vmax per la [e] totale ottengo la costante di velocità:
k2=kcat.
kcat assimilabile ad una pseudo primo ordine perché assumo che le concentrazioni enzima- prodotto siano
assimilabili, cioè siano in quantità 1:1. Nell’unità di tempo misuro quante volte catalizzo la reazione, cioè
quando ho un rapporto 1:1  ecco perché kcat misura la frequenza di turnover.
Quindi kcat è una costante di pseudo primo ordine, ma nella curva bisogna considerare che abbiamo una
zona di ordine zero nel substrato e prima della Km ho ordine zero (s<Km).

Per analizzare queste equazioni si può fare una interpolazione lineare o linearizzare con i 3 metodi:

1. DOPPI RECIPROCI O LINEWEAVER-BURK

Si fanno i reciproci dei termini di destra e sinistra dell’equazione:


v=( vmax *s)/(Km+S), che diventa:

1/v = 1/s * (Km/ vmax) + 1/ vmax

Ed è l’equazione di una retta y=mx+n, dove: 1/v = y, 1/s = x, Km/


vmax = m, 1/ vmax = n

quindi Vmax = 1/n e Km = m * Vmax (oppure Km = m/n)

Sperimentalmente decido [s]; non ho più quindi un’iperbole: tutti


i punti ad alta velocità nell’iperbole vanno ad affollarsi a bassa
concentrazione nella retta.
Ho maggiori errori per i punti con bassa [S] e bassa velocità,
quindi ho una distorsione e possibilità di errori nell’accuratezza.

2. EADIE-HOFSTEE

È una modifica della prima, moltiplicando entrambi i termini per v* vmax.


Ottengo: v = -Km * v/s + vmax
che è l’equazione di una retta y=mx+n, dove v = y, v/s = x, - Km = m e vmax = n;
quindi vmax = n e Km = -m.
La retta ha un andamento tale da eliminare la distorsione dei dati: a basse
concentrazioni di s, ho basse concentrazioni di v.
Dà i risultati più affidabili, Km non assume mai valori negativi, solo la
pendenza è negativa.
I punti sono più dispersi e sono più casuali.

3. MANES

Ottenuta dalla prima moltiplicando per s:


s/v = s * (1/ vmax) + Km/ vmax
che è l’equazione di una retta y=mx+n, dove s/v = y, s = x, Km/ vmax = n,
1/Vmax = m.
Quindi vmax = 1/m e Km = n * vmax (oppure Km = n/m); pendenza
positiva e distribuzione più omogenea.

Ci aspettiamo una linearizzazione più corretta con il metodo dei doppi reciproci.
Per misurare Km devo avere un enzima purificato, prove a varie concentrazione di substrato, un metodo di
misura per misurare la produzione dei prodotti e poi si plottano i dati.

17-11

Es.2A: i dati sono gli stessi ma R^2 è un po’ diverso; con la terza linearizzazione otteniamo di nuovo un
grafico lineare.
Su Km ho le differenze maggiori.
Numero di turnover calcolato con la concentrazione dell’enzima: nmol/mL; divido per 1 milione e ottengo
concentrazioni dell’ordine dei pMolare.
TOF= n° di turnover o kcat = 46777.991

Cosa cambia se ho inibitori reversibili?


Per un inibitore reversibile l’interazione possibile molecolare può essere competitiva, in cui la struttura del
substrato è simile al sito attivo, acompetitiva, dove l’inibitore si lega ad un substrato già legato o mista.
Si fanno una serie di misurazioni variando il substrato in assenza di qualsiasi inibitore e misuro la velocità;
faccio poi le stesse misurazioni fissando l’inibitore ma modificando il substrato  decido quindi la quantità
di inibitore.
Misuro quindi i primi punti sperimentali e avrò risultati differenti a seconda dell’inibitore che ho.

PRIMA LINEARIZZAZIONE

1. Inibizione competitiva: stessa intercetta, ma cambia la


pendenza che aumenta con l’inibitore.
Rapporto tra le 2 pendenze mi dà B, quindi ricavo KEI. B ha
dimensione in molarità.

2. Acompetitiva: cambia l’intercetta: è maggiore quando i=x perché


A/vmax. ho la stessa pendenza. Il rapporto tra le intercette mi dà A.

3. Non competitiva: intercetta e pendenza sono diverse  dal rapporto


tra le pendenze ricavo B, dalle intercette ricavo A. Posso calcolare
quindi KEI e KEIS. Quando A e B sono uguali una retta ha caratteristica
specifica quindi l’intercetta su y diventa:
−1 −𝐴⁄
1⁄ = ⁄𝑣𝑚𝑎𝑥 = − 1  1⁄ = 𝑣𝑚𝑎𝑥 1
= − 𝐾𝑚 (essendo A e B
𝑠 𝐾𝑚⁄𝑣 𝐾𝑚 𝑠 𝐾𝑚∗𝐵⁄𝑣
𝑚𝑎𝑥 𝑚𝑎𝑥
uguali, semplifico)
SECONDA LINEARIZZAZIONE:

1. INIBIZIONE COMPETITIVA
Stessa intercetta su y

2. ACOMPETITIVA
B=1
Stessa intercetta su x (abbiamo diviso per lo stesso fattore), ma la
pendenza è minore

3. NON COMPETITIVA
Stessa pendenza perché A=B, ma la seconda intercetta è minore

TERZA LINEARIZZAZIONE

1. INIBIZIONE COMPETITIVA 2. ACOMPETITIVA (stessa intercetta su y) 3. NON COMPETITIVA

21/11

Es 2d: inibizione acompetitiva


2f: inibizione non competitiva

Pag. 286 Copeland: Grafici in funzione di I.

Pag. 288: è una curva dose-risposta  se la parte a destra non


tende a zero, abbiamo UN INIBITORE PARZIALE.
Esistono inibitori irreversibili che hanno lo stesso profilo quindi non
possiamo distinguere se sia un inibitore irreversibile o reversibile e
non si può dire se sia competitivo, non competitivo o acompetitivo.
Possiamo calcolare però EC50, che si riferisce alla concentrazione di
inibitore necessaria per raggiungere il 50% dell’inibizione; per gli
inibitori parziali si definisce il 50% dell’inibizione parziale o si va a calcolare la concentrazione finale, ma non
arriva mai a 0.
In enzimologia si misura EC50 avendo a disposizione la KI; a volta EC50 è uguale alla KI ed è l’equazione di
Cheng e Pruscoff. Per un inibitore competitivo, conta a che concentrazione del substrato ho operato.

In questo caso ho due concentrazioni di substrato diverse quindi


EC50 e KI non coincidono.
EQUAZIONE DI CHENG-PRUSCOFF per inibitori non competitivi (è
la più generale, quindi vale per inibizioni miste):

dove αKI=KEIS e KI=KEI. [S] è influenzato dalla KEIS mentre KI influenza KM.
Spesso abbiamo casi più particolari in cui abbiamo KEI e KEIS tende ad infinito (inibizione competitiva),
oppure abbiamo KEIS e KEI tende ad infinito (inibizione acompetitiva) oppure, in questo caso di competizione
mista, in cui KEI e KEIS sono molto simili tra di loro.

Nel primo caso ho un’uguaglianza matematica mentre nel secondo l’uguaglianza si verifica in seguito ad
un’approssimazione, quindi la condizione in cui s >> KM è da verificare.
Nel terzo caso devo verificare sia s che KM.

Se volessi valutare EC50 di un inibitore competitivo, potrei usare 2 concentrazioni diverse di substrato e
valutare che tutte due diano valori di controllo e il valore atteso (vedi curve del grafico precedente).

Il modello di Michaelis-Menten vale non solo per gli enzimi, ma anche per PROTEINE DI BINDING, quindi
per recettori, ormoni, proteine importanti dal punto di vista clinico, farmacologico, tossicologico e sono
spesso strumenti analitici perché legano con altissima affinità (es. legame con anticorpi).
Hanno equilibri che non sono catalitici quindi si definisce una KD.

La reazione tra proteina, p, e ligando, f(free), è:


P + L   PL
p f B (Bound)

Con lo stesso ragionamento di Michaelis-Menten, si deriva la relazione per il complesso proteina-ligando:

𝐹 ∗ 𝐵𝑚𝑎𝑥
𝐵=
𝐹 + 𝐾𝑑

dove Bmax è la concentrazione di legato massimo, cioè la massima concentrazione che possiamo avere,
[𝑃][𝐿]
quindi tutta la proteina è impegnata nel complesso; Kd è la costante di dissociazione (Kd= [𝑃𝐿]
).

È di nuova un’equazione di Michaelis-Menten, dove y=B e x=[F] e ho un


andamento iperbolico.
All’aumentare del ligando libero, ho un andamento che va a saturazione
quando non ci sono più proteine disponibili per fare il complesso, quindi
non ho libera circolazione. L’iperbole tende ad un asintoto che è Bmax e Kd
è il punto in cui ho metà della proteina legata.
Se c’è libera diffusione attraverso una membrana, ho un andamento
lineare.
Rispetto a Michaelis-Menten, la Kd in questo caso è pura, perché non contiene anche una costante cinetica.

Spesso ci interessa misurare Kd, per ligandi endogeni, ma anche per ligandi che vanno in competizione: i
ligandi AGONISTI hanno lo stesso comportamento di quelli naturali, mentre i ligandi ANTAGONISTI bloccano
e vanno in competizione con il ligando nello stesso sito.

Il problema è che andiamo a misurare un complesso, in cui la mia concentrazione della proteina non è
molto grande quindi non lo sarà neanche quella del complesso  non è facile misurarlo via
spettrofotometrica; posso studiare delle informazioni sul ligando solo se ho eliminato tutto il ligando libero
e non ho spostato troppo l’equilibrio, altrimenti causo una ri-dissociazione del complesso.
Ci sono delle situazioni in cui il ligando cambia le proprietà spettroscopiche delle proteine di legame.

28-11

𝐹 ∗ 𝐵𝑚𝑎𝑥
𝐵=
𝐹 + 𝐾𝑑

Anche in questo caso si possono usare delle linearizzazioni che sono le stesse 3 viste per Michaelis-Menten,
ma ce n’è una quarta che deriva dalla seconda ed è la linearizzazione di Scatchard: prendiamo la 2°
linearizzazione e scambiamo le variabili, quindi consideriamo come variabile y=B/F e x=B.

2° linearizzazione: B= -KD * (B/F) + Bmax

𝐵 1 𝐵𝑚𝑎𝑥
Linearizzazione di Scatchard: 𝐹
= − 𝐾𝑑 ∗ 𝐵 + 𝐾𝑑

La retta ha pendenza negativa per far assumere valore positivo alla KD; estrapolando il valore delle
intercette ottengo Bmax.
Viene usata quasi esclusivamente la linearizzazione di Scatchard.
L’andamento dell’equazione diretta è un’iperbole ed è lo stesso
andamento iperbolico del legame della mioglobina.

Come si misurano le variabili? Nell’enzimatica, misuro la


concentrazione di prodotto, che comunque si accumula nel tempo,
mentre in questo caso, questo è possibile solo se ho B nettamente
inferiore a F, ma se B, e quindi anche Bmax, è molto piccolo, è difficile
misurare la formazione del complesso.
Per misurarlo, si usa un metodo molto sensibile, cioè un ligando radiomarcato:

P+L* PL*

Posso rilevare quantità pMol, grazie alla sensibilità; con un liquido di scintillazione posso aumentare il
segnale e con dei β-counter ho delle buone sensibilità.
Devo separare il complesso proteina-ligando dall’eccesso del ligando; la grossa differenza tra L libero e PL è
il peso: l’isotopo non cambia significativamente il comportamento chimico e l’equilibrio finale, ma altero il
peso.
Il complesso marcato può essere separato con gel filtrazione o un filtro ed è abbastanza veloce.
Il sistema è molto sensibile; il legando nel sito attivo può interagire con altri ligandi perché ci sono
interazioni aspecifiche.
Al posto di avere una curva classica lineare, ho una curva con una deriva, dove devo sottrarre la
componente aspecifica; quello che misuro veramente è il legato totale: Btot= Bspecifico + Bnon specifico.
Per separare si usa un ligando freddo, cioè faccio lo stesso esperimento aggiungendo alla reazione una
certa quantità fissa di f che non è marcato; non sarà in forte eccesso. Questo ligando va a competere con il
legame del ligando marcato: si spezza prima il legame specifico perché compete con i legami meno affini.
Per calcolare un punto sulla curva Bs, si fa la differenza tra il punto sulla retta Bns e Btot.

Questa tecnica non è facile perché bisogna avere degli isotopi, lavorare con dei radiomarcatori, comprare
dei ligandi specifici e disporre di un laboratorio adeguato.

In alcuni casi specifici, per determinate proteine di legame, si può verificare se si possono usare altre
tecniche di misurazione, per esempio si può vedere con le tecniche spettroscopiche se il complesso dà un
segnale caratterizzato da un asintoto, cioè che sia distinguibile dalla proteina libera (es. mioglobina
ossigenata: si riporta lo spettro della quantità di mioglobina ossigenata o deossigenata rispetto al totale,
quindi si riporta in termine di rapporto percentuale o in forma frazionata).
Se si interrompe la reazione tra enzima-substrato, qualsiasi enzima è una proteina di binding e si misura il
complesso: es. cytP450  substrato spiazza una molecola di H20 e dà uno spin al Fe: il segnale a 410-420
nm (picco gamma di Soret) scende a 397 nm. Serve anche NADPH per fare avvenire il legame.
Può succedere la stessa cosa nei reagent-less, cioè proteine intrinsecamente fluorescenti o marcate con un
fluoroforo, quando il ligando si lega alla proteina, questa può cambiare conformazione; facendo la
differenza tra tutto il ligato e tutto il non ligato si ha una scala spettroscopica. Si può quindi misurare
facilmente Kd.
Altre tecniche sensibili a misurare il cambio conformazionale del legame proteine con il substrato:
-NMR, ma è difficile perché serve una quantità di proteina molto alta;
-EPR, più sensibile ma misura solo se ho un metallo para-magnetico e uno spin spaiato elettronico per dare
cambiamenti;
-IR in trasformata di Fourier (segnali molto complessi, si fa eliminando tutto il background).

Esempio emoglobina ed enzimi hanno comportamento allosterico: andamento sigmoidale e non iperbolico;
a volte abbiamo un comportamento pseudo-sigmoidale, ma in realtà è un’imprecisione del metodo di
misurazione.
METODO DI HILL
Se abbiamo una deviazione dal modello di Michaelis-Menten nel modello dei doppi reciproci, si può usare il
metodo di Hill:

E + nS ESn  E + nP
P + nL  PLn

n: n° di siti possibili attivi; a volte non si comportano come siti cooperativi. Prende il nome di coefficiente di
Hill e dice quanto i siti si influenzino reciprocamente.
Nel caso dell’emoglobina, ha 4 siti di legame ma n arriva al massimo a 3.5  n dipende dalle diverse forme
e dalle influenze reciproche.
Quello che cambia davvero nella derivazione del modello è n; indica quante volte il ligando è preso in
considerazione.

V1= k1 * (e-c)(s)n
V= (vmax*sn)/(KMn+sn)

Se non elevo ad n, il valore sperimentale non coincide a metà della velocità massima. Km viene definita K
apparente e corrisponde ad una K media di tutte le costanti. Se n=1, torno al modello dell’iperbole.
Dal momento che n misura in pratica il livello di cooperatività, ho spesso valori non interi e se n<1 significa
che ho una cooperatività negativa e i siti si influenzano diminuendo l’attività. Se ho un valore di 1.5,
significa che ho almeno 2 siti che non cooperano al 100%, se avessi 3 siti sarebbe una cooperazione
inferiore al 50%.
Si fa un fitting.

𝑝𝑂 𝑛
2
Eq. Hill per l’emoglobina: 𝑌 = 𝑝𝑛 + 𝑝𝑂 𝑛
50 2

p50 è la pressione a cui ho il 50% della mioglobina legata ed è quindi la mia Kd;
pO2 è la concentrazione del mio ligando libero. Sono entrambe elevate ad n;
manca Bmax rispetto all’equazione del complesso, ma siccome misuro una
frazione, Bmax è sempre uguale ad 1.
Posso fare un’interpolazione diretta, se ho una sigmoide di Hill, altrimenti, se
non ho i parametri giusti con la sigmoide di Hill, posso usare la linearizzazione,
che mi dà un grafico con 2 rette a pendenza 1 e un grafico ad altra pendenza.
Nella mioglobina, ho bisogno di una proteina che sia efficiente nel captare l’O2 a livello della pO2 a livello
polmonare, cioè a 100 mmHg e che sia efficace nel rilasciare a livello della p capillare, cioè 20 mmHg: se
non c’è cooperatività, funzionerebbe bene in un caso e male nell’altro, quindi devo mettere insieme 2
comportamenti che stanno sulle 2 rette parallele. Comportamento allosterico permette un’alta affinità e
una bassa affinità di binding.
Coefficiente di Hill = 3.5, significa almeno 4 siti perché si approssima sempre al valore superiore, ma n
oscilla tra valori che arrivano ad un massimo di 3.5, ma a volte arriva solo fino a 2/2.5.

Si trasforma l’equazione di B in un’equazione lineare.

𝐵𝑚𝑎𝑥∗𝐹 𝑛
𝐵= 𝐾𝑑+𝐹 𝑛

Divitto tutto per (Bmax – B)

𝐵 𝐹𝑛 𝐵
𝐵𝑚𝑎𝑥−𝐵
= 𝐾𝑑𝑛  Log 𝐵𝑚𝑎𝑥−𝐵 = 𝑛𝐿𝑜𝑔𝐹 − 𝑛𝐿𝑜𝑔𝐾𝐷  PLOT DI HILL
𝐵
dove y= Log 𝐵𝑚𝑎𝑥−𝐵, x=LogF, m=n e b=nLog 𝐾𝐷 .

Per conoscere Bmax, posso approssimare ai valori che vanno a plateau


perché sono a saturazione.

𝑣
Se avessi un’attività enzimatica: Log 𝑣𝑚𝑎𝑥−𝑣
= 𝑛𝐿𝑜𝑔𝑠 − 𝑛𝐿𝑜𝑔𝐾𝑀 (linearizzazione di Hill)

Se la pendenza della retta è 1, cioè n=1, si deduce che il sistema è isosterico e i dati stanno sull’iperbole 
modello di Michaelis-Menten.
Per sapere se c’è una coincidenza o no, e in questo caso non c’è, sostituisco a v, 𝑣𝑚𝑎𝑥 ⁄2, quindi dovrei
avere che KM coincide con s: (vmax)*(KM + sn) = 2 vmax* sn  KMn=sn  KM=s

A volte il grado di cooperatività è negativo cioè ho 2 siti che interferiscono tra di loro e diminuiscono
l’efficacia  cooperatività negativa o inibitoria.

Sistemi di binding trattati nel cap.4


Esempi di applicazioni: vedi articoli

Inibizione da substrato: p. 138-139 –> deviazione da Micahelis-


Menten ad alte concentrazioni di s.
Si verifica in molti enzimi; oltre una certa concentrazione di
substrato si considera s al quadrato. KI è la costante specifica.
Quando la concentrazione è bassa, il valore è basso quindi si
comporta come Michaelis-Menten (s<Ki). Se invece Ki è molto
piccola, o s è molto basso, v è anch’essa bassa e non raggiungo
mai vmax.

Plot devia dal valore lineare lentamente e al posto di intersecare l’asse delle y,
tende ad infinito.
Nella prima parte della curva, ho un comportamento affine all’asintoto e a
questo andamento iperbolico: si fittano solo i punti crescenti, quindi sfrutto
Michaelis-Menten e le sue linearizzazioni.

Altro caso in cui ho una deviazione: ho una popolazione di enzimi


eterogenea, in cui ho una descrizione polinomiale: ogni enzima ha una
leggera differenza in Km e v. Si ripete n volte, per ogni differenza,
l’equazione di Michaelis-Menten.
Linea piena: valore di fitting, linea tratteggiata: Michaelis-Menten
deviata.
12/12

BIOSENSORISTICA

I biosensori si basano sul principio del riconoscimento biologico; è legato alla cinetica enzimatica perché si
basa sul riconoscimento specifico degli enzimi e dei recettori.
Un biosensore è quindi definito come uno strumento analitico che usa la specificità di un elemento
biologico per individuare un target in modo qualitativo e quantitativo. Può quindi usare la specificità
dell’enzima per individuare un suo substrato, un cofattore, un inibitore…
La più utilizzata è la specificità antigene-anticorpo perché ha una Kd di circa 10-12 e riconosce con altissima
selettività una molecola rispetto un’altra.
Un’altra utilizzata è la specificità ligando-recettore (proteine di binding) che è molto specifico: ad esempio,
l’R-cargone e l’S-cargone sono due molecole percepite dai nostri recettori olfattivi e sono una l’immagine
speculare dell’altra  una molecola è associata all’odore del cumino mentre l’altra è associata alla menta
piperita.
I nostri recettori riconoscono selettivamente una molecola piuttosto che l’altra.
Si può quindi pensare di usare questa strumentazione per riconoscere enantiomericamente una molecola
rispetto ad un’altra.

Parliamo di biosensori AMPEROMETRICI.

Il selettore può essere un enzima, un recettore ma anche


il DNA (si parla di APTAMETRI, cioè DNA o RNA che hanno
capacità di riconoscimento).
Esistono anche dei polimeri piò o meno naturali, o più o
meno manipolabili, che hanno caratteristiche simili a
quelle delle molecole biologiche: polimeri a stampo
molecolare riproducono in modo artificiale le molecole
biologiche.
Selettore è legato ad un trasduttore; il primo elemento
tecnico che si incontra è il cono di bottiglia, che è un po’
una limitazione.
Il trasduttore trasforma il segnale molecolare (su scala
nm) in uno rilevabile ed amplificabile; può essere un
segnale elettrico, ottico, calorimetrico, acustico...
Come si trasforma un segnale molecolare in uno
visibile/rilevabile/detectabile? È ancora un punto critico.
Dopo che amplifico il segnale, è più facile avere un
processamento dei dati, che possono essere micro-
elettronici, circuiti o miniaturizzazione di altre tecnologie.
I rilevamenti ottici riguardano cambiamenti che hanno a che fare con la riflettanza, la trasmittanza,
l’assorbanza, la fluorescenza…
Alcune proteine cambiano le loro proprietà spettroscopiche quando si legano (es. emoglobina), ma anche la
fluorescenza può variare se ci sono dei fluorofori che modificano le proprietà.
Quello che studiamo ora è un rilevamento amperometrico, cioè basato sul trasferimento di elettroni: ci
limitiamo quindi alle proteine di classe 1, cioè le ossidoreduttasi.
Biosensore al glucosio si basa su questo principio.

Applicazioni: campo medico (controllo del diabete), controllo qualità, controllo del doping e delle sostanze
stupefacenti, analisi ambientali per sostanze inquinanti. Spesso si ha a che fare con sostanze
microbiologiche (virus, batteri patogeni) che possono inquinare.
Il problema dei biosensori è che spesso sono legati a strumentazioni con una portabilità abbastanza
elevata.

PUNTO CHIAVE: interazione tra selettore (molecola biologica) e trasduttore (interfaccia tra biochimica e
scienze dei materiali); l’interazione può quindi essere con un materiale o si può modificare la molecola per
avere una risposta.
Lo scopo nella biosensoristica è che l’interfaccia selettore-trasduttore sia di tipo elettrico: poiché la
proteina quando riconosce il suo target invia un segnale elettrico (elettroni acquisiti o trasferiti), questo
segnale deve essere misurabile, facilmente trasducibile e quantificabile.
Problema: come fa l’enzima a trasferire o ad acquisire gli elettroni dal supporto?

Generazioni dei biosensori elettrochimici: PRIMA GENERAZIONE (anni 60), SECONDA (90) e TERZA (ora).

 PRIMA GENERAZIONE: si basa sulla modalità di trasformare un segnale. La reazione studiata è


quella della glucoso-ossidasi  è specifica solo per il glucosio e non riconosce nessun altro
mono/disaccaride. Questi enzimi specifici per gli zuccheri sono molto spesso enzimi batterici, che
riconoscono una certa fonte di C.
La glucoso-ossidasi è molto robusta; reazione:
glucosio + O2 acido gluconico + H2O2
L’acido gluconico deriva dall’ossidazione del C1, che, da gruppo carbonilico, diventa un gruppo
carbossilico (stato di ossidazione +2  +3).
Si poteva misurare l’O2 eliminato come co-substrato o l’H2O2 prodotto come co-prodotto.
Per misurare i reagenti era disponibile già l’elettrodo di Clark che va a monitorare la quantità di O2:
sulla superficie avviene la reazione che va a consumare 4e- e produce 4 OH- a partire da O2+ 2H2O.

L’elettrodo ha un anodo in Ag (circolare) e un catodo in Pt, che è anulare; ha una sezione di circa 1
cm, la goccia di elettrolita è appoggiata sugli elettrodi, c’è una membrana permeabile che è chiusa
con una guarnizione su cui può passare solo l’ossigeno, quindi non è contaminata da altre sostanze.
L’ O2 diffonde nell’elettrolita, tra la membrana e l’elettrodo, e si consuma. Il segnale è tanto più
grande, tanto maggiore è la concentrazione di O2.

Quando si misura la reazione, da un consumo basale di O2, la cui


concentrazione iniziale è 100%, il segnale è costante; aggiungendo il
glucosio, il segnale comincia a diminuire. Maggiore è la quantità di
glucosio, più la retta è pendente; è un ossigrafo.
Serve per misurare reazioni enzimatiche ma anche la quantità di O2
presente: è una misura un po’ indiretta perché si va a misurare la
concentrazione del prodotto tramite il co-substrato. Ideale sarebbe
misurare direttamente la quantità di prodotto.

L’alternativa è usare un catodo in Pt per


rilevare la quantità di H2O2 prodotto
direttamente.
I sistemi di rilevazione possono dare
informazioni un po’ diverse.
La membrana di acetato di cellulosa è
semipermeabile; l’enzima è intrappolato tra la membrana e il policarbonato, che lascia invece
passare i reagenti.
H O O + 2H + 2e
Reazione: 2 2 2
+ -
È una reazione di dismutazione e la corrente è misurata direttamente.
Svantaggi: O2 e H2O2 possono essere presenti in un campione complesso (es. clinico/biologico)
quindi la misurazione non è così specifica: sto misurando in modo specifico il riconoscimento da
parte dell’enzima del glucosio, ma ciò che si produce e si consuma potrebbe già essere presente, in
modo alternativo alla reazione nel campione. Ho quindi una misura un po’ indiretta.
Si è passato allora a delle alternative.

 SECONDA GENERAZIONE: si basano su una molecola che fa da mediatore; si misura lo stesso tipo di
reazione (ossidazione enzima e riduzione glucosio). Un enzima con struttura nanometrica non è
facile interagisca con la proteina e che la proteina trasferisca i suoi elettroni alla superficie.
Spesso si ha un mediatore, come il NAD, che è una molecola molto piccola e può fungere da shuttle
tra una proteina e un’altra.
Si costruisce quindi il sistema con un mediatore che può funzionare in due direzioni: nel caso della
glucoso-ossidasi si riduce, dopo aver ossidato il prodotto, trasferisce gli elettroni al mediatore che
poi li trasferisce all’elettrodo.
Viceversa se voglio sfruttare un enzima, la cui reazione è quella di ridurre il substrato, sarà l’enzima
stesso ad acquistare elettroni dagli elettrodi.

I mediatori utilizzati sono molto riducenti


e sono molecole di ferrocene; nei
biosensori del glucosio, la molecola viene
riconosciuta dalla glucoso-ossidasi e si
forma una molecola di acido gluconico; la
proteina si riduce e trasferisce gli elettroni
allo ione ferricinio. Il mediatore trasferisce
quindi i suoi elettroni ad un
microelettrodo.
Maggiore la quantità di substrato disponibile, maggiore la quantità di elettroni trasferiti
all’elettrodo.
Principio: la proteina ha un sito attivo disegnato sul glucosio; gluco-ossidasi è di media dimensione;
il prodotto è un gluconolattone.
Hill elaborò un sistema che fosse in grado di trasferire questo sistema su un dispositivo tecnologico
commerciale; il principio è inserire una linguetta in metallo con una finestrella aperta dove si può
inserire una cartina, che è l’elettrodo usa e getta che si basa sulla misurazione della corrente
catalitica.
Facendo una scansione in un intervallo di potenziali e misurando contemporaneamente la corrente
che viene assorbita dal sistema, devo trovarmi in una misurazione potenziometrica, perché devo
avere un elettrodo di lavoro, dove vengono trasferiti gli elettroni, un controelettrodo, che
garantisce il flusso di corrente, e un elettrodo di riferimento per misurare il potenziale: è quindi un
sistema a 3 elettrodi.
Il potenziale è misurato da un potenziostato: se ho un centro redox (enzima isolato), quando
scansiono il potenziale e vado a potenziali più riducenti mi trovo nel range di potenziali
caratteristici della semi-reazione redox del centro dell’enzima. In questo caso il cofattore è una
flavina (FAD) e ha un potenziale di ca -200eV.
A potenziali più riducenti, il centro redox si riduce, acquista
elettroni dall’elettrodo e si misura una corrente negativa.
Voltammetria ciclica: quando il centro redox acquisisce gli
elettroni ho un picco negativo e, dopo che si è ridotto
tutto, la corrente tende a 0. Nel senso inverso, si ha un
aumento degli elettroni ceduti all’elettrodo, e quindi una
corrente positiva, man mano che il centro si ri-ossida e poi
la corrente va di nuovo a 0.
La sfasatura tra i 2 picchi è dovuta alla diffusione.
Quando ho un reagente di questo enzima, cioè se aggiungo
il glucosio, la proteina, che si sta riossidando, torna a
ridursi, perché il glucosio cede i suoi elettroni, quindi serve
più corrente per continuare ad ossidarla. Maggiore la quantità di glucosio, maggiore sarà la quota
di proteina che torna a ridursi.
Lo scarto tra i punti della curva dipende dalla quantità di substrato: è una catalisi, per questo viene
definita corrente catalitica.
La misurazione di questa corrente catalitica avviene con un set-up di questo tipo:

Gox: glucoso-ossidasi
M: ferrocene
C’è un supporto in PVC, su
cui abbiamo depositato
delle tracce di C conduttivo
come base (collegamento
con l’elettrodo di lavoro) e
delle tracce conduttive in Ag (elettrodo di riferimento). Sull’elettrodo di lavoro c’è la gox e il
ferrocene; l’enzima è così robusto che si trova in forma liofilizzata.
Deposito una soluzione di elettrolita che deve coprire tutta la superficie; ho una misura
amperometrica del potenziale e il valore è settato dal sistema, a cui si misura la corrente: è tanto
maggiore tanto più grande è la quantità di glucosio che reagisce.
Ciascun batch di elettrodi prodotti ha un codice a barre con la taratura a cui si correla la corrente;
sistema è calibrato sul codice a barre.

 TERZA GENERAZIONE: trovato questo biosensore con il glucosio, si è cercato di verificare se si


potesse trasferire ad altri enzimi con funzioni simili, ma diversi substrati, e se si potesse combinare
per rilevare qualcos’altro.
Nella terza generazione si è pensato di avere una reazione più diretta tra la proteina e l’elettrodo: ci
sono una serie di studi in cui si bypassa il mediatore e si tende a promuovere l’interazione diretta
della proteina sull’elettrodo, tramite vari approcci:

A assorbimento fisico, in cui la proteina è adsorbita sulla superficie ed è poi mantenuta in


condizioni stabili; il limite è che in condizioni più drastiche c’è un danneggiamento della proteina;
B inclusione in polimeri conduttivi, sistemi più stabili: la proteina è intrappolata nel polimero,
che può essere solo libero o addizionato al grafene, nanotubi al C…;
C  inclusione nei SAM, cioè monostrati formati da molecole idrofobiche, cioè hanno una coda
idrofobica e una testa che interagisce con le superfici; le più utilizzate sono alcan-tioli, perché i tioli
interagiscono molto bene con le superfici in oro. L’interazione è molto stabile e gli alcani
promuovono il monostrato su cui le molecole si possono muovere;
D immobilizzazione non è orientata in questi approcci;
E  immobilizzazione è orientata; tiolo viene aggiunto su un supporto in oro, dove voglio avere
l’interazione con la proteina
Tutto questo ha come base il set-up della voltammetria ciclica, in cui ci sono 3 elettrodi, il potenziale passa
da rid/ox iniziale, viene variato in modo lineare e si costruisce un voltammetro ciclico.
Quello riportato sulla slide 19 è quello del cyt c perché è una molecola piccola, con la regione che si
ossida/riduce (eme) molto esposta, ha dei residui spesso basici che interagiscono bene con la grafite, che si
ossida: tanto maggiori gli OH, tanto maggiore è l’interazione con i residui basici.
Il vantaggio è che il cytc si orienta molto bene sulle superfici e ha un tracciato nitido in voltammetria ciclica.
Si può misurare la corrente a varie velocità di scansione, può essere dipendente dalla radice quadrata o
linearmente dipendente, a seconda se l’immobilizzazione sia diretta o mediata.

Shift dei picchi della voltammetria risulta da un sensore di seconda generazione; la proteina è ridotta e
ossidata tramite una molecola diffusibile: quando la molecola è immobilizzata sull’elettrodo, se la reazione
è totalmente reversibile, i picchi dovrebbero in teoria essere sovrapposti; quando non lo sono, è perché si
ha una reazione solo parzialmente reversibile.
In voltammetria ciclica, i picchi dipendono da una diffusione lineare e non radiale: il materiale
elettroconduttivo su cui si immobilizza la proteina deve avere un numero di siti elettroattivi molto fitti tali
per cui si genera un’interazione con l’enzima o il substrato che risponde alla diffusione lineare, altrimenti
non si individuano i picchi di potenziali.
Tipi di elettrodi utilizzabili: grafite, oro, elettrodi otticamente trasparenti.
Gli elettrodi in grafite sono su piani basali, interagiscono poco perché i gruppi elettroattivi che
interagiscono sono quelli dovuti a gruppi marginali che si rompono e si ossidano. I gruppi O che possono
interagire sono quasi inesistenti e il sistema si comporta come se fosse a diffusione radiale.
Se si tratta questa grafite, si provocano delle abrasioni che rendono la superficie più irregolare e si hanno
più gruppi O: si definisce molto meglio l’interazione per diffusione.
Si ha maggiormente il profilo di interazione per diffusione lineare se si usano gli elettrodi edge-plane: gli
strati di grafite vengono lavorati e i bordi vengono attivati.
Quando si usa il grafene, si utilizza come OSSIDO di grafene, perché sarebbe molto conduttivo ma non in
grado di interagire con le proteine. La grafite è abbastanza idrofobica.
Per l’oro si usa ad esempio la piridina perché l’interazione diretta proteina-oro ha effetto denaturante,
quindi deve essere mediata.

Esistono altre tecniche oltre la voltammetria ciclica, come la linear sweep voltammetry e la
cronoamperometria, che è la misurazione di un set preciso di potenziale nel tempo.

Celletta di Hagen permette di misurare piccole quantità ed è un esempio di misurazione di cofattori


biologici, come l’FMN, in voltammetria ciclica, e si usa una piccola quantità di proteina ancorata tra
l’elettrodo di lavoro e l’elettrodo di riferimento, con un contro-elettrodo in Pt. Questo è un set-up che
precede il biosensore.

Ricordarsi che, nella sensoristica, il fattore proteico è molto importante, anche se si è visto che, ad
esempio, nelle proteine di classe 1, non è quasi mai la proteina che trasferisce gli elettroni, ma un cofattore
associato ad essa. Sono pochi i casi di cofattori elettroattivi che derivano dagli aminoacidi, di fatto ci sono
solo i TPQ e i TRTPQ, cioè quelli basati sulla triidrossi-fenilalanina chinone e quelli con una modificazione
del triptofano che diventa un chinone e dà quindi la reazione redox chinone-chinolo che media il
trasferimento. È l’unico caso in cui si ha la proteina che trasferisce gli elettroni, perché appunto deriva da
un aminoacido, altrimenti la proteina ospita il cofattore, ma non è lei ad essere elettroattiva.
La proteina ha un po’ un effetto di isolante, perché ha una costante dielettrica di 4 (la costante dielettrica
dell’H20 per esempio è 80); inoltre il potenziale del cofattore che lavora all’interno della proteina può
essere diverso da quello del cofattore che lavora isolato: la proteina, o meglio, il medium proteico, può
modulare anche il comportamento elettroattivo.
Esperimento di Barker: ha fatto degli studi sul sistema cytc-cytb5, uno dei cyt coinvolti nel trasferimento di
elettroni nella catena respiratoria.
Se si inserisce solo il cytc, si ha ovviamente solo il segnale del cytc.
Sistema cyt b5, che ha anche un gruppo eme, messo su un elettrodo, fa fatica ad interagire con la superficie
e il voltamogramma che si registra è simile a quello di un sistema contenente solo un buffer: non si ha
nessuna ox/red perché il centro redox attivo del cytb5 non può essere messo in comunicazione, dal punto
di vista elettrico, con il supporto. Il trasferimento elettronico non è quindi efficiente tra la proteina, e il suo
centro redox attivo, e la superficie.
Se mettiamo insieme cytc e cytb5, cioè 2 proteine insieme sull’elettrodo, il cytc favorisce il trasferimento
anche sul cytb5: si vedono quindi i segnali in ossidazione e in riduzione nel centro redox b5.
Se avessi Zn al posto di Fe nel cytc, non avrei un comportamento redox e quindi nessun segnale, ma se
metto il cytc sostituito con lo Zn e il cytb5, si ottiene di nuovo il segnale: ciò significa che è la parte proteica
presumibilmente a fare da adattatore e favorire il trasferimento elettronico. Presumibilmente perché il
trasferimento elettronico attraverso una proteina, può avvenire attraverso molecole d’H20, ioni, molecole
cariche che possono quindi trasferire sia protoni che elettroni. In realtà, quindi, la proteina può funzionare
per ottimizzare il trasferimento elettronico.

Applicazioni: a noi interessano proteine che misurano un analita e che diano un segnale della presenza; dal
punto di vista applicativo si possono usare questi sistemi in senso produttivo, cioè costruire dei biosensori
che, invece di usare il NADH per dare gli elettroni ad una proteina che trasforma una molecola (come un
precursore di un farmaco in un farmaco che costerebbe troppo caro) si attacca alla corrente e si forniscono
gli elettroni tramite un elettrodo: ho quindi un bioreattore in cui la corrente viene usata per alimentare una
reazione redox che trasforma il substrato in un prodotto di interesse. È un’applicazione biotecnologica.
Nell’esempio alla slide 32, il NADH viene trasferito ad una reduttasi e poi al cyt, che trasforma la canfora in
idrossi-canfora. Viene quindi ridotta la reduttasi che fa da shuttle per gli elettroni tra la proteina e il NADH.
Non sempre la proteina è efficiente nel legare il NADH, quindi ci sono vari moduli che si combinano insieme
a formare la catena redox; tutto ciò, trasferito su un dispositivo biotecnologico, è una complicazione: devo
avere 3 proteine e una di questa può essere più efficiente a trasferire elettroni o ad interagire con il NADH.
Se ho una proteina più grande, oltre ad interagire con l’elettrodo deve anche entrare nel substrato; non è
facile quindi orientare una proteina in modo che trasferisca efficacemente elettroni all’elettrodo e che
abbia la parte che entra nel substrato esposta al contrario rispetto all’elettrodo.
Viceversa, ci possono essere proteine più piccole in dimensioni, che sono fatte apposta come moduletto nel
trasferimento elettronico: un approccio è combinare artificialmente tramite l’ingegneria proteica ciò che
avviene in natura, in cui si sono fusi 2 geni delle proteine con domini diversi  si fonde quindi un modulo
molto efficiente nel trasferire elettroni, come la flavodossina, e si fa una nuova chimera, in cui si aggiunge
un tratto di proteina, ingegnerizzando un loop, cioè un peptide che si è disegnato, in modo tale da avere un
moduletto catalitico e uno di trasferimento elettronico.
Sono stati fatti molti studi sul cytP450 perché si possono rilevare le interazioni con i farmaci e la presenza di
xenobiotici.

slide 44: voltammetria ciclica e misurazione tramite la chimera rappresentata; la corrente catalitica è
misurata in un sistema dove il cytP450 è accoppiato alla flavodossina.
All’aumento della concentrazione del substrato, la corrente aumenta: la curva ha l’andamento di Michaelis-
Menten quindi posso ricavare Km del sistema. Inizialmente l’aumento della corrente è lineare, quindi
aumenta con l‘aumento della concentrazione del substrato, e poi va a plateau.
Se devo misurare un aumento di corrente all’aumento della concentrazione del substrato, cioè dell’analita,
guardo valori inferiori a Km: ho delle concentrazioni piccole  posso dunque avere un sistema molto
sensibile a concentrazioni molto basse, perché ho una pendenza molto netta, quindi con questi biosensori
si possono rilevare gli analiti anche a concentrazioni molto basse.

BIOSENSORI IN DIAGNOSTICA: con questi sistemi si può misurare anche l’interazione antigene-anticorpo.
Partendo dal biosensore al glucosio, si è studiato se si potevano avere delle alternative: si possono avere
dei biosensori che rilevano altri analiti; il primo di questi è stato:

 Biosensore CREATINA-CHINASI; CK è un enzima presente nel miocardio: quando si ha un livello più


alto del normale di CK circolanti, vuol dire che parte della CK dei miociti, cioè delle cellule del
miocardio, è stata rilasciata nel sangue e quindi c’è stato un danno a livello cardiaco, cioè si ha un
infarto miocardico. Molto spesso esistono delle forme micro- infartuali ed è necessario sapere in
tempi molto rapidi se questi micro-infarti saranno seguiti da altri più gravi per intervenire
immediatamente.
Questo sensore è basato su un sistema a blocchetti in cui sfrutto il sistema della glucoso-ossidasi,
ma solo come reporter, cioè che mi dà una risposta.
Il sistema è costituito da una base fissa di glucosio e un base di ferrocene: inizialmente il sistema ha
solo glucosio e una quantità di esochinasi che utilizza ATP per trasformare il glucosio in glucosio-6-
fosfato; c’è una corrente di base, la creatina fosfato, ma non c’è creatina-chinasi.
Inizialmente quindi il sistema può utilizzare una quantità di ATP, che sottrae una quantità di
glucosio e forma glucosio-6-P. Se si è in assenza di creatina-chinasi e si consuma tutto l’ATP, si avrà
una quantità fissa di glucosio che rimane e che può dare un segnale al sensore (segnale a livello
100); aggiungendo la creatina-chinasi, si consuma la creatina-fosfato e si produce altro ATP, che
sottrae glucosio e libera glucosio-6-P. Maggiore la quantità di ck che io aggiungo, maggiore la
quantità di glucosio che viene sottratta e quindi si ha un brusco decremento del segnale elettrico.
La presenza dell’analita può essere anche minima, perché l’enzima può continuare a sottrarre ck e
ATP; la rivelazione è molto sensibile. Il biosensore CK serve solo da trasduttore e per vedere cosa
succede prima.

 I biosensori possono essere usati anche per rilevare analiti diversi. Ci sono 3 biosensori del
COLESTEROLO:
1. L’enzima è la colesterolo-esterasi che trasforma gli esteri del colesterolo in colesterolo e rendono
l’analita disponibile. Dopodiché il colesterolo è trasformato dalla colesterolo-deidrogenasi in
colestenone; la colesterolo-deidrogenasi è una proteina che sfrutta il NAD ossidato come accettore
di elettroni e nello stesso tempo ossida il colesterolo. Si produce quindi del NADH che viene
trasformato dalla diaforasi, che si riduce, ed interagendo con il ferrocene può dare segnale. Con
diaforasi si intende qualsiasi dominio proteico in grado di ridurre NADH.
Maggiore quindi la quantità di colesterolo che alimenta questo tipo di trasferimento di elettroni e
maggiore la quantità di colesterolo che si ossida a colestenone, maggiore la quantità di elettroni
trasferiti all’elettrodo.
Per ogni molecola di colesterolo, vengono trasferiti 2 elettroni.
2. Biosensore di tipo b; c’è di nuovo la colesterolo-esterasi che trasforma gli esteri del colesterolo in
colesterolo, ma poi c’è una colesterolo-ossidasi, che è una proteina isolata dallo Schizophylum
comune, un micro-organismo, che è capace di ossidare il colesterolo a colestenone e trasferisce
direttamente elettroni al ferrocene, riducendo lo ione ferricinio a ferrocene.
Per ogni molecola di colesterolo, viene trasferito 1 elettrone.
3. C’è di nuovo la colesterolo-esterasi ed il colesterolo viene poi ossidato a colestenone da una
ossidasi, che usa come substrato l’O2: si produce H2O2 che viene ridotto dalla perossidasi ad acqua,
la perossidasi si ossida e trasferisce elettroni, venendo poi ridotta dal ferrocene.
Dal momento che l’enzima ha bisogno di elettroni per funzionare, la corrente che si legge
dall’elettrodo al sistema avrà segno negativo, quindi ci saranno 2 elettroni trasferiti per ogni mole
di colesterolo ossidata.

Il biosensore migliore è il b perché ha meno passaggi quindi può essere più specifico e avere meno
interferenze (come il perossido di idrogeno), in più si basa su una proteina di un micro-organismo.
Micro-organismi diversi possono dare applicazioni diverse e sono risorse ottimizzate.

 Biosensore del LATTATO: può essere utile per monitorare la produzione di L-lattato, che è un
metabolita, ma è anche utilizzato nella produzione di biopolimeri. Il monitoraggio della quantità
dell’L-lattato si basa sull’interazione con il cytb2 che lo trasforma in piruvato (gruppo ossidrilico
diventa chetonico, quindi è una reazione redox); il cyt si riduce, perché acquisisce gli elettroni del
lattato e come mediatore si può usare ferrocene o cytc (2 molecole perché vengono trasferiti 2
elettroni), cioè un mediatore chimico o un mediatore proteico.
 Sensore per il glucosio può essere applicato alla rilevazione di farmaci o di altre molecole: si misura
l’interazione ANTIGENE-ANTICORPO.
La variante alla reazione glucosio-glucono lattone mediata dall’ossidasi, è avere il ferrocene
coniugato ad un antigene, abbastanza piccolo, da non interferire con l’interazione tra la glucosio-
ossidasi e il ferrocene.
L’interazione che si misura è quella tra l’antigene immobilizzato e l’anticorpo ed è applicabile sia
una misura quantitativa dell’anticorpo stesso, sia in campo clinico per misurare la quantità di
anticorpi prodotti da questo antigene: è importante per verificare allergie.
Può essere utile misurare l’anticorpo per sapere se ho avuto un’esposizione all’antigene, se ho una
produzione di anticorpi per una reazione allergica…

Sistema di base 100% è dovuto alla quantità di glucosio che ho; aggiungo una quantità di anticorpo
che va contro all’antigene legato al ferrocene: anticorpo aggiunto va a sequestrare l’antigene, se è
presente l’analita  se sequestra il ferrocene coniugato, non ho più il mediatore disponibile quindi
la corrente diminuisce, insieme al segnale, e sarà proporzionale alla concentrazione dell’analita.
Se invece voglio misurare l’antigene, di piccole dimensioni, di cui si ha un anticorpo specifico, si
coniuga al ferrocene e poi si aggiunge una quantità fissa di anticorpo per far sì che tutto il ferrocene
venga catturato in questa forma, in modo da azzerare il segnale.
Tanto più antigene viene aggiunto, più competerà con l’anticorpo e tenderà a spiazzare l’antigene
legato al ferrocene e ci sarà un equilibrio: al posto di legare l’antigene al ferrocene, si legherà
all’antigene aggiunto  più si aggiunge antigene, più l’equilibrio si sposterà e si libererà ferrocene,
quindi il segnale aumenta. La corrente che viene rilevata è dipendente dalla quantità di antigene
aggiunta; più antigene c’è, maggiore è il segnale. Si ha un andamento lineare con la quantità di
antigene aggiunto e quindi si può verificare la presenza di antigene e quantificarlo.
Non è una reazione redox, perché non si scambiano elettroni, ma è applicabile se combinato in
questo modo.
Si può giocare sulla competizione, ma anche sulla specificità: l’anticorpo con una Kd molto piccola
per l’antigene sarà molto sensibile perché, anche quantità molto basse di antigene aggiunte,
saranno capaci di competere con l’antigene legato al ferrocene, perché vanno a competere con il
sito attivo, e quindi nelle interazioni.

La biosensoristica si sta spostando nel campo della nanotecnologia; nell’esempio della slide 46 abbiamo
l’immobilizzazione della cys sull’oro: P450 cam è una proteina molto piccola e questa interazione con la cys
consente anche la coniugazione con nanocircuiti, nanoelettrodi… In più dà il vantaggio di spostare tutto il
sistema ad un livello nm: riconoscimento proteina e il suo target (antigene-anticorpo, enzima-substrato,
ormone-recettore...) avviene a livello nm; si è visto che uno dei colli di bottiglia è la trasduzione
dell’interazione molecolare che avviene in modo molto specifico con un sistema di rilevamento. Se si sposta
tutto a livello nm, la trasduzione è quindi più facile.
PROTEIN CHIP & PROTEIN ARRAY

Quando parliamo di protein chip e protein array parliamo di sistemi che possono essere utili per
caratterizzare il profilo proteico sia in termini proteomici sia per quel che riguarda la costruzione, perché
sono dei sistemi che dovrebbero dare la possibilità di usare molte varianti delle proteine per interpretare
fenomeni complessi e avere un pannello di sensori. I protein chip e protein array mi danno una risposta
elettronica ad una interazione della proteina con qualsiasi cosa e se lo fa in modalità array, è diversificato in
base agli analiti o ad altri parametri che si vogliono misurare.
Sono quindi un’amplificazione dei biosensori, cioè interpreto l’interazione che ha a che fare con la proteina,
ma la amplio e rendo l’interazione detectabile; protein chip è basato su una proteina che quindi mi dà
un’informazione. Un protein array è quindi un insieme di protein chip che dà informazioni di tipo diverso;
un insieme di informazioni sull’interazione delle proteine è, per traslato, anche un sistema proteomico.

Strategie per capire come funzionano le proteine: uno dei problemi è l’interpretazione e l’utilizzo di sistemi
che possono dare informazioni ampie sul funzionamento delle proteine, cioè si parla di ARRAY (sistemi sulle
proteine danno informazioni molto diversificate con una buona processività).

Ci sono alcune strategie di rilevamento delle proteine basate su un livello genetico:

1. Uno dei sistemi è caratterizzare la proteina tramite localizzazione e si modifica il gene di una
proteina, sfruttando i TRASPOSONI, cioè sistemi endogeni della cellula che possono trasferire il DNA
in vari punti.
In questo caso abbiamo quindi un sistema che permette il rilevamento della proteina e anche la sua
localizzazione in alcuni punti. Questo esempio è stato fatto sul lievito, perché ha caratteristiche
dell’apice della gemma, cioè il modo in cui la gemma si divide, del collo in cui si stacca la gemma e
del nucleo della cellula stessa.
Gli spot colorati sono delle colonie in cui il sistema genetico è stato modificato in modo tale che ad
una certa modifica corrispondesse un certo segnale. Il segnale che normalmente si usa è il β-gal,
che dà il saggio bianco-blu: il gene che mi dà l’informazione è la β -galattosidasi che in presenza di
substrato, se efficace, è capace di trasformare il substrato incolore in uno colorato di blu (il beta-
gal). β -galattosidasi produce l’enzima β -gal, ma è un sistema solo reporter, cioè come risposta mi
dà: il blu è presente/non presente a seconda che questo gene della β -galattosidasi sia presente
oppure no  è solo un sistema che mi dice cosa sta succedendo. Manipolando successivamente il
sistema posso leggere altro oltre al gene β -galattosidasi.
Ci sono molti altri geni: la luciferasi dà una risposta luminosa, la green-protein mi dà un segnale
verde fluorescente ecc.; sono cioè geni reporter

2. YEAST TWO HYBRID SYSTEM: Un sistema più utilizzato è, tramite la genetica, andare a rilevare
l’interazione tra la proteina A e la proteina B, cioè si vanno a mappare le interazioni proteina-
proteina: è importante perché si va oltre la proteomica, in quanto ci dice le proteine che sono
presenti e come si influenzano reciprocamente.
Può essere molto utile nello studio di patologie.
Per capire se la proteina A e la proteina B interagiscono, la cosa più semplice è avere un modo per
far sì che quando interagiscono ci sia un segnale, cioè devo trasformare il segnale molecolare in
uno visibile.
Nel caso dell’Yeast two hybrid system, c’è sempre un gene reporter e, come sistema per far
funzionare tutto, si usa il lievito  proteina A
viene legata al gene che codifica per la proteina
A e viene fuso con una porzione di proteina che
si lega al DNA (DNA binding domain); il gene
che codifica per la proteina B, di cui voglio
misurare l’interazione con la proteina A, viene
fuso a livello genetico con l’attivatore
trascrizionale.
I 2 domini in verde, che vengono fusi rispettivamente con la proteina A, di cui sto indagando le
interazioni, e con tutte le altre proteine che interagiscono con A, sono un sistema unico e
normalmente in natura sono collegati: funzionano solo quando sono vicine.
Se A non interagisce con B, l’attivatore trascrizionale non va vicino al binding domain del DNA e
quindi il reporter gene non viene attivato.
Se invece la proteina B si associa alla proteina A, l’attivatore trascrizionale è abbastanza vicino al
dominio da poterlo attivare, quindi l’insieme A+B fa legare i domini e il reporter gene dà una
risposta positiva.
Dunque, se A e B non si associano ho una risposta negativa del reporter gene; se invece
interagiscono ho una risposta positiva, qualunque sia il reporter gene.
Il problema è che posso avere dei falsi positivi, cioè possono esserci delle altre proteine che
mediano l’interazione o posso avere un’interazione non specifica; devo inoltre ottenere una
proteina di fusione con entrambi i domini, e non è detto che la fusione tra i geni A e B sia facile (si
fondono i geni che codificano per A e per B, ma ciò che io voglio esprimere è una proteina, che si
forma con 2 domini e che deve essere foldata correttamente per funzionare; vado poi a misurare se
interagiscono, misurando l’interazione di A-B con il gene reporter); le proteine devono interagire
tra di loro e poi entrare nel nucleo insieme all’attivatore trascrizionale.
Per esempio, se A e B interagiscono nel citoplasma, ma poi sono troppo grandi per entrare nel
nucleo, non sono visibili e se sono di membrana ancora meno.
Ipotizziamo che A e B possano interagire, ma, per come sono stati legati i 2 domini, non avviene
una buona interazione: si deve fondere il C-terminale della proteina A con l’N-terminale del gene
reporter ed ipotizziamo che sia proprio il C-terminale quello che serve per l’interazione: si può
provare a scambiarli, ma non sempre funziona, ed è possibile ci siano delle interferenze da ciò che è
fuso vicino  l’orientazione delle proteine in modo che funzioni non è sempre facile.
Questi sistemi si usano molto per misurare le interazioni di proteine già trasferite nel nucleo
perché, qualsiasi cosa si inserisca sopra, vengono comunque trasferite.

3. Un altro approccio simile è basato sull’ubiquitina, che regola il turn-over delle proteine; le proteine
che sono ubiquitinate sono processate rapidamente e c’è poi un ricambio.
L’ubiquitina ha una regione N-terminale e una C-terminale e, per funzionare, devono essere
presenti tutte due le regioni; le regioni N-terminale e C-terminale possono essere espresse
separatamente, quindi si può prendere la proteina e separarla. I geni che codificano la regione N-
terminale e quella C-terminale sono fusi rispettivamente alla proteina A e a quella B e, se
interagiscono, portano vicini i due sistemi che ho staccato. C’è un fattore trascrizionale su cui
avviene la fusione.
Non tutto il sistema viene traslocato nel nucleo, ma c’è una regione, vicino all’ubiquitina terminale,
con un peptide e un piccolo attivatore trascrizionale, che è una proteina che di solito viene
trasferita nel nucleo e agisce direttamente sul gene reporter. Quando i 2 pezzi dell’ubiquitina si
trovano vicini, dal momento che essa ha un’azione proteolitica, perché taglia le altre proteine, la
proteolisi avviene proprio su questo peptide di collegamento  la prima azione che avviene
quando le 2 parti dell’ubiquitina si trovano vicine è scindere il legame (l’ubiquitina è cataliticamente
attiva) e si libera il fattore trascrizionale, che viene di sicuro trasferito nel nucleo: ho quindi una
risposta del reporter gene. Se invece le 2 parti non si trovano vicine, non ho risposta dal reporter.
Il problema è che il linker così esposto, tra ubiquitina C-terminale e TF, potrebbe essere tagliato da
qualcosa estraneo al sistema.
Ci sono poi gli stessi problemi nel caso di un folding non corretto, in presenza di ingombri sterici,
ma il problema di trasduzione nel nucleo è risolto.

Altri metodi utilizzabili sono i CHIP, in cui posso usare l’alta processività per analizzare il proteoma o
l’interazione tra proteina-proteina (interattoma). Se trasferisco l’analisi proteomica su un sistema più
automatizzato e più processivo, posso associare a dei proteomi dei profili patologici o dei comportamenti
cellulari. Se ad esempio si ha una cellula cancerogena con un profilo proteico molto particolare, posso
usarlo dal punto di vista analitico ed usare dei sistemi ad alta processività, cioè sistemi di High-Throughput;
devo avere dei sistemi declinati che misurano più parametri alla volta  array.
Tecniche:

1. SELDI (Surface Enhanced Laser Desorption Ionisation-TOF MS) dava la possibilità di usare un
sistema automatizzato per la proteomica; è basato su un rilevamento MALDI-TOF, a cui viene
aggiunto uno step precedente: si hanno una serie di chip (in Al o altro materiale) che hanno 16-18
spots, con una superficie con caratteristiche differenti, e danno interazioni differenziate, in base
alle classi di proteine. Viene detta affinity capture, ma si può anche avere un’interazione
elettrostatica, idrofobica, con ligandi o target specifici...
È automatizzabile, ha una sensibilità molto elevata ed adatto a campioni fino a 300 kDA; rispetto
alla proteomica 2D funziona bene anche con proteine molto piccole, proteine con pI molto acido o
molto basico, ma funziona un po’ meno bene per proteine più grandi e proteine con una grossa
parte glicosilata.

Cypher gene presentation movie: vengono mostrati i chip; su ciascuno spot c’è un replicato o
differenziato un supporto; immaginiamo che i punti di contatto siano per interazioni tra le cariche
positive, quindi vengono intrappolate tutte le proteine cariche negativamente. Si fa un lavaggio per
cui le proteine che hanno interagito in modo aspecifico vengono lavate via, mentre vengono
ancorate sulla superficie quelle che hanno un’interazione per carica, un’interazione idrofobica ecc.
A questo punto, intrappolata questa classe di proteine, si applica la tecnica MALDI, cioè si aggiunge
la matrice e si ha il MALDI-TOF. Dopodiché si ha desorbimento e rilevazione a tempo di volo, quindi
si ottiene uno spettro di picchi che dipendono dal rapporto m/q.
Otteniamo cioè uno spettro come nella tecnica classica di MALDI, ma per ogni chip avremo il profilo
caratteristico delle proteine che sono state immobilizzate per interazione elettrostatica su carica
positiva, su carica negativa, su matrice idrofobica, che si sono legate perché riconoscono un certo
anticorpo… Posso quindi identificare delle sottoclassi delle proteine.

Nel 2003, sulla rivista Proteomics, sono stati pubblicati dei risultati utilizzando questi tipi di chip:
sulla carta funzionava molto bene, perché potevo identificare i vari profili dei picchi con delle
patologie ed è un sistema che può essere utilizzato per rilevare biomarcatori ma anche per fare una
diagnostica di HT molto facilmente, con macchinari in dotazione ad ogni ospedale.
Il limite è che bisogna veramente identificare con certezza i picchi corrispondenti a organismi
rispetto ai picchi corrispondenti a delle patologie.
La mappatura deve essere molto precisa e bisogna fare un trading della macchina per far sì che la
macchina, o il software, interpretino correttamente i dati.
Nell’esempio si è applicata la tecnica per rilevare le proteine espresse dall’ Helicobacter, un
patogeno presente nel nostro intestino, in condizioni differenti, cioè in seguito a maggiore o minore
trattamento con la bile; si guarda qual è la risposta proteomica di questo organismo a
concentrazioni più o meno alte della bile e se può colonizzare. Lo spettro a è in assenza di bile
mentre il b è in presenza di bile.

Il secondo esempio, del 2005, viene fatto su un profilo proteomico delle proteine presenti nelle
urine e si vanno a mappare i campioni di pazienti sani e pazienti affetti da carcinoma renale per
vedere le differenze. Ho dei picchi più definiti e si usano dei sistemi a reti neurali, che sono dei
sistemi di analisi computerizzati in cui il sistema setta automaticamente i propri parametri e ha una
sorta di tranding. Questi sistemi elaborano i propri algoritmi da soli per analizzare grosse quantità
di dati per vedere se sono correlate tra di loro.

L’idea è di fare un sistema in cui si misura il profilo proteomico, associandolo a certi tipi di
patologie, permettendomi di analizzare grosse quantità di dati ed avere molti dettagli, ma è un
sistema molto complesso.

2. PROTEIN MICROARRAY: molti dei sistemi di analisi per la proteomica e l’interattomica mi


permettono di avere informazioni, con un’ampia processività, su una serie di proteine.
Un microarray è un insieme di proteine o altre molecole, distribuite su una superficie, che può
andare da un semplice vetrino ad un chip, e mi dà informazioni sul proteoma o interattoma di un
certo sistema biologico o di un insieme di proteine cioè di sensori, che in serie, mi dà informazioni
su vari parametri.
Gli array, come i biosensori, hanno ancora dei problemi di fabbricazione: una proteina, o una
molecola, mi dà informazioni sull’interazione con altre molecole, quindi c’è di nuovo il problema
della trasduzione del segnale, cioè un segnale molecolare che diventa un segnale visibile e
misurabile.
Altro problema: ho una parte biologica che deve interagire con il materiale.
Review: problemi limite dalla fabbricazione e dell’applicazione dei protein-chip e protein array.
Cos’è un protein chip e che molecole si inseriscono per farlo? Non devono necessariamente essere
delle proteine, perché posso avere anche altre molecole o substrati che ad esempio intrappolano le
proteine, come nel caso SELDI. Altro problema è il rilevamento.

Chip a DNA sono più innovativi rispetto ai chip a proteine e servono per identificare la presenza di
acidi nucleici e si possono fare analisi genomiche ad alta processività.
È più facile usare chip a DNA che a proteine, perché innanzitutto è più facile sintetizzare il DNA,
inoltre è una molecola lineare mentre la proteina è molto più eterogenea; il DNA ha come unica
attività funzionale riconoscere un complementare mentre la proteina è un organismo molto più
versatile ed utile, ma molto più complicato (ad esempio, se perde la struttura perde anche la
funzione); se scaldo e poi raffreddo il DNA, ritrovo la stessa sequenza mentre la proteina
ovviamente no.

Come sono nati i protein chip e protein array? Inizialmente, varie proteine sono state immobilizzate,
attraverso la poli-lisina, che è un ancorante, ad un microscopio per vedere come interagivano.
Tipicamente venivano immobilizzati gli anticorpi grazie ai quali riuscivo ad avere dei pattern molto
chiari rispetto a delle sostanze inquinanti o dopanti, con controlli incrociati per vedere la presenza
di aspecifici.
Si possono usare ad esempio delle stampanti a getto di inchiostro biologico per depositare le
proteine e spottarle in modo automatico; posso orientare in modo omogeneo sulla superficie del
chip, modificando le proteine oppure posso modificare tutte le proteine che voglio immobilizzare
con un peptide particolare che le immobilizza in modo orientato.
La prima applicazione è stato creare degli array di proteine che contenessero tutto il proteoma di
un organismo abbastanza semplice come il lievito: tutte le proteine di lievito sono state espresse
con una coda di istidine (sono quindi dette taggate perché l’his è stata aggiunta al gene), in modo
che queste proteine potessero riconoscere in modo specifico delle matrici cromatografiche, e
anche delle superfici (le his riconoscono anche i metalli, quindi su superficie con metalli chelati,
queste proteine si possono attaccare attraverso il tag).
Dopo essere state taggate, le proteine vengono poi distribuite su un array che contiene tutte le
proteine possibili di lievito, cioè si hanno tutte le possibili proteine di una determinata cellula e si
può vedere come e con chi interagiscono.
La stessa cosa è stata fatta con sistemi chimici per avere delle proteine orientate o delle
immobilizzazioni su microgel.
Principio: tutte le proteine vengono prodotte, filtrate e immobilizzate (in questo caso il tag è un po’
diverso), vengono prodotti dei pozzetti diversi e vengono immobilizzati su una membrana; c’è una
corrispondenza per ogni spot  tutte le proteine hanno una porzione, che è il loro tag che
permette di purificarle, in modo isolato, ma anche di riconoscerle, e, nel panello superiore, tutte le
proteine sono state spottate e sono colorate perché vengono marcate con un anticorpo che
riconosce questo tipo di tag. Il pannello superiore serve quindi a dimostrare che in ciascuno spot si
ha una proteina, che mi aspetto di avere, e ciascuna proteina è diversa l’una dall’altra: devo avere
tutti gli spot positivi.
Nei pannelli inferiori ho lo stesso tipo di array, ma si prende un’altra proteina per vedere le
interazioni interattomiche; la proteina viene marcata con un fluoroforo e viene messa sul chip: si
legherà solo alla proteina che sarà normalmente suo partner, si lava via tutta la soluzione e restano
marcati solo gli spot con la proteina presente e, la proteina marcata che ho usato come sonda per
andare a vedere con cosa interagiva, interagisce solo con gli spot che contengono le proteine.
Le sonde che sono state usate nell’esempio della slide 25 sono dei fosfolipidi.
Avere un chip che contiene tutti i microarray è utile, quello del lievito è stato utile per capire anche
i funzionamenti base delle cellule, perché è una proteina molto semplice e simile alle nostre, quindi
serve per capire se una cellula si divide, si moltiplica, non si moltiplica (quindi è in fase crescente) ...
Il funzionamento delle nostre cellule e del lievito è praticamente identico, quindi è stato un
modello unico a livello genomico, ma poi anche a livello proteomico e interattomico.
Il rilevamento dovuto alla presenza di molecole fluorescenti non è l’unico; per molte tecniche
utilizzate, per rilevare l’interazione, devo modificare la proteina, come nella isotropic labeling, in cui
si mette una marcatura alla proteina, o ad un’altra molecola, che vado ad utilizzare per rilevare le
interazioni molecolari.
Ci sono poche eccezioni, tra cui la Surface Plasmon Resonance e tecniche di microscopia, come il
SELDI, in cui non è necessaria una marcatura, che è un problema, perché si modifica in parte la
proteina o la sonda.
La fluorescenza è più facile da rilevare perché si fa una rilevazione ottica; per altre tecniche,
l’interazione molecolare può essere fatta anche per imaging, laser, ma anche spettrometria di
massa (come nel SELDI), con cambiamenti topologici di superficie o con l’indice di rifrazione nel
caso dell’SPR.
Un altro problema è se posso acquisire i dati in tempo reale, e quindi vedere l’interazione, o in
momenti successivi.
Altri esempi di array sono tutte le varianti di una proteina che è specifica per una patologia: ad
esempio, la proteina p53 ha un’azione antitumorale, cioè intercetta delle modifiche del sistema di
segnalazione; se non è presente o ci sono dei mutanti stabilizzati, ci sono più probabilità di
sviluppare patologie tumorali. L’array è stato fatto esprimendo la proteina nella forma well-type e
in tutte le forme mutanti, per capire quali funzioni hanno le varianti e quali interazioni falliscono
con le altre proteine.

Un protein-array è una serie di proteine immobilizzate, ma non necessariamente sono tutte delle
proteine, perché si hanno due tipi di microarray, con scopo:
-ANALITICO  ho una serie di anticorpi che riconoscono determinati analiti, ho un array di
anticorpi che va ad analizzare molti antigeni e mi dà una risposta multifattoriale sui miei analiti.
Si può, però, anche immobilizzare l’antigene e determinare la presenza di anticorpi che riconoscono
l’antigene  lo scopo è quindi analitico-diagnostico: si rileva con cosa interagisce la proteina e non
la proteina di per sé.
Si può fare la stessa cosa per i ligandi e i recettori e verificare la presenza di interferenti.
-FUNZIONALE  Si possono inoltre sfruttare i chip a proteine per dimostrare che è stato
riconosciuto il target, e quindi riconoscono altre proteine, farmaci ecc, e, oltre a riconoscerle e
legarsi, catalizzano la reazione. I chip funzionali quindi mi dicono che la molecola è stata
riconosciuta e c’è un’interazione, e su altri substrati, viene trasformata.
Per lo studio di nuovi farmaci può essere utile immobilizzare le proteine che i nuovi farmaci
degradano (come nel caso del cyt P450) e sapere che sono riconosciuti e processati.
Nel caso del cytP450 voglio che sia processato; in altri casi di farmaci mi interessa che non sia
degradato in modo aspecifico.
I chip a DNA non avranno mai questa funzionalità; come nell’analitico c’è un livello di specificità, ma
c’è anche la potenzialità della catalisi, che facilita il rilevamento perché, quando la proteina
catalizza, è più facile andare a vedere la risposta positiva.

Quindi, sul micro-array si inseriscono proteine, enzimi, anticorpi e si possono mettere degli
aptameri, cioè molecole di DNA che agiscono per il riconoscimento in modo simile alle proteine e
possono essere più stabili.
Si può mimare l’assenza di proteine tramite polimeri a stampo molecolare, con il vantaggio di
essere più stabile.
Si possono inserire sui micro-array anche dei batteriofagi, cioè dei virus che intaccano le cellule
batteriche e spesso presentano delle cellule particolari; sono stati applicati dei metodi per esporre
le proteine a dei batteri particolari: il batteriofago produce una proteina extra che andiamo ad
immobilizzare  il vantaggio è che posso usare il batteriofago per moltiplicare questa sorta di virus
batterico e poi inserirla, senza purificarla prima.
Sintesi chimica funziona bene per i peptidi e per i polimeri a stampo molecolare, ma non tanto per
le proteine. Si può fare la trascrizione/trasduzione in vitro o con organismi ricombinanti, posso far
crescere i batteriofagi, quindi ci sono una serie di problemi su come produrre le proteine.
Un altro problema è su come immobilizzare le proteine (si usano legami covalenti, immobilizzazioni
orientate, adsorbimento?) e come si rileva il segnale: si ha di nuovo rilevazione ottica, reazione
enzimatica, marcatura con un isotopo e la topologia di superficie.
In alcuni casi, nei sensori ottici, il riconoscimento per fluorescenza viene effettuato tramite i
reagent-less fluorogenic sensors: sono dei sensori (array o biosensori) in cui la fluorescenza viene
utilizzata per andare a monitorare lo stato di legame della proteina.
Il caso più facile da studiare è la proteina che lega il maltosio, che è una proteina con 2 domini
incernierati, con una regione molto dinamica: si trova nella forma aperta quando non ha il
substrato legato, mentre quando si aggiunge il substrato, in questo caso il maltosio, entra nel sito
attivo e si produce un cambio conformazionale per cui la proteina risulta essere chiusa. C’è una
mobilità dei 2 domini che si chiudono quando il maltosio si è legato.
Molte proteine hanno una conformazione aperta o chiusa a seconda dei vari stimoli.
Questo cambiamento conformazionale è correlato ad un legame, ma potrebbe esserci un
cambiamento o una differenza rilevabile in fluorescenza dovuta ad una proteina che interagisce con
un’altra; ad esempio, abbiamo una proteina che interagisce con la regione indicata dalla freccia:
una rilevazione fluorimetrica (alcune volte anche con un cromoforo) può sfruttare queste
interazioni con le proteine per darci un segnale. Essendo una tecnica REAGENT-LESS, non aggiungo
nulla alla reazione, ma una delle 2 proteine, o uno dei due partner, è già premarcato con un
fluoroforo.
In questo caso, l’approccio sulla
maltose binding protein è stato
modificare un residuo
amminoacidico che era presente in
quella regione, ingegnerizzando la
presenza di un’unica cisteina
(perché ha un gruppo solfidrilico che può legare il fluoroforo), in questo caso la INBD, che si trova
nella conformazione aperta molto esposta al solvente. I fluorofori possono avere effetti di
quenching in soluzione, tramite l’attenuazione della fluorescenza, e infatti la INBPD in soluzione
acquosa ha una fluorescenza molto quenchata e non fluoresce quasi per nulla.
Quando la proteina si chiude, il fluoroforo può alloggiare in una reazione dove è presente un’altra
regione proteica, che è di fatto costituita da aminoacidi abbastanza idrofobici: si ritrova quindi ad
essere all’interno della proteina, molto più schermata dal solvente e meno quenchata  quando la
proteina lega il substrato e si chiude, il fluoroforo non è più quenchato ed emette una fluorescenza.
Se abbiamo un array su cui sono state immobilizzate molecole di questo tipo, o un biosensore in
soluzione, e si aggiunge il maltosio, maggiore la quantità di molecole chiuse dovute alla maggiore
quantità di maltosio aggiunta, maggiore è il segnale visibile.
Se invece è presente una proteina che cambia conformazione quando si lega ad un ligando,
inizialmente si vede la risposta sì/no e si può avere anche una risposta quantitativa.
Se voglio vedere più specificamente, si può inserire un fluoroforo e orientarlo: oltre ai fenomeni di
quenching si possono avere fenomeni di frat, cioè la possibilità che due fluorofori vicini per spettri
di emissione e di assorbimenti si influenzino reciprocamente e tramite misure in frat, si hanno
informazioni di interazione e di orientamento dell’interazione.
Tutto questo fa parte della sensoristica ottica; abbiamo 2 approcci: l’INTERACTION PROFILING
(interazione proteina-proteina) o l’EXPRESSION PROFILING.

Table 1 “Fabrication” (slide 35): mostra le superfici possibili che vengono usate e come si
adsorbono (es. PVDF; nitrocellulosa…).

Ci sono ancora grossi problemi di trasduzione del segnale quando si lavora su array di dimensioni normali,
mentre c’è un vantaggio nel scendere nei nano-array, nei nano-chip e nei nano-sensori perché è più facile
lavorare visto che siamo nella stessa scala: evento molecolare è su scala nano-metrica e anche il sistema
di rilevamento  daranno lo stesso tipo di segnale.
A livello nm, si è passato a parlare di proteomica, nanotecnologie e diagnostica molecolare insieme.
Una delle possibili rilevazioni che va a rilevare direttamente, senza modificare le proteine, l’interazione tra
una proteina e un target molecolare è la SPR (Surface Plasmon Resonance): le proteine vanno
immobilizzate su una superficie di oro (a volte anche Ag), che può essere un problema. Una volta
immobilizzata, si può rilevare in tempo reale l’interazione perché c’è una modifica dell’angolo di rifrazione
all’interno del materiale, ma non è facile immobilizzarla.

Ci sono altri sistemi nm:


- nanowire hanno dimensione più allungata e sono dei semiconduttori sulla cui superficie si possono
immobilizzare delle proteine, in questo caso anticorpi, che possono riconoscere liposomi, proteine
antigeni...
Si possono anche immobilizzare degli acidi nucleici, in questo caso a singola elica, che riconoscono i
complementari.
In tutti questi casi abbiamo dei transistor, in cui la conduttività dei nanowire viene misurata e viene
modificata: varia quando il nanowire non lega le proteine, e quindi non riconoscono nessun
partner, rispetto a quando si ha un’interazione  quindi si ha un segnale ed è facile rilevarlo (è una
rilevazione di tipo elettrico).

- I nanocantilever sono delle nanoleve fatte di materiali con una certa capacità di flessione; sulla
superficie si immobilizzano gli anticorpi: nel momento in cui si lega l’antigene, si può avere anche
una piccola variazione della massa, e non si va tanto a misurare l’inclinazione della leva, quanto la
frequenza di oscillazione, che è più sensibile.

08/01

SPETTROSCOPIA APPLICATA ALL’ANALISI DI PROTEINE


Spettrofotometria applicabile allo studio della struttura secondaria e terziaria delle proteine, a patto che le
proteine abbiano un assorbimento nel vicino-UV o nel visibile. Collegato allo studio nella regione del visibile
c’è la rilevanza delle tecniche spettrofotometriche per lo studio di cofattori enzimatici e delle vitamine, che
danno un contributo in questa regione. C’è poi una rilevanza dell’interazione dei metalli catalitici e
strutturali, dove il segnale spettrofotometrico, cioè l’assorbanza, non è significativo: si può ricorrere ad
altre tecniche che hanno però le stesse lunghezze d’onda di riferimento, perché si vogliono vedere delle
modifiche delle molecole che sono in quell’intorno  se sono analoghe alla spettrofotometria in energia
molecolare posso vedere ad esempio l’eccitazione degli elettroni nelle transizioni degli elettroni π-π*
tramite fluorescenza, l’EPR studia l’interazione con metalli paramagnetici, mentre il dicroismo circolare, una
variante della polarimetria, va bene non solo nel visibile, ma anche nel lontano UV.

Tecniche spettroscopiche guardano l’interazione tra lo stato fondamentale e lo stato eccitato, cioè
vibrazioni che sono transizioni elettroniche molecolari; le transizioni elettroniche atomiche, che servono
per risolvere la struttura, necessitano dell’interazione con i raggi X, cioè di una frequenza più piccola e di
un’energia superiore: l’applicazione è la diffrazione sui cristalli di proteine, ma sono necessarie radiazioni
molto potenti che danno informazioni in pochi secondi, come i sincrotoni, affinché non si danneggino le
proteine, e l’applicazione nella diffratometria è la risoluzione della struttura cristallografica.
Nell’IR abbiamo delle transizioni vibrazionali, cioè si hanno informazioni sulle vibrazioni (stretching,
bending…); tuttavia c’è un segnale vibrazionale pesante dell’acqua quindi si lavora sottraendo il
background, dopo aver acquisito lo spettro in trasformata di Fourier, cioè si lavora con una pesantissima
correzione del background. È utile lavorare in IR per avere informazioni di stretching e bending di segnali
particolari (amide1, amide 2, amide 3), che sono segnali specifici del legame peptidico, ma è molto
complicato da studiare. Viene molto usato lo scambio H-D, perché si ha uno scambio isotopico importante
e, in questa regione, alcune proteine danno segnali diversi.
Ci sono delle proteine che hanno un centro metallico dove il Fe è coordinato a gruppi CO e CN (come un
piccolo MOF), quindi i segnali del centro catalitico sono leggibili in IR in trasformata di Fourier e l’acqua è
sottraibile e l’enzima ha diversi stati redox, quindi cambia anche conformazioni; ci sono invece altre
proteine per cui l’IR non è necessario.
Le microonde e le radioonde sono applicabili allo studio delle proteine, utilizzandole come fonti della
transizione dello spin elettronico o nucleare.
Tecniche:

 DICROISMO CIRCOLARE: è differente dalla polarimetria, in cui bersaglio il mio campione con luce
polarizzata, che si ottiene selezionando uno dei piani tramite una lente Polaroid: quando il raggio
incontra un centro chirale c’è una variazione dell’angolo del piano della luce polarizzata.
Invece il dicroismo circolare, che non usa l’onda polarizzata lineare, ma circolare, si ottiene
attraverso la sovrapposizione di due onde di luce polarizzata, tra loro perpendicolari e sfalsate di ¼
di lunghezza d’onda. L’onda che si ottiene è polarizzata circolarmente, quindi componendo i due
vettori che descrivono le due onde, si ottiene che il percorso del vettore è quello di un cerchio e
può essere destrogiro o levogiro: è cioè la composizione di 2 piani.
La luce è polarizzata circolarmente e traccia un cerchio; quando incontra un centro chirale, uno dei
piani, o entrambi, possono variare il proprio angolo, non sono più perpendicolari ma descrivono
una traccia ellittica, perciò si misura il grado di deviazione o l’ellitticità molare, corretta per il peso
medio molecolare, che è più specifica per il segnale.
Strumentazione: è presente un polarizzatore e lo strumento può registrare sia in assorbanza sia in
dicroismo.
Per l’applicazione nello studio delle proteine, si lavora
nell’intervallo di lunghezze d’onda 190 nm-250 nm: i 3
spettri sono assegnati alle strutture secondarie delle
proteine, di cui 2 ordinate (α-elica e foglietto-β), più si
registra uno spettro su un campione di proteina, e, se è
simile a quello nero, vuol dire che la proteina ha un
avvolgimento casuale, cioè che è denaturata (è quindi
srotolata).
In y ho l’ellitticità molare.
Questa spettrometria permettere di capire
immediatamente se la proteina ha una certa struttura
secondaria e se questa cambia nel tempo in seguito a dei
trattamenti fatti alla proteina: due spettri ordinati si
somigliano tra di loro ma hanno andamento esattamente
opposto, infatti, rispetto all’assorbanza, abbiamo una componente positiva o negativa a seconda
che l’angolo di rotazione sia positivo o negativo rispetto al piano iniziale.
L’andamento della proteina denaturata è molto diverso da quello delle altre due forme.
A volte si usa un cammino ottico minore del normale perché l’intensità del segnale è forte e si
lavora nel lontano UV: perché lo strumento sia adeguato a registrare questi spettri, bisogna evitare
interferenze da parte della ionizzazione dell’ossigeno con la formazione di ozono, che danneggia
anche lo strumento: si usa un flusso continuo di N.

Spesso nelle spettrometrie applicate a rilevazioni biochimiche, il segnale tra 2 stati diversi è
differenziale e se sono abbastanza diversi si usa questa tecnica; tuttavia la spettrometria non dà
sempre un segnale chiaro.
- Determinazione della struttura secondaria di biopolimeri: In formazione stiamo leggendo un
segnale che assorbe nel lontano UV, è correlato alla struttura secondaria della proteina ed è legato
ad un centro chirale: è il legame peptidico  è una struttura rigida, parzialmente doppio, può
ruotare rispetto agli angoli ψ e ф, che sono gli angoli del grafico di Ramachandran.
Il legame peptidico tra N e CO è parzialmente doppio; gli angoli ψ e ф hanno
caratteristiche legate all’ α-elica, ai foglietti-β e ad altre strutture; cioè leggo
informazioni sulla chiralità rispetto alla struttura rigida e a seconda
dell’angolazione, le transizioni subiscono l’influenza della conformazione chirale
rispetto al piano rigido. Il centro chirale è il piano del legame peptidico, intorno al
quale si hanno diversi possibili sostituenti.
Le transizioni che avvengono sono n- π*, intorno ai 220 nm (è quella del doppietto)
e π-π*, che risuona sul doppio legame a 190 nm.
SLIDE 22: Si sono studiati i dati sul modello della poli-lisina, che a seconda delle
condizioni, assume una diversa forma: 1-pH =10.8  α-elica
2-pH= 11.1 T=52°C per 5’ e poi raffreddato
 foglietti β.
3-pH=7  Random coil

SLIDE 23: Sono state poi indagate caratteristiche particolari: la poli-prolina, ad esempio, ha uno
spettro simile a quello del random-coil, mentre i turn di tipo I (che sono dei ripiegamenti rigidi con
una forma a forcina, mantenuti grazie ai legami H) hanno spettri ben definiti.

SLIDE 24: La mioglobina ha un andamento compatibile con un’α-elica (contiene solo α eliche,
perché è una globina, ed alcuni ripiegamenti); il lisozima contiene foglietti β e α-eliche, quindi è
compatibile con un random-coil ed ha un picco meno pronunciato + un doppio picco; la
chimotripsina contiene molti foglietti- β e dei grossi loop, ha un andamento particolare, mentre la
trisofosfato isomerasi ha una composizione detta TIM baller (a barile), cioè intermedia tra un’α
elica e un foglietto β.

Condizioni operative: bisogna avere soluzioni pure, si può calcolare l’ellitticità molare tramite lo
strumento, che viene trasformata nell’ellitticità residua, conoscendo la concentrazione precisa, il
cammino ottico ed è correlata alla massa molecolare/(n° di residui amminoacidici -1): si ottiene
quindi il PM del residuo amminoacidico medio, corretto.
Una volta calcolata l’ellitticità molare, lo spettro può essere corretto tramite dei programmi
(SELCON, CDNN, K2D) che possono analizzare lo spettro e fare una deconvoluzione: se conoscessi lo
spettro 100% α, 100% β e 100 % random-coil di una proteina pura, potrei ricomporre i segnali,
quindi è possibile fare anche il contrario partendo dallo spettro per conoscere la struttura
secondaria tramite la spettroscopia e senza danneggiare la proteina.
Queste spettroscopie non mi danno informazioni sulla struttura della proteina, come le tecniche
classiche, ma posso capire molte proprietà. Partendo da un set di spettri noto e da una struttura
proteica nota di un set di riferimento di proteine, si elabora un algoritmo di deconvoluzione che dà
il risultato.
Alcuni programmi sono utili per lunghezze d’onde > 200 nm, mentre altri funzionano solo fornendo
la porzione che va da 190 a 200 nm, dipende dall’applicazione.

- Studio di folding-unfolding delle proteine: Si possono anche avere informazioni sul cambiamento
del meccanismo della proteina, perché se si applica una variazione di T, pH, si hanno dei
denaturanti chimici o si tratta la proteina per perdere il cofattore, e questo influisce sulla struttura
secondaria, si può vedere un cambiamento.
Es. denaturazione termica di una ossigenasi batterica (slide 34): la proteina è stata trattata con
l’aumento di T; lo spettro blu è quello iniziale. La proteina è foldata inizialmente; ha una
componente β e una α e potrebbe avere dei loop per la forma non foldata.
Aumentando la temperatura, lo spettro cambia e si ha un’inversione: il picco negativo tende ad
aumentare e dare un picco positivo. Si va ad individuare una lunghezza d’onda in cui questa
inversione sia significativa, cioè si plotta la lettura a 200 nm; a ca 210 nm ho il punto isosbestico
quindi non è leggibile lo spettro perché non ho informazioni.
Nel plottare queste informazioni, inizialmente si ha una costanza nello spettro, poi c’è una
transizione ed ottengo informazioni sulle caratteristiche della struttura foldata e non foldata; ho
anche informazioni sul punto di melting, in cui ho il 50% di tutte e due.
Questa era la transizione tipica della struttura secondaria, ma le proteine possono avere transizioni
differenti e non ho informazioni sull’attività della proteina, infatti le proteine possono perdere la
propria attività a T più basse o più alte. Tuttavia la T di denaturazione della proteina è importante,
soprattutto in campo clinico: ad esempio, la proteina P53 ha delle varianti, alcune hanno un punto
di melting inferiore a 37°, quindi a T corporea la proteina è parzialmente denaturata e
destabilizzata. La proteina p53 è parzialmente non foldata perché la sua funzione è proprio avere
delle conformazioni un po’ non foldate per interazioni con altre componenti cellulari; questa
variante oncogenica invece porta ad avere un rischio maggiore di mutazione neoplastica nelle
cellule, che porta la proteina ad essere meno attiva, quindi si denatura ed è meno presente nella
cellula  si hanno delle patologie tumorali.
In altri casi la Temperatura di melting ci può dare informazioni sulla resistenza termica della
proteina: per l’applicazione è meglio se è termostabile.
Si usa un batch di proteina nella cuvetta e si scalda di 10° e poi si alza ad intervalli di 5°: non ho la
vera T di melting perché si va a guardare la progressione, ma devo essere consapevole del possibile
danno; inoltre ci potrebbero essere varie temperature a cui avviene.

La struttura del cytc (SLIDE 33) non regge senza l’eme all’interno perché le interazioni sono troppo
forti perché la proteina sia indipendente; l’apoproteina cambia la sua struttura terziaria e
secondaria.
Il cyt c è una globina, togliendo l’eme perde gran parte della sua struttura secondaria e si ottiene
l’apocyt c; se si ri-aggiunge eme, si ricostruisce in parte l’oloproteina, ma non al 100%.
Questo aiuta a capire se la proteina è totalmente/parzialmente in forma olo o se è
parzialmente/totalmente in forma foldata.

Ci sono microdifferenze associate ai turn di tipo I quindi la tecnica non è applicata solo ai foglietti-
β.

- La tecnica è applicabile anche ai segnali nel vicino UV: si vede il segnale tipico di assorbanza degli
aromatici, che assorbono in questa regione, anche se tirosina, triptofano e fenilalanina non son
chirali, ma subiscono l’effetto dell’intorno. Il cambiamento però non è solo legato alla struttura
secondaria, ma anche a quello della struttura terziaria o può essere un cambiamento locale: ad
esempio, la transglutaminasi lega il GTP in presenza o in assenza di Ca2+; nella figura in alto nella
slide 37 si nota che in presenza di GTP si ha un cambio conformazionale e un cambiamento della
struttura secondaria, il che è normale vista la funzionalità del GTP, quindi quando si lega il GTP in
assenza di Ca2+, l’alfa-elica si può distorcere e cambiare la conformazione, non assumendo la
geometria classica: GTP fornisce energia perché avvenga questo cambiamento conformazionale.
Si può fare la deconvoluzione dei 2 spettri e si legge la variazione tra i 260 e 300 nm della struttura
terziaria e abbiamo picchi positivi e negativi; non è però facile individuare i cambiamenti.

Lo stesso discorso si può fare per la regione del visibile: in basso si ha il grafico dell’emoglobina in
forma ossi, deossi e met e si identificano i
picchi di Soret della regione gamma e della
regione alfa e beta.
In questo caso per leggere cosa succede ed
interpretare lo spettro, posso usare lo
spettrofotometro perché si hanno già
parecchie informazioni, non è necessario il
dicroismo circolare, con cui individuo gli stessi
picchi, ma una componente positiva e una
negativa. In dicroismo circolare, però, oltre i picchi di Soret, ho il contributo della regione dell’UV in
cui vedo la differenza delle componenti che assorbono nella regione del vicino UV (come l’eme e i
gruppi aromatici).
Quindi, se abbiamo una proteina che in spettrofotometria si comporta come l’emoglobina in questa
regione, ho bisogno del dicroismo circolare per vedere una differenza.
Le proteine Fe-S sono fondamentali nei mitocondri e sono legate ad alcune patologie; hanno un
segnale nel visibile dato dal Fe con un contributo intorno ai 300-400 nm; hanno una colorazione
visibile marroncina quando sono molto concentrate. In dicroismo circolare la struttura ridotta e la
struttura ossidata danno un segnale che dà uno splitting del picco (effetto Corton) e in un caso si
vede come un segnale piatto, mentre nell’altro si ha uno spite positivo e uno negativo, quindi, si
può vedere lo stato ridotto o ossidato perché uno dà un segnale mentre l’altro no.

 FLUORESCENZA: si studia una transizione stato fondamentale-stato eccitato; quello che succede
nell’assorbimento è il ritorno allo stato fondamentale per dissipazione di energia cinetica/termica.
Esistono strutture chimiche in cui l’eccitazione stato fondamentale-stato eccitato avviene solo
parzialmente per dissipazione di energia termica e si può avere riemissione dell’energia subita sotto
forma di fluorescenza o fosforescenza: la prima avviene su scala di ns mentre la seconda in tempi
più lunghi.
Il triptofano assorbe a 290 nm ed è l’unico aa che fluoresce; non riemette a lunghezze d’onda
inferiori o uguali ma intorno ai 350 nm, altrimenti significherebbe che ha ancora la stessa energia o
non l’ha persa affatto: l’assorbimento dipende dall’E persa che è correlata all’intorno chimico.
L’intensità della fluorescenza dipende da più fattori; si lavora sul cambiamento del picco di ri-
emissione, perché ci dice la quota di E riemessa sotto dissipazione termica e quella emessa come
radiazione.
Prendiamo ad esempio una proteina con 2 trp, uno nel core idrofobico, che è molto rigido, tenuto
dall’intorno chimico, e uno sulla superficie: facciamo 2 modifiche, togliendo prima il trp sulla
superficie e poi quello interno. Gli spettri di ri-emissione non sono uguali, non hanno cioè la stessa
lunghezza d’onda, il trp sulla superficie si può muovere di più quindi ri-emetterà a lunghezze d’onde
maggiori rispetto all’altro: questo shift viene detto BLUE o RED, a seconda se sia a lunghezze d’onda
minori o maggiori (ad energia più alta o più bassa).
Se la proteina viene denaturata, il trp verso l’esterno non cambia la denaturazione mentre quello
interno sì: la fluorescenza cambia per la proteina del core idrofobico mentre non cambia per la
proteina denaturata sulla superficie.

In fluorescenza non c’è una relazione semplice come l’assorbanza, ma abbiamo una resa quantica,
l’intensità di radiazione incidente, la concentrazione, il cammino ottico e l’assorbività da tenere in
conto.
Sono correlati dalla formula: F = ф P0 (1 – 10-abc)
se abc è piccolo, si approssima a: F= 2.303 ф P0 abc.
È una tecnica a background zero quindi è molto sensibile (implica che c sovente è piccolo): quando
si misura la fluorescenza si eccita il campione con una radiazione monocromatica, si misura la
radiazione su un raggio ortogonale in modo da non avere nessuna radiazione incidente.
Si hanno una lunghezza d’onda di eccitazione e una seconda lunghezza d’onda di emissione, quindi
si è sicuri di andare a leggere esattamente il segnale che stiamo cercando.
Composti leggibili:

La clorofilla è stata la prima sostanza studiata in fluorescenza.


Se mi serve un’alta sensibilità per rilevare il NAD ridotto, posso usare la fluorescenza.

Si parla di:
Fluorescenza intrinseca: composti che hanno questa proprietà naturalmente (le proteine che
hanno trp).
Fluorescenza estrinseca: vengono inseriti dei gruppi per rendere le molecole fluorescenti; composti
non fluorescenti possono essere rilevati tramite sonde fluorescenti.

Applicazioni della fluorescenza:


1- dosaggi quantitativi (di proteine e sostanze come vitamine, cofattori, enzimi…)
2- dosaggi enzimatici (per monitorare l’attività di un enzima che dà un prodotto fluorescente)
3- analisi strutturale di proteine e acidi nucleici (sonda locale per monitorare l’intorno chimico)
4- biosensori enzimatici

18/01

1. Dosaggi quantitativi: la fluorescenza subisce fenomeni di quenching, cioè di attenuazione


dell’efficienza, dovuti agli effetti matrice o interazioni con altri composti chimici.
Possono essere evitati aggiungendo una quantità nota di un composto standard e misurando la
fluorescenza prima o dopo.
2. Sono fluorescenti le forme ridotte dei coenzimi NADH e NADPH, che hanno un’assorbanza
caratteristica a 340 mentre le forme ossidate no. Spesso si può coniugare una reazione
enzimatica con una che consuma o produce NADH, quindi è facile correlare i segnali in
assorbanza, così come in fluorescenza, che è più sensibile e specifica, perché ha una lunghezza
d’onda di emissione e una di eccitazione.
3. Per l’analisi strutturale si può usare la fluorescenza intrinseca, usando trp o un cofattore, come
FAD o FMN, o la fluorescenza estrinseca, aggiungendo sonde fluorescenti, che interagendo con
le proteine mi danno una risposta. Lo spettro di fluorescenza di questi composti molto spesso,
oltre all’interazione specifica con le proteine, cambia in base alla polarità del mezzo: una sonda,
come l’ANS, ha una forma quenchata se l’ambiente è altamente polare, mentre la fluorescenza
è alta se si trova in un ambiente apolare.
Gli spettri b e c sono quelli di emissione; normalmente in
fluorescenza gli spettri di eccitazione non vengono mai visti
perché si rischia di avere una sovrasaturazione del rilevatore
rilevando lo spettro di emissione e aggiungendo la lunghezza
d’onda di eccitazione.
L’ANS ha un picco molto spostato verso il rosso quando è da solo
ed ha un’intensità di fluorescenza molto bassa (forte quenching);
in soluzione acquosa, in presenza di una proteina idrofilica,
questa non interagisce con l’ANS e non cambia nulla (spettro b),
mentre se la proteina ha delle regioni superficiali idrofobiche si legano ANS ed i siti idrofobici
ed aumenta la fluorescenza (spettro a). Si nota un notevole shift verso il blu.
Titolazione siti idrofobici superficiali (slide 53): IsoA e IsoB sono isoforme dello stesso enzima,
cioè la catecolo deidrogenasi; quello che si vede nel grafico è l’aumentare della fluorescenza
quando l’ANS si trova da solo; se l’ANS viene titolato in presenza di IsoB si ha un leggero
aumento della fluorescenza e si vede che all’aumentare della concentrazione di ANS in
presenza d IsoA c’è un incremento molto maggiore rispetto all’IsoB. Viene trattato come un
modello di binding.
Si può fare la stessa titolazione per altri siti, perché l’ANS interagisce con siti idrofobici quindi
potrebbe essere parzialmente denaturata dopo aver esposto il core idrofobico  per vedere
che la proteina titolata in questo modo non è denaturata si usa il dicroismo circolare. Tuttavia
l’ANS non è specifica.

Si può usare l’ANS attaccata ad un decanoico (un acido grasso),


il DAUDA, che marca gli acidi grassi nelle proteine e ne mima gli
effetti.
Il Dauda in contatto con la proteina ZAG (che lega gli acidi
grassi), si lega ad essa.
Difference spectrum: differenza tra lo spettro DAUDA + ZAG e
DAUDA+FeRn. C’è un segnale molto intenso.
Il DAUDA non è un substrato fisiologico, ma posso calcolare le
Kd di questa molecola fluorescente ed inoltre posso legare il
DAUDA alla mia proteina: alla presenza di questo complesso
aggiungo l’acido linoleico, arachinodico, linolenico ecc., che
sono acidi grassi fisiologici che si possono legare alla proteina. Il
substrato preferito dalla proteina, cioè con Kd migliore, è
quello più basso, che ha spiazzato la maggiore quantità di
DAUDA, in questo caso il DHA.
Il marcatore fluorescente quindi non è fisiologico, ma una volta
legato, posso spiazzarlo con qualsiasi molecola fisiologica non
marcata, che si comporta come se fosse nella cellula.
Fluorescenza del trp: nel primo grafico viene monitorata
l’intensità della fluorescenza mentre nel secondo
abbiamo il rapporto di un cambiamento della
fluorescenza tra 352 e 382 (c’è una sorta di
progressione). Il parametro che monitoriamo non è la
temperatura, ma la concentrazione di un denaturante
chimico, cioè il cloruro di guadiminio (GdmCl), che
promuove lo srotolamento delle proteine.
Nel primo grafico abbiamo anche la lunghezza d’onda in
ordinata, oltre l’intensità di fluorescenza, quindi si monitora anche il blue/red shift.
All’aumentare della concentrazione del cloruro di guadiminio, l’intensità di fluorescenza che
era più alta decresce (l’intensità dipende molto dalla natura del solvente e dall’esposizione), ma
si va a monitorare soprattutto il blue/red shift. L’intensità di fluorescenza di un core idrofobico
è più spostato verso il blu perché c’è meno possibilità di disperdere energia termica e viene
riemessa come radiazione luminosa ad una lunghezza fissa, che cambia il picco caratteristico
perché il trp si trova via via in un ambiente meno rigido e ha più occasione di disperdere
energia cinetica e quindi la quota di energia luminosa che viene trasmessa è più piccola: ha
perciò un’energia minore ed uno shift maggiore  il picco passa da 348 a 358 nm, cioè
abbiamo 10 nm di shift, ma è comunque significativo. Si osserva che all’aumentare del GdmCl,
c’è un passaggio molto netto che è tipico del meccanismo di Nucleation Growth, cioè il
passaggio è tipico della formazione di pochi nuclei di folding che portano ad una struttura
completamente foldata.

In altri casi, invece, i processi di folding prevedono passaggi


intermedi: si osserva l’intensità di fluorescenza a 352 nm, cioè si
monitora uno shift, perché inizialmente si ha un valore molto
basso di fluorescenza (non assorbe quasi nulla) ma si ha poi una
variazione dell’intensità di fluorescenza di più trp combinati.
Si osservano più transizioni: in dipendenza delle varie
concentrazioni di GdmCl, possiamo avere diversi fasi e diversi
passaggi, dovuti alla presenza di più domini o di un intermedio,
detto Molten Globule (globulo fuso), che non ha ancora espulso
l’acqua di idratazione, quindi ha componenti ancora parzialmente idratate.

Riepilogo meccanismi di folding:


In conclusione, attraverso la fluorescenza, si può monitorare:
- la stabilità di tali molecole in diverse condizioni denaturanti e stabilire i meccanismi di
folding-unfolding;
- i cambiamenti conformazionali dovuti all’interazione con ligandi o con altre molecole
proteiche, perché a differenza del dicroismo circolare, dove vedo la struttura secondaria, la
variazione del trp in questo caso può essere anche minima;
- la fluorescenza dinamica mi dà informazioni sugli intorni e la cinetica a cui avvengono questi
cambiamenti e mutazioni: ho quindi informazioni strutturali;
- attraverso software di “modelling” molecolare di proteine, è possibile fare ipotesi sui
cambiamenti dinamici della proteina.

4. I primi biosensori utilizzavano la glucosio ossidasi, che è una proteina robusta; in questo caso si
utilizza una flavoproteina a cui viene tolto il FAD, perché avrebbe una fluorescenza intrinseca.
In più, quando la glucosio ossidasi lega il glucosio, lo trasforma  per capire la quantità di
glucosio presente, deve formarsi un complesso che è quantitativamente correlato alla quantità
di glucosio: in una reazione enzimatica, è fissa perché siamo in stato stazionario. Togliendo il
FAD, non ho più un coenzima, ma solo una proteina di binding. Aggiungendo il glucosio, per
vedere un cambiamento in fluorescenza marco la proteina con l’ANS, che si ritrova all’interno
della proteina e dà una fluorescenza di base. Aggiungendo il glucosio, la proteina cambia
conformazione: l’intensità di fluorescenza scende all’aumentare della concentrazione glucosio
ed ha un andamento iperbolico, che ci aspettiamo per una reazione enzimatica: ha il trend di
un ligando su una proteina di binding.
Per studiare un biosensore, ci interessa studiare la fase più pendente dell’iperbole perché
abbiamo una maggiore sensibilità ed è più lineare; in alcuni sensori si amplia il tutto, calibrando
per avere una reazione lineare anche nella seconda fase.
Questo approccio è stato declinato anche per le Sodio sensing-proteins, in cui la piruvato-
chinasi lega Na, Mg e Ca: abbiamo uno spettro di fluorescenza, in cui si è legata la PK e quando
si lega lo ione specifico, diminuisce la fluorescenza e si ha un segnale diverso in intensità.
Questi sensori in cui la proteina è marcata con un fluoroforo più o meno stabile, sono detti
sensori reagent-less, perché indicano una fluorescenza senza marcatura e basta aggiungere il
campione perché la fluorescenza cambi.
La PK è l’approccio iniziale, ma è stato raffinato ad esempio per discriminare la concentrazione
di Na da quella di K.
Un altro biosensore più raffinato, già visto precedentemente, si basa su un cambio
conformazionale e sul legame covalente del fluoroforo INBD con una cisteina tramite un
sulfidrile: si lega alla proteina (di binding) che non ha legato alcun substrato, dopodiché,
aggiungendo il maltosio, la proteina si chiude e si trova in una regione molto più idrofobica e
quindi aumenta la fluorescenza.
Questi biosensori sono di interesse per fare degli screening molto velocemente di alcune
sostanze: se si prende ad esempio una molecola target di interesse e si riesce a fare un sensore
reagent-less, inserendo un fluoroforo in modo che cambi la conformazione e dia un segnale, si
possono testare tutte le molecole e vedere come cambia la fluorescenza.

 NMR: altra tecnica usata. Si ha il classico chemical shift: la posizione del segnale di assorbimento
rispetto al segnale standard cambia perché cambia l’intorno chimico del segnale che stiamo
leggendo, che di solito è: 1H, 13C, 15N ,31P.
I segnali H sono sempre i più complicati perché sono i più numerosi.
Si ha l’accoppiamento spin-spin e gli effetti nucleari di Overhauser, cioè il segnale NOE: questi
segnali dipendono dall’interazione tra il segnale del nucleo attivo appaiato ad altri segnali di atomi
che sono vicini nello spazio anche se in realtà risultano nella struttura separati da molti legami.
Questo segnale decade con la sesta potenza della distanza.
I segnali NOE hanno bisogno di strumenti con potenziali magnetici molto elevati e si registrano
delle interazioni date da alcuni H che si ritrovano vicini ad altri atomi. Si leggono i segnali lungo
tutta la sequenza della proteina e dipendono dalla collocazione dei vari atomi; si ha alla fine una
sorta di vincolo strutturale che impone di modellizzare la struttura in diverse soluzioni che via via
sono raffinate e danno l’andamento della catena principale e di quelle laterali.
I limiti sono: le proteine non devono essere troppo grandi e la quantità di proteina, in termine di
concentrazione per avere un segnale leggibile, deve essere molto elevata.
Sono state risolte molte strutture in NMR perché non bisogna fare un cristallo e rispetto alla
cristallografia si ha un’informazione diversa: su PDB si può vedere che esiste una famiglia di
soluzioni e tramite l’NMR posso vedere la situazione più dinamica e la mobilità, quindi vado a
vedere tutte le soluzioni e gli estremi conformazionali.
Se ci basiamo sullo spin-shift misurato come spettro di assorbimento in NMR, ci permette di
rilevare le caratteristiche di segnale di atomi molto simili tra di loro e verificare i pKa per ciascuna
struttura, verificando gli effetti di modulazione.
Si può fare anche lo spin-shift con un’altra proteina, cioè si va a monitorare lo spin caratteristico di
alcuni atomi e, quando interagiscono con una proteina, si va a vedere cosa cambia e le interazioni
con essa.

 Tramite EPR vedo i metalli paramagnetici e i radicali: i metalli paramagnetici sono numerosi,
soprattutto Fe (III), Cu (II), Mo (V) e (III), i cluster Fe-S (EPR attivi). A seconda dello spettro che si
ottiene si possono avere informazioni, confrontando tramite mimic chimici o strutture
cristallografiche presenti in letteratura.
Nelle reazioni chimiche e biochimiche molto spesso si formano radicali e, se hanno un emivita
troppo breve, possono essere intrappolati tramite gli spin-traps per poi misurarli.
Esistono anche enzimi che si formano da radicali, in base alla funzione.
In alternativa si possono usare dei marcatori, detti spin labels, che hanno un radicale molto
leggibile e che possono ancorarsi in vari punti della proteina: gli spin labels interagiscono con vari
punti e funzionano da sonda.
Queste marcature sono state usate per scoprire il tanning nelle membrane delle proteine, che si ri-
orientano nelle membrane idrofobiche, o per monitorare quale regione della proteina attraversava
la membrana.
FOLDING DELLE PROTEINE

Con folding si intende il ripiegamento di una proteina dalla sua struttura primaria, descritta dalla sequenza
degli aminoacidi, fino alla struttura terziaria corretta; con unfolding si intende invece lo srotolamento delle
proteine, dove gli estremi sono la proteina in forma nativa, nella sua struttura funzionale corretta, e in
forma denaturata, quando ha cioè perso la sua struttura 3D.
Ci sono degli strati in mezzo detti di misfolding, cioè dei ripiegamenti non corretti, che danno delle
patologie, note anche da molto tempo, ma per cui non si conoscesse l’origine.
Ciò che non si capisce sono le leggi che governano questo processo.
La proteina più studiata è stata la ribonucleasi, che è capace di srotolarsi e ri-arrotolarsi da sola: isolata da
tutti i componenti cellulari, la proteina nativa può essere denaturata per via termica o chimica, ma può
rinaturarsi. Questa proteina contiene 4 ponti disolfuro che sono importanti nella guida di quest’ultimo
processo. Aumentando T, la porzione di proteina non foldata aumenta e ridiminuendo T, ho una perfetta
corrispondenza.
L’enzima deve avere informazioni intrinseche nella sequenza aminoacidica che detta come foldare la
proteina.
Forze termodinamiche in gioco per dire che il folding è spontaneo: ∆G < 0, si vanno quindi ad analizzare
tutte le componenti che contribuiscono all’entalpia e all’entropia del processo. L’entropia è decisamente
negativa perché si passa da una proteina disorganizzata ad una con una struttura ben precisa: aumenta
l’ordine. Ci deve quindi essere qualcosa che compensa questa diminuzione di entropia con un ∆H molto
negativo o un altro componente entropico che aumenta.
Fattore entalpico: interazioni carica-carica stabiliscono la struttura e sono ad esempio i ponti salini, le
interazioni polari tra residui, legami H (tanti legami deboli fanno un legame molto forte, come il DNA).
Aminoacidi responsabili dei legami H sono asn, ser, tyr, thr, his, gln, così come tutti i gruppi carbossilici e
amminici.
Le interazioni possibili sono quindi tra catene laterali, tra backbone, tra catene laterali con il backbone…
Il fatto che i ponti salini siano così importanti è osservato sperimentalmente dal fatto che se cambiamo la
concentrazione salina e il pH, si va ad alterare la struttura della proteina, che viene denaturata anche solo
per interruzione dei ponti salini, che mantengono la struttura.
Ci sono poi altre interazioni, come quelle di Van der Waals (le proteine hanno la caratteristica di essere
molto ben impaccate e l’interazione tra le catene laterali viene massimizzata), o interazioni transienti
dipolo-dipolo e un’interazione tra le catene laterali idrofobiche, che si stabilizzano reciprocamente perché
possono reagire in modo favorevole. L’effetto idrofobico pesa sul fattore entalpico, ma anche su quello
entropico. Ci sono aminoacidi idrofobici ma anche idrofilici.
Fattore entropico: quando si ha l’interazione tra due catene laterali idrofobiche, che, quando la proteina è
srotolata si trovano in un ambiente acquoso, sono meno stabili: le molecole d’acqua interfacciando le
interazioni idrogeno, si sistemano per interagire tra di loro e formare il c.d. clatrato, in cui le molecole
d’acqua sono fortemente organizzate e molto bloccate una rispetto all’altra, in una sorta di guscio in cui
non interagiscono con l’aa idrofobico.
Quando gli aminoacidi interagiscono nel core idrofobico, avviene un’espulsione delle molecole d’acqua,
come acqua di bulk, che permette alle molecole di muoversi.
Ci sono quindi due fattori che vanno a pesare sul ∆S, uno che sfavorisce fortemente il folding, cioè la
diminuzione dell’entalpia, e l’aumento dell’entropia da parte delle interazioni idrofobiche, che rende il
fattor negativo. C’è poi il ∆H, cioè le interazioni interne che stabilizzano la struttura foldata.
La differenza tra la somma di questi due contributi e l’aumento dell’entropia conformazionale, ci dà un ∆G
di folding che è di solito piccolo come entità assoluta ma è negativo.
Si può discriminare il contributo entalpico ed entropico per diversi tipi di proteine e si osserva che i ∆G in
kJ/mol sono tutti abbastanza piccoli (45-50-60), mentre ∆H e ∆S possono essere molto diversi: per la
mioglobina uno è quasi 0 mentre l’altro è >> 0.
I ponti disolfuro agiscono molto positivamente tant’è che se si elimina una cys dalla BPTI e la si trasforma in
un altro aa, ogni ponte disolfuro che viene a mancare equivale ad una diminuzione di ca 20° nella T di
melting. I ponti disolfuro si trovano nelle proteine extra-cellulari perché garantiscono una maggiore
selettività e quindi una maggiore stabilità.
Bisogna considerare anche la cinetica del folding: il paradosso di Levinthal ipotizza che per la ribonucleasi ci
sono 124 possibili aa e ha calcolato tutti i possibili rotameri, cioè le 1050 possibili conformazioni,
considerando tutti gli angoli che possono cambiare. Ipotizzò che la proteina ci mettesse 0.1 ps per esplorare
una conformazione e quindi ci metteva 1030 anni per esplorarle tutte, che è maggiore dell’età dell’universo
 la proteina NON può quindi esplorarle tutte, ma deve trovare rapidamente la conformazione iniziale che
funziona da triggering, cioè da innesco, per quella finale.
Si propone il modello a campo da golf con tutte le conformazioni possibili rappresentate dal campo e quella
nativa con un minimo energetico, data dal buco per la pallina oppure il modello ad imbuto dove si indica
che partendo da una conformazione, si trova velocemente quella nativa.
Se si considera un minimo energetico per la proteina nativa, ci possono essere anche altri minimi energetici
che possono instaurarsi in questo processo, che possono essere separati dallo stato nativo da una barriera
energetica che può non essere facile da superare. Quello che si propone come pathway è che dalla proteina
non foldata si passi attraverso stati intermedi più o meno stabilizzati, quindi in un processo più o meno
rapido, per arrivare alla conformazione foldata e, tipicamente, gli stati intermedi, o i c.d. off path states,
cioè gli stati che deviano da quello di folding, possono essere dovuti a degli errori di processamento, come
degli enzimi specifici che cambiano la trasformazione da cis a trans per quello che riguarda l’orientamento
degli aa (come la prolina).
Si propone un meccanismo di nucleazione dove c’è una prima parte delle strutture (per un a-elica, ad
esempio, la parte critica è la formazione del primo giro e serve una cinetica molto rapida); ci sono delle
geometrie studiate tramite metodi computazionali che permettono di individuare i passaggi o gli elementi
critici dal punto di vista delle interazioni.
L’ipotesi del molten globule è che ci sia almeno un intermedio dove le strutture secondaria e terziaria sono
già presenti ma l’impaccamento interno definitivo, con l’espulsione delle molecole d’acqua da parte delle
interazioni idrofobiche, non si è ancora verificata.
Quello che ci interessa sono gli stati off-paths, in cui abbiamo una deviazione dal percorso normale per
capire se gli stati sono recuperabili o se sono così stabili da non ritornare allo stato foldato: gli stati non
foldati correttamente danno malattie, perché sono legate a strutture che si formano a foglietto-b, in cui i
filamenti b che si stabilizzano reciprocamente, danno un’aggregazione molto forte che porta a delle
aggregazioni polimeriche e non è più recuperabile la struttura. Queste aggregazioni sono legate a patologie
di cui all’inizio non si conosceva l’origine.
Queste transizioni si studiano con le spettroscopie.
Nella cellula, quello che succede non è proprio uguale a quello visto in soluzione, almeno in un tubo di
reazione; non tutte le proteine hanno un folding-unfolding così reversibile come la ribonucleasi.
Esistono delle proteine chiamate chaperonine costruite come delle pentole a pressione e sono dei grossi
complessi nucleici che formano uno spazio interno. Quelle più studiate sono quelle da E. coli, che formano
un complesso chiamato GroEL-ES, dove GroEL è la pentola ed ES è il coperchio. La proteina non foldata
entra nello spazio, una parte della proteina lo chiude e si ritrova ad avere uno spazio compartimentato e la
possibilità di usufruire di una certa quantità di ATP che si associa alla subunità del complesso. Costa energia
dare il folding corretto e servono 14 molecole di ATP in totale per fare avvenire i 2 passaggi.
Le chaperonine sono anche dette hit shock protein, cioè proteine da shock termico perché sono state
isolate e studiate tramite shock termici: la cellula tende ad avere un danno sulle proteine che ha e quindi
cerca di recuperare per non sintetizzarle tutte, aumenta le proteine GroEL-ES per mantenere il corretto
folding o rifoldare quelle che si sono parzialmente unfoldate. Questo processo a volte non va a buon fine
perché promuove dei misfolding, che danno poi aggregazione.

22/01

Le proteine sono sistemi dinamici, quindi parlando di folding si considera la struttura secondaria o terziaria,
ma non che ci possano essere dei cambiamenti importanti, normalmente conformazionali, sulla struttura
terziaria, ma alcuni possono essere trascritti ad una transizione della struttura secondaria.
Alcune proteine, che sono un po’ particolari, sono poco foldate e hanno una stuttura più simile ad un
molten globule o ad una proteina con un folding molto poco definito, cioè la proteina è parzialmente
unfoldata: è il suo stato nativo, cioè fisiologico. Un es. è la P53, una delle prime proteine su cui si è visto che
era poco foldata perché il suo ruolo è quello di aggiustare il suo folding tramite legami con dei partner 
sono quindi proteine che interagiscono con altre proteine ed hanno un folding più dinamico, meno
strutturato, ma dopo l’interazione con altre proteine, definiscono meglio la loro struttura.
Un’altra classe di proteine è quella dove c’è una forzatura conformazionale ed è ad esempio la PrPc, una
proteina mutata responsabile del morbo della mucca pazza. Questa proteina esiste in tutte le cellule ed è in
parte foldata, ha un C-terminale abbastanza ben definito, ed ha una regione N-terminale che invece è poco
foldata.
Questa proteina ha un folding poco definito, ma non si sa bene il suo ruolo cellulare; ci sono però forme
mutate che sono responsabili di patologie  nel caso del morbo della mucca pazza non si sapeva bene
quale fosse l’agente eziologico della patologia, che sembrava essere trasmissibile: normalmente sono virus
o batteri, ma non proteine, perché è difficile pensare che possa trasmettere una malattia.
Negli studi si è scoperto che questa proteina tende ad avere nella sua forma patologica, rispetto a quella
cellulare, una transizione che porta alla formazione di strand-beta, cioè foglietti-b. La forma patologica già
conosciuta era la scrapie, che si trovava nelle pecore, ed era considerata non particolarmente pericolosa
visto che è una patologia animale che porta alla degenerazione cellulare; la forma mutata conosciuta era la
PrPsc. Ad un certo punto, questa mutazione nelle pecore, che portava delle lacune nel tessuto cerebrale, si è
ritrovata anche in alcuni bovini: si cominciò a sostenere che questa patologia, denominata encefalopatia
spongiforme bovina, perché aveva delle strutture proteiche spugnose all’interno e portava l’animale a
perdere le sue funzioni neurologiche, avesse una connessione con il consumo di carni di animali abbattuti
(perché la carne era infetta) e con la forma patologica umana, chiamata Creutzfeldt-Jacob, che in realtà è
una patologia dovuta a modificazioni genetiche di una proteina, che non è trasmissibile.
C’è un problema legato all’effetto di trasmissibilità di una proteina, che è dovuto al fatto che le proteine
mutate tendono a cambiare la loro conformazione in una struttura prevalentemente a foglietti-b che,
interagendo con le proteine cellulari normali, inducono un altro cambiamento conformazionale anche nelle
proteine normali, che normalmente non formano i foglietti-b.
Esiste una classificazione di aa in base alla loro propensione di strutturarsi in una struttura secondaria a
foglietto b o a-elica; molti aa sono adatti ad assumere entrambe le conformazioni, così come quelli che
destabilizzano la struttura sono più o meno sempre gli stessi (come la prolina). C’è quindi una classicità a
formare strutture secondarie, ma il foglietto-b si stabilizza da solo, quindi un filamento-b tende a
stabilizzarsi con un altro filamento-b: i foglietti-b, perciò, sono superfici che possono avviare una
polimerizzazione. Come tutte le polimerizzazioni, si ha un effetto per cui più i centri di nucleazione sono
numerosi, più offrono superfici disponibili all’interazione con la proteina che non ha subito questa
transizione, maggiore è la velocità di polimerizzazione.
Inizialmente questo processo di misfolding è un cambiamento di folding con una struttura molto stabile,
che provoca la formazione di pochi elementi del foglietto-b: una volta formati questi nuclei si ha un
processo di allungamento, che nel tempo ha un andamento esponenziale.
Nel tempo si è osservato che i morti dovuti al consumo di carne infetta erano veramente pochi, ma, grazie a
questi studi, si scoprirono altre patologie con lo stesso meccanismo d’azione:
in B si osserva la malattia di Creutzfeldt-Jakob, con una
colorazione su tessuto cerebrale, post-mortem, su un
paziente affetto da questo morbo e c’è una colorazione
specifica per queste placche di deposizione;
in A si osserva uno stesso tipo di reperto, ma su un
paziente affetto da Alzheimer.
C’è stata quindi un’applicabilità anche nel caso A perché
c’era una situazione simile.
Struttura NMR della PrPC del topo: una parte della transizione interessa la
regione già foldata, ma, rispetto ad una proteina simile, se si fanno misure di
stabilità e di stress energetico, cioè si misurano gli angoli distorti, si vede che le
regioni blu, cioè le a-eliche, subiscono uno stress, cioè una
distorsione maggiore rispetto alla struttura qua a destra.
Un certo stress conformazionale, che forza una struttura ad
assumere una conformazione ad a-elica in alcune regioni,
diventa chiave per permettere che questo stress venga
stabilizzato  normalmente la struttura beta è molto più stabile di quella alfa, quindi ci
troviamo in un misfolding con un minimo di energia che è molto più basso di quello della
struttura foldata normalmente.
In alcuni studi fatti, si è proposto che quando le chaperonine cercano di rimediare alla struttura che ha
subito la transizione alfa-beta nella PrPc, fanno probabilmente più danno perché degradano parzialmente
le proteine e subiscono dei processi di transizione e polimerizzazione. È un caso in cui il sistema cellulare
del riparo del danno crea maggiori danni.
Nel caso della PrPc, molti dei metodi di rilevamento sono basati sull’alta stabilità degli oligomeri in forma
beta e sul fatto che, una volta denaturata la forma alfa con SDS, si ottiene una transizione e poi si rimuove il
denaturante, che non fa altro che aumentare la propensione all’aggregazione.
Ci sono alcune questioni aperte; si è trovato comunque un sistema di polimerizzazione simile a quello dei
sistemi chimici con un andamento esponenziale.
Per quel che riguarda l’Alzheimer, la frazione di proteina associata alla membrana considerata è il peptide
beta-amiloide che si genera per “clevage”, cioè per un taglio proteolitico selettivo, dovuto alla gamma-
secretasi, che taglia una parte del recettore.
È un sistema più complesso; ci sono vari tipi di controlli: il complesso inserito nella membrana è la
presinilina; probabilmente ci sono vari livelli di controllo e un’associazione, una volta rilasciato questo
peptide beta-amiloide, tende a promuovere lo stesso tipo di aggregazione con la formazione di placche
beta-amiloidi che non fanno altro che accumularsi all’interno del cervello, non hanno un’attività patologica
ma funzionano da isolanti, interrompendo i circuiti.
Questo tipo di applicazione nei meccanismi di folding, hanno fatto sì che ci siano più studi per capire i
determinanti che promuovono la transizione.
Anche nel Parkinson sembra esserci un accumulo di proteine come cause del morbo.
Il problema quindi è che la struttura non correttamente foldata ha un minimo energetico minore rispetto a
quella nativa normale.

Altre patologie possono essere dovute a singole mutazioni, cioè la singola struttura aminoacidica può dare
patologie dello stesso tipo, cioè di aggregazione e con un danno alle proteine. La patologia più classica è
dovuta alla mutazione dell’emoglobina nell’anemia falciforme, in cui la subunità beta ha una mutazione per
cui ha una valina al posto dell’acido aspartico: la valina-6, un aa idrofobico, risulta perfettamente
complementare alla stessa regione della subunità beta, ma non mutata, che ha una specie di rientranza:
essendo complementare alla valina, porta alla formazione della fibrilla, che ha una struttura altamente
ordinata in cui le emoglobine si aggregano, portando alla deformazione del globulo rosso. I globuli rossi si
allungano fino a quando non sono poi lisati e si formano degli emazi all’interno del circolo sanguineo e la
forma finale è quella della falce di luna.
Questa mutazione è importante anche a livello genetico, perché se è presente su entrambi gli alleni, la
gravidanza non viene portata a termine o il bambino non sopravvivrà a lungo.
Se è portata da un solo allene, la mutazione si è fissata perché permette di essere immuni alla malaria.

Un'altra patologia legata alla mutazione di una proteina è la neuroferritinopatia: la ferritina è responsabile
dello stoccaggio del Fe, fondamentale per le proteine. Ha una subunità ad a-elica (nella slide è elencata
l’elica-E), si associa ad un complesso molecolare su cui si aggregano più subunità.
C’è una catena pesante, FTH, ed una leggera, FTL, che tendono ad associarsi e a formare un complesso: L è
la FTL mutata e la sua alterazione provoca 2 effetti diversi  nel tessuto cerebrale si ha la tendenza a
formare delle aggregazioni, quindi si ha di nuovo una patologia aggregativa che nel sistema nervoso è
invalidante. In più, in alcuni modelli cellulari HeLa, cioè delle cellule in un tumore mammario, si ha un
effetto di aggregazione: il complesso con ferritina alterata viene percepito come un complesso sbagliato
dalla cellula, che tenta di ripararlo degradando il sistema e quindi libera tutti gli atomi di Fe stoccati dalla
molecola, che inducono dei meccanismi cellulari per produrre la molecola di stoccaggio  è un
meccanismo in loop, perché si ha un’ulteriore formazione di ferritina mutata, quindi si ha un eccessivo
accumulo di Fe, che non viene stoccato correttamente, e la produzione di queste molecole. Si ha quindi una
deregolazione del metabolismo del Fe.

ABPP: ACTIVITY BASED PROTEIN PROFILING

Questa tecnologia mette insieme l’approccio proteomico e l’attività delle proteine; è stata sviluppata dal
professore Benjamin Cravatt e viene anche definita Activity Based Proteomics. È basata su una
combinazione di tecniche biochimiche e sullo sviluppo di sonde che si ancorano a proteine e formano degli
addotti covalenti, ma si formano all’interno del sito attivo dell’enzima se queste sonde hanno un gruppo
reattivo, un gruppo di legame che può essere specifico e può essere marcato con un agente che può farlo
rilevare. In questo caso la marcatura è già presente.

Spesso la marcatura viene dopo, perché il


problema di avere una sonda così grande
legata al gruppo reattivo, che va a fissarsi
all’interno del gruppo attivo, è che può dare
ingombri sterici, modificare la struttura e la
reattività. È quindi meglio mantenersi sul
piccolo; idealmente il gruppo reattivo e il
gruppo di binding dovrebbero assomigliarsi.
All’interno di molti siti attivi ci sono dei gruppi
reattivi che si riescono a legare con l’interazione di un elettrofilo o un nucleofilo. Si sfrutta il fatto che la
reazione avviene solo quando l’enzima si trova nella sua forma attiva: quando l’elettrofilo si lega
covalentemente al nucleofilo, l’enzima risulta bloccato all’interno, e solo gli enzimi attivi possono essere
marcati.
Gli enzimi proteolitici, ma anche idrolitici, all’interno della cellula sono compartimentati (altrimenti
digerirebbero le componenti cellulari), ma sono a volte presenti in forma pro- o pre- attiva: nella
coagulazione del sangue, per rilasciare la trombina, che attiva la coagulazione, i vari fattori proteolitici sono
controllati in modo tale che avvenga questa cascata di eventi. Esistono dei farmaci che vanno ad agire su
vari punti di questa cascata, quando si hanno dei problemi di coagulazione.
È di interesse quantificare i farmaci che sono in forma attiva.
L’attivazione-inattivazione può esser dovuta
ad un peptide che va a coprire un sito attivo e
quindi è più facile perché la forma attiva è
diversa da quella inattiva in PM.
Questo meccanismo è stato raffinato con una
reazione che evita di avere il marcatore
dall’inizio, ma lo aggiunge progressivamente
secondo una reazione di click chemistry: la
click chemistry classica prevede
che il gruppo reattivo, che dà interazione
elettrofilo-nucleofilo, si blocchi all’interno del
sito attivo. La reazione all’interno del sito
attivo viene innescata dagli stessi fattori che
innescherebbero una reazione classica, per questo si usano enzimi idrolitici perché hanno una catalisi
acido-base più semplice.
La molecola probe può avere un gruppo esca che promuove l’interazione; dall’altra estremità c’è un alchino
che reagisce con un’azide e dà una ciclo-addizione: la click chemistry.
Abbiamo un gruppo piccolo che viene legato e successivamente si aggiunge un marcatore più grande, che
contiene il fluoroforo, cromoforo o l’antigene, e in mezzo abbiamo il peptide che ci permette la digestione
selettiva.
Si chiama Tandem Orthogonal Proteolysis perché marchiamo la proteina, che viene poi isolata e si può
inserire una molecola captabile e riconoscibile facilmente con una cromatografia di attività. Si possono
inserire sfere o altre molecole per riconoscere più facilmente.
Marchiamo in modo selettivo le proteine attive, le possiamo arricchire e selezionare rispetto alla miscela
cellulare; dopo la denaturazione della proteina possiamo digerirla con la tripsina ed otteniamo dei peptidi
che ci indicano qual è la nostra proteina (finger-printed) e il peptide che risulta marcato può essere
separato da questa sonda e ci dirà esattamente il punto su cui la proteina si è ancorata  ci danno
informazioni sulla sua reattività della proteina.
Questa tecnica ci permette quindi di catturare le proteine in base alla loro attività, al contrario di altre
tecniche proteomiche.
Non tutte le proteine si prestano bene a formare un addotto covalente che vada a bloccare la proteina e
sfrutti l’attività e non tutte le proteine possono essere in uno stato attivo/inattivo così netto.

SLIDE 9: esempio della probe, in cui si vede la regione della biotina, il linker, che può essere tagliato dalla
proteasi, e l’azide.

Questa tecnica è stata molto applicata:


- alle proteasi, che esistono in 2 forme (serine e metallo-proteasi),
- a delle chinasi, che operano sul trasferimento dei gruppi fosforilici (regolano la trasduzione del segnale),
- alle glutatione-s-trasferasi, che trasferiscono il glutatione (un tripeptide) su dei target e hanno un
significato di detossificazione, perché le molecole sono più solubili e più facilmente eliminabili (è anche
questa una proteina da stress perché espresse quando la proteina è esposta a molecole potenzialmente
tossiche),
- alle ossido-reduttasi, che identificano dei processi di detossificazione un po’ più estesi, identificando la
forma ossidata o ridotta.

Il limite è che la tecnica funziona bene se si costruisce bene la probe e se si ha una cognizione chimica di
gruppi elettrofili/nucleofili che entrano nel sito attivo.
Una possibile struttura è un gruppo solfonato con i gruppi nur (esche) che sono differenti per garantire una
selettività nel riconoscimento: lo spettro è in SDS e sono stati isolati tutti i gel che hanno riconosciuto la
sonda.

Articolo
La marcatura può essere fatta su cellule in vivo, sull’ animale, ed il significato di questa procedura è che si
possono andare a rilevare le proteine marcate che hanno reagito con la sonda: nel proteoma si vanno a
marcare ed isolare le proteine attive, ma mi interessa maggiormente avere degli inibitori selettivi per
queste proteine.
Se l’inibitore si lega al sito attivo, la proteina si disattiva e non darà più un segnale quando viene marcata
con la probe; la probe è un sistema attivo quindi potrebbe già funzionare come inibitore da solo, ma spesso
l’interazione elettrofilo-nucleofilo è nata da un composto che non è adatto ad un’interazione.
Quando l’inibitore si lega covalentemente alla proteina, diventa difficile controllarlo dal punto di vista
farmacologico, perché il dosaggio deve essere monitorato.
L’inibitore irreversibile si accumula ma il problema più grande è che deve essere selettivo e specifico, per
ridurre i danni.
La proteina nell’articolo va a spegnare il segnale dei cannabinoidi, quindi si sono cercate delle molecole che
la inibissero; la proteina viene idrolizzata. Inibendo la via che lo spegna, si alza il livello endogeno  è
assimilabile all’effetto della caffeina.
Non si sviluppa l’inibitore con una struttura analoga.
Si è visto l’inibitore era specifico sulle proteine spente; si può andare a fare una curva dose/risposta.

Anda mungkin juga menyukai