March 28, 2007


Ritmi circadiani controllati dal cortisolo

In uno studio su zebrafish individuato il cortisolo come chiave per il funzionamento degli "orologi periferici" dell'organismo
Nei modelli animali, il cortisolo, un ormone steroideo, regola i ritmi circadiani di divisione cellulare. Questo è quanto si apprende da una ricerca pubblicata online sulla rivista PLoS Biology. Finora si sapeva che il controllo centrale dei ritmi circadiani dell'organismo è realizzato tramite rilascio di diversi ormoni ed è situato nel cervello. Recenti ricerche però hanno dimostrato che esistono anche dei centri di controllo periferici che scandiscono i cambiamenti che ogni giorno avvengono all'interno delle cellule. Questi sistemi sono fondamentali per la salute dell'organismo, infatti, perchè avvenga una crescita normale e per evitare che si formino tumori, è necessario che la scansione temporale della divisione cellulare rimanga sotto stretto controllo.Ora grazie ad uno studio di Nicholas Foulkes e colleghi del Max-Planck-Institut per la biologia di Tubinga si è compreso meglio il modo in cui i due sistemi di controllo si coordinano tra loro. Hanno analizzato ceppi di pesci della specie Danio rerio (zebrafish) con difetti nella produzione di ormoni e hanno scoperto che il fattore chiave per il funzionamento degli orologi periferici è l’ormone cortisolo. Fonte: Molecularlab.it (28/03/2007)

March 27, 2007


Prime scoperte sui meccanismi bioelettrici che controllano la rigenerazione dei tessuti


Rigenerata coda di girino in un periodo quiescente, primi passi per nuovi sviluppi nella medicina rigenerativa


Alcuni ricercatori sono riusciti a far ricrescere la coda di un girino di rana in uno stadio del suo sviluppo in cui questo di solito non è possibile e sono riusciti a farlo utilizzando una serie di metodi che influiscono sulle proprietà elettrica delle cellule (uno di questi metodi è un tipo di terapia genica). In questo modo sono riusciti ad innescare un processo di rigenerazione.I girini di rana (Xenopus) sono naturalmente in grado di rigenerare la coda, ma solo in un determinato periodo dello sviluppo; i ricercatori hanno inserito dei geni di lievito per fornire le cellule dei girini di un'ulteriore pompa protonica, in questo modo gli scienziati hanno fatto sì che la ricrescita della coda avvenisse anche in un periodo quiescente.Questi risultati sono stati ottenuti da un gruppo di ricercatori del Forsyth Institute e sono stati pubblicati su Development. E' il primo studio che spiega nel dettaglio l'interazione di più meccanismi che, insieme, sono ingrado di rigenerare una struttura complessa formata da pelle, muscoli, vasi sanguigni e midollo spinale di un vertebrato.
Meccanismi bioelettrici, di genetica molecolare e di biologia cellulare "collaborano" nella rigenerazione dei tessuti.Il direttore dello studio Dany Adams, spiega che da tempo era nota la capacità da parte di campi elettrici di innescare processi di rigenerazione negli anfibi tuttavia non erano conosciute le fonti molecolari di queste correnti e tantomeno era noto il corrispondente meccanismo di controllo. Questa ricerca, secondo gli stessi autori, può fornire spiegazioni sul modo in cui la bioelettricità potrebbe venire utilizzata per la rigenerazione dei tessuti nell'uomo anche quelli del midollo spinale. "Ora però per compiere progressi nella medicina rigenerativa - ha detto Adams - è necessario studiare e comprendere le componenti naturali che stanno dietro agli eventi bioelettrici nel corso dello sviluppo normale e della rigenerazione. Se siamo capaci di bloccare la rigenerazione bloccando un tipo di pompa H+ e di indurla quando normalemente non è possibile è perchè abbiamo già individuato una di queste componenti." Fonte: Molecularlab.it (26/03/2007)

March 23, 2007


Staminali per ricostruire legamenti, cartilagini e muscoli danneggiati


Scott Rodeo, ricercatore dell'Hospital for Special Surgery di Manhattan nonchè ex medico della squadra olimpionica americana, ha sperimentato con successo sui topi la ricostruzione dei legamenti crociati del ginocchio e dell'articolazione della spalla grazie all'utilizzo di cellule staminali adulte o prelevate da cordone ombelicale. Alcuni ricercatori sono certi che questa sia la nuova frontiera dell'ortopedia. Spiega Rodeo: "Le cellule staminali hanno uno straordinario potere benefico nell'indurre la rigenerazione dei tessuti e sono convinto che nel giro di cinque anni sarà possibile pensare a delle applicazioni sull'uomo".Questa nuova possbilità sarebbe molto utile soprattutto agli atleti e nei prossimi anni potrebbero essere utilizzate le cellule staminali del cordone ombelicale dei figli degli atleti per rigenerare legamenti, cartilagini ma anche muscoli. Secondo fonti del Sunday Times già cinque giocatori del Liverpool avrebbero depositato in una banca del sangue le cellule del cordone dei propri figli e forse in futuro molte altri atleti potrebbero "assicurarsi" in questo modo contro gli infortuni.
''Se qualcuno ha un figlio di 5 o 6 anni con un talento atletico eccezionale - sostiene Johnny Huard, direttore dello Stem Cell Research Center di Pittsburgh - potrebbe far prelevare un po' di cellule staminali giovani del bambino e congelarle. Forse ci vorranno anni per l'uso pratico di queste tecniche ma di certo questo è il futuro della medicina sportiva. Il lato negativo, secondo Huard, è che le stesse cellule staminali potrebbero diventare il nuovo doping, cioè potrebbero essere usate per costruire più massa cellulare e non sarebbe possibile scoprirlo. Fonte: Molecularlab.it (23/03/2007)

March 22, 2007

Isolato il virus che causa il diabete di tipo 1
Si chiama Coxsackie B4 ed è stato isolato in Italia, confermando l'ipotesi di un virus alla base della patologia Sulla rivista dell'Accademia delle Scienze Americane (PNAS) si apprende che grazie ad una ricerca internazionale condotta dalle Università di Siena e Pisa e da Novartis Vaccines è stato possibile isolare per la prima volta, dal pancreas di pazienti affetti da diabete di tipo 1, il virus Coxsackie B4.Si convalida direttamente così un'ipotesi avanzata vent'anni fa: un virus causa lo sviluppo del diabete di tipo 1. Stefano Censini, ricercatore di Novartis Vaccines, spiega che "fino ad oggi il coinvolgimento di questo virus nello sviluppo della patologia era stato provato solo in modo diretto. Ora invece, per la prima volta, l'infezione virale è stata accertata in modo inequivocabile. "Che esista un legame diretto tra il virus e la patologia autoimmune di Siena è provato dal fatto che le cellule pancreatiche positive per il virus Coxsackie B4 sono risultate caratterizzate sia da insulite - il tipico stato infiammatorio della malattia - sia dalla ridotta capacità di produrre insulina, che è uno dei segni distintivi del diabete", questo è quanto spiega in proposito Francesco Dota, docente di Endocrinologia all'Università degli Studi di Siena.Fonte: Molecularlab.it (20/03/2007)

September 01, 2006

Infermieri Net

LE BASI DELL’APPROCCIO CLINICO AL PAZIENTE ANZIANO IN MEDICINA GENERALE Giancarlo Gatta Michelet - SIMG Torino - gatta@inrete.it
1. PRESENTAZIONE ED EVOLUZIONE CLINICA DELLE MALATTIE NELL’ANZIANO
Ogni medico di famiglia attento al suo lavoro ha imparato a diffidare dei sintomi aspecifici nell’anziano e, sia pur spesso empiricamente, ha sviluppato dei modelli personali di interpretazione ed intervento facendo spesso di necessità virtù. In questo articolo si tenta di sistematizzare il problema, mediando tra le proposte della let- teratura e l’esperienza clinica diretta criticamente rivalutata. Si ringraziano per la collaborazione i colleghi con cui è stato possibile in tempi diversi scambiare opinioni in merito ed in particolare il dr. Beppe Rocca, di formazione ospedaliera ma per anni attento e critico osservatore della fenome- nologia clinica nell’ambiente del Pronto Soccorso.
A differenza dei giovani, negli anziani frequentemente le malattie possono presentarsi “orfane” di alcuni sintomi-guida (polmonite senza febbre, infarto del miocardio senza dolore, ap- pendicite senza addome acuto, ecc.), inoltre spesso i sintomi possono essere attenuati (colecistite con poco dolore, pielonefrite con Giordano negativo, ecc.) o aspecifici (declino nelle condizioni generali, stato confusionale, ecc.) o “trasversali”, interessando magari prima non l’organo o la parte affetta ma le funzioni e gli organi già più deteriorati (una infezione può scatenare uno scompenso diabetico, la febbre una grave insufficienza renale “pre-renale”, una riacutizzazione bronchitica una scompenso cardiaco, ecc.). Per usare un assioma della Geriatria si dice che: “a patologia d’organo può non corrispondere sintomo d’organo”, come del resto avviene, secondo una logica “degli estremi opposti”, nel bambino molto piccolo. Frequenti inoltre sono i problemi multipli, simultanei, interattivi. Di fronte ad un anziano che presenti due o più sintomi o segni, a differenza del giovane o dell’adulto in cui si ricercherà in primo luogo una malattia che comprenda tutti i disturbi lamentati, occorrerà anche pensare alla possibile compresenza di più patologie o disfunzioni concomitanti. Se del resto l’anziano ci è già noto per tutta una serie di problemi, potrà essere insidioso spiegare un nuovo disturbo con le patologie che già conosciamo o ricondurlo ad un generico problema legato all’invecchiamento. Mentre nel giovane-adulto si cercherà con parsimonia di ricondurre un corteo sintomatologico e semeiologico ad un’unica causa, nell’anziano sarà utile mantenere “attive” molte ipotesi, fino a palese disconferma che potrà essere diretta, attraverso test ed esami mirati, o più spesso indiretta, basandosi su criteri osservazionali ed evolutivi, secondo una corretta valutazione del rapporto multiplo: impatto-impegno-costo/beneficio. Saper reggere consapevolmente e saggiamente l’incertezza e la “sospensione” diagnostica sono tra le doti principali necessarie al medico in questo ambito. Tutto ciò non deve però assoluta- mente significare paralisi decisionale: un organismo con ridotta risposta immunitaria e con ridotta capacità funzionale, può rapidamente portarsi in una zona clinica critica. Spesso quindi è necessario intraprendere le cure in modo deciso ed “intensivo”, dopo aver raggiunto il più rapidamente pos- sibile un orientamento clinico sufficiente a sostenere le nostre scelte. In molte situazioni (caso car- dine la febbre) si può concedere molto meno all’osservazione dell’evoluzione spontanea dei sintomi rispetto al giovane. E’ evidente che esistono aree cliniche diverse che richiedono diversa “aggressività” terapeutica: se è in causa un possibile processo infettivo la terapia dovrà essere “generosa” e pronta, mentre nel caso di uno scompenso cardiaco iniziale, senza segni di rapida evolutività (senza dispnea parossistica notturna, ad esempio), la terapia potrà essere graduale anche per evitare i possibili problemi derivanti ad esempio da una terapia diuretica drastica. E’ chiaro che in ogni caso il paziente non andrà mai “perso di vista”. In sintesi si può dire che il modello clinico classico “universitario” funzionerebbe solo nel 40% circa dei pazienti anziani e per una limitata serie di sintomi-guida (angor, pirosi, deficit neuro- logico di lato, per esempio). Nella maggioranza dei pazienti è invece necessario ricorrere a modelli interpretativi clinici alternativi come suggerito da O. Zanetti nel suo articolo “Metodologia Geria- trica” (Senior, dicembre 1991), in modo così modificato ed integrato:
modello della morbilità sinergistica: la somma di diverse alterazioni produce il supe- ramento di una soglia funzionale critica che richiama l’attenzione del paziente e lo porta a consulta- re il medico (per esempio si evidenzia una incontinenza vescicale per la compresenza di un’artrosi d’anca che rallenta gli spostamenti e di una terapia diuretica).
modello della catena di eventi “a cascata” o del “circolo vizioso”: un evento patolo- gico ne condiziona o facilita l’insorgenza di un altro, che a sua volta peggiora lo stato funzionale generale e la prognosi del paziente (per esempio l’uso di FANS a lunga durata d’azione per un do- lore artrosico diminuisce lo stimolo minzionale e provoca ritenzione idrica con conseguente svilup- po di infezione urinaria e peggioramento di uno scompenso cardiaco latente).
. modello del problema sotteso: frequentemente il motivo di una consultazione medica non rappresenta il problema clinico principale del paziente (per esempio un paziente viene condotto dal figlio in ambulatorio perchè presenta una ulcera trofica ad una gamba, mentre al medico appare palese un grave disturbo dell’andatura associato a sindrome cerebrale involutiva avanzata, mai evi- denziati in precedenza ed ignorati - o rimossi - dai familiari)
modello dell’evento stressante smascherante-scatenante: un evento stressante rende manifesto un problema precedentemente compensato o sottaciuto (ad esempio la perdita per morte improvvisa del coniuge “più valido” evidenzia la grave limitazione motoria per obesità ed artrosi del coniuge sopravvissuto, inabile a compiere semplici attività quotidiane). Ogni problema o malattia andranno quindi valutati nel contesto clinico generale dell’individuo, selezionando tra i rimedi quelli utili a più livelli o almeno non controindicati per al- tre affezioni presenti o ipotizzabili. Gli stressors ambientali e le malattie possono certamente realizzare danni e scompensi più gravi in un organismo anziano con minori riserve funzionali rispetto al giovane, tuttavia non va di- menticato che molte patologie si presentano in modo meno aggressivo nell’anziano rispetto al gio- vane (molti tumori, ma anche il diabete e le ernie discali ad esempio - ovviamente con i dovuti di- stinguo -), inoltre le ridotte esigenze vitali ed il ridotto metabolismo di un organismo anziano pos- sono consentire un più facile raggiungimento dell’omeostasi perchè questa di solito si pone ad un livello funzionale più basso rispetto al giovane (basti pensare al diverso impatto di un problema come l’insufficienza renale cronica tra un individuo giovane ed un anziano, o a come un anziano possa meglio tollerare, ad esempio, bassi livelli di emoglobina - se raggiunti lentamente -). In ogni caso può essere inutile e controproducente far rilevare ad un anziano alterazioni che non influiscono sulla sua funzionalità generale e che non richiedono cure specifiche, in forma di etichette diagnostiche. Tuttavia può essere gravemente riduttivo interpretare molti disturbi ritenuti “minori” (anche se soggettivamente molto disturbanti o penosi) con diagnosi generiche (di comodo) ascrivibili all’invecchiamento, prescrivendo di conseguenza rimedi generici e rassegnazione. Il non riconoscere situazioni passibili di rimedio o almeno di conforto terapeutico (farmacologico e non), rischia in molti casi di peggiorare sensibilmente la qualità di vita residua dell’anziano, specie se si tiene conto del fatto che molti anziani tendono ad accettare e sottovalutare i loro disturbi prima an- cora di averne parlato con il loro medico. In questo caso se generalizzassimo il nostro comprensibi- le atteggiamento di difesa verso i pochi petulanti frequent attenders anziani, rischieremmo di fare un grosso torto a tutta la categoria. L’assistenza costante e capillare esercitata dal medico di famiglia, viene svolta per lo più senza alcun ausilio o mediazione infermieristica, nonostante sia palese come le migliori cure medi- che ipotizzabili al di fuori dell’ospedale, in assenza di un attento nursing dei pazienti più critici, possano risultare per lo più inefficaci (basti pensare al problema della idratazione/alimentazione o ai decubiti). Del resto ad un medico di famiglia degno di questo nome, non può certo essere imputa- ta la responsabilità di non attivare e sfruttare al massimo le capacità assistenziali ambientali e la rete solidaristica spontanea. La clinica, in questo contesto, non può dunque mai prescindere dalla di- sponibilità e dall’armonizzazione dei contributi di cura ed assistenza globali che possono essere forniti da personale infermieristico o ausiliario. E’ una sfida per le Istituzioni sanitarie e per i me- dici stessi organizzare modelli assistenziali più evoluti ed efficienti per i pazienti più critici. Tali modelli dovranno però inserirsi nel contesto naturale della Medicina Generale, conservandone le caratteristiche di elasticità, discrezionalità e personalizzazione dei rapporti (sia con i pazienti che tra operatori). Sarebbe spiacevole veder emergere protocolli assistenziali burocratizzati (surrogato di quelli geriatrici o peggio “pezze giustificative” per ottenere rimborsi), è stato infatti dimostrato co- me la programmazione di controlli periodici “a tappeto” e sistematici ai pazienti anziani, non serva a migliorare nè lo stato di salute nè la funzionalità generale dei pazienti stessi, nè il consumo di farmaci. Niente può sostituire la semeiotica multidimensionale di un medico generale esperto, la sua attenzione, la sua sensibilità, la sua capacità discrezionale di costruire nel tempo la miglior comuni- cazione possibile (formale ed informale) con i pazienti e le loro famiglie.
alta prevalenza di comorbidità e polipatologia
modificazione dei sintomi tipici di una patologia con l’aumentare dell’età
frequente compromissione funzionale come presentazione di malattia
scompenso di organi o apparati più vulnerabili indipendentemente dalla sede di malattia
elevata incidenza di stress psico-sociali
elevato peso di variabili para-cliniche nella gestione del paziente
modificazioni fisiologiche legate all’invecchiamento
ridotta accettabilità/praticabilità delle procedure cliniche tradizionali
fallacia dell’approccio polispecialistico ai diversi problemi
esigenza di una continua sintesi clinico-gestionale
elementi della complessità clinica dell’anziano
2. LA VALUTAZIONE GLOBALE DELL’ANZIANO, COME SI PONE IL MEDICO DI FAMIGLIA?
L’anziano prima di essere un anziano è un individuo irripetibile che ha attraversato, di solito senza radicali trasfigurazioni o cambi di personalità, le diverse stagioni della vita. Il medico di fa- miglia è il medico di quest’individuo che per motivi non contingenti viene a trovarsi, appunto, an- ziano. Il nostro rapporto con il paziente non è condizionato da limiti anagrafici, temporali, procedu- rali, settoriali. Noi invecchiamo insieme ai nostri pazienti, di cui osserviamo, ricambiati, le modifi- cazioni che l’età comporta. L’intervento del geriatra viceversa nasce generalmente dalla necessità di mediare un rappor- to con una Istituzione sanitaria, ove l’individuo, perchè anziano e di solito multiproblematico (e per lo più non autosufficiente), viene a trovarsi. Il rapporto non è strettamente personalizzato e prevede l’intervento di personale diverso (medico e non medico) con lo stesso paziente. Il rapporto primario del singolo medico è con la struttura di accoglienza/degenza e solo secondariamente con l’anziano. Il medico generale è in primo luogo il medico di quella persona e quella famiglia e solo se- condariamente si può porre in relazione con una struttura di riferimento (nelle Case di Riposo il medico generale può essere scelto/revocato singolarmente da ogni ospite). Queste diversità di fondo comportano una inevitabile diversità di approccio al paziente, seb- bene sia indiscutibile il fatto che il medico di famiglia debba confrontare ed adattare a sè, quanto di più avanzato la Geriatria, quale disciplina specialistica clinica della vecchiaia, collauda e propone. Le maggiori discrepanze metodologiche nascono però subito al momento dell’approccio al paziente e riproducono le antitetiche postazioni di osservazione ed intervento di cui si è parlato. E’ naturale che per ottenere una messa a fuoco efficace della situazione clinica globale di un paziente anziano occorre non solo essere attenti e disponibili oggi, ma anche disporre di una cartella clinica contenente una sintesi “per problemi” che sia stata nel tempo oggetto di aggiornamento e ri- flessione costante. Infatti per il medico di famiglia conta più che la fatidica anamnesi sistematica, strumento “artistico” di enorme peso clinico, che occorre peraltro saper sempre ben condurre e sfruttare, la cosiddetta catamnesi, cioè la capacità di seguire e descrivere con acume sintetico gli eventi definiti o indefiniti ma potenzialmente significativi che si accumulano nella storia clinica di ognuno. La catamnesi non sarà però solo storia biologica ma dovrà intrecciarsi, riconoscendone la possibile interdipendenza, con la biografia della persona. Questo non può avvenire se non utilizzan- do una cartella clinica, cartacea o elettronica che sia, capace di evolversi nel tempo e di servire realmente al medico per fare ogni volta “mente locale” sulla persona anziana che ha di fronte. Non hanno certamente più senso le cartelle-diario che negli anni divengono pesanti e sdruciti manoscritti privi però di spessore clinico. La cartella dovrebbe essere sufficientemente agile per poter seguire il medico nelle visite domiciliari a pazienti complessi e presentabile per poter accompagnare, ripro- dotta, il paziente allorchè ricoverato.
storia della famiglia e cause di morte o malattie presenti in genitori e fratelli
attività lavorativa pregressa con analisi eventuale esposizione a fattori nocivi
giudizio sulla salute in gioventù (abile alla visita di leva?)
storia ginecologica (menarca, parti, menopausa)
consumi voluttuari, periodo di esposizione (10-20-30 anni di fumo?) e durata eventuale so- spensione
raccolta dati su terapie pregresse e tolleranze ed intolleranze/allergie a farmaci, uso di farmaci
da banco o terapie “alternative”
raccolta dati su precedenti di allergie/intolleranza di varia natura (alimenti, insetti, polvere ecc.)
storia clinica e biografia (eventi-chiave) in sequenza cronologica
sintesi ragionata dei problemi
aspetti peculiari della raccolta dei dati nella cartella clinica del paziente anziano
La raccolta dei dati spesso comporta “in parallelo” una faticosa messa in ordine di polverosi referti (talora curiosi reperti di “modernariato” della Medicina), accompagnata da frammentari ri- cordi e commenti. Da questa analisi possono tuttavia emergere dati collaterali di un certo interesse “con il senno di poi”. La conduzione dell’anamnesi sistematica si presta peraltro bene ad un pre-inquadramento implicito del paziente (rappresentando un valido alibi per porre domande al paziente senza che questi si senta “misurato”). Questo si basa sull’osservazione delle caratteristiche del paziente stesso, delle sue capacità espressive e mnesiche, del suo modo di muoversi: come si presenta il paziente? è trasandato o ben curato? è deperito? pallido? esiste un grave deficit cognitivo-mnesico che rende inevitabile l’aiuto di un’altra persona (coniuge, figlio, conoscente)? emergono tratti ossessivi, ipo- condriaci o paranoidi nella personalità? il pensiero è coerente? esiste un’alterazione del tono dell’umore? trema? cammina male? E’ possibile inoltre ricostruire curricola di malattie o disturbi magari mai riconosciuti come tali: la presenza di depressione ricorrente o di ciclotimia, gli esiti di un vecchio ed incancrenito di- sturbo da attacchi di panico con agorafobia, una condrocalcinosi, un’artrite reumatoide che si è “raffreddata”, un edema angioneurotico interpretato via via come allergia al farmaco o all’alimento di passaggio, ecc. In ultimo è possibile sondare alcuni aspetti extraclinici cruciali come la diffidenza verso i farmaci di cui possono raccogliersi sterminate messi di effetti collaterali spesso improbabili, o una bassa o alta soglia nell’evocazione di sintomi e disturbi. Tali elementi diventeranno “pesanti” allor- chè si dovrà raccogliere un’anamnesi mirata a qualche disturbo specifico e nell’impostare un trat- tamento farmacologico. Non di rado capiterà di incontrare outsider, refrattari a qualsiasi ingerenza sanitaria che comporti una benchè minima prassi burocratica o un avvicinamento all’orbita dell’Ospedale. E’ convinzione diffusa il fatto che la somma delle diagnosi di per sè non serva a misurare il peso dell’impegno assistenziale necessario per seguire un paziente anziano, nè il suo reale stato di salute. Per esplicitare dunque i problemi complessivi di un anziano critico, andranno affiancate a variabili categoriali (le diagnosi) variabili dimensionali (la valutazione funzionale). Tutto questo trova ordinariamente una efficace sintesi nella sensibilità, nel buon senso e nell’esperienza del me- dico di famiglia che parte indubbiamente privilegiato perchè a conoscenza della realtà clinica ed extraclinica dei pazienti ed abituato a fare i conti con vari ordini di problemi simultaneamente. La Geriatria, che parte da diversi presupposti operativi, ha sviluppato tutta una serie di scale di valutazione funzionale (di impostazione anglosassone) utili a codificare in una valutazione mul- tiassiale (assessment) i diversi aspetti problematici del paziente, ad uso dei diversi operatori coin- volti nell’assistenza. Le scale di valutazione proposte analizzano perciò i diversi aspetti funzionali della persona e sondano la presenza di demenza o depressione. Molte delle scale più diffuse, per la loro semplicità, sono compilabili anche da personale ausiliario. Indubbiamente tale messe di dati necessita poi di una sintesi operativa, pena il rischio di inefficacia. E “la scala delle scale” non può che compilarla nella propria testa il medico della persona, confrontandosi beninteso con quanti collaborano per natura o professione all’assistenza dell’anziano multiproblematico. Infatti, anche se certamente le scale di valutazione geriatrica esistenti non sono di utilità quotidiana per il medico generale, è tuttavia importante che questi si confronti con esse e ne mediti gli indicatori ed i criteri ispiratori. E’ prevedibile che nel breve termine, il diffondersi di modelli assistenziali quali l’assistenza domiciliare integrata, ponga al medico l’esigenza di descrivere situazioni utilizzando un linguaggio e criteri di valutazione riproducibili e comprensibili anche da altri operatori sanitari o assistenziali. E’ poi comunque ineluttabile un esplicito confronto dialettico tra discipline di derivazione ospedaliera (tra cui la Geriatria) ed una disciplina di tradizione territoriale come la Medicina Gene- rale. Le prime tenderanno per loro natura a oggettivare al massimo i problemi del paziente utiliz- zando più o meno sofisticati strumenti analitici di misura, rischiando però, allorchè si propongono di uscire dall’Ospedale ed agire in campo aperto (sul territorio), di rispondere con una complicazio- ne inefficace alla complessità ed alla multiformità della realtà. La Medicina Generale invece è por- tata a soggettivizzare o meglio a personalizzare sempre i problemi, rischiando in questo però di perdersi dietro ai desideri ed alle opinioni dei pazienti e dei loro familiari, all’incertezza clinica di molte situazioni, alla scarsa accoglienza di molte strutture di riferimento, agli escamotage relazio- nali ad impronta consolatoria sempre molto graditi da molti pazienti. Esiste quindi la necessità di entrare in contatto con la Geriatria, studiandone i rilevanti con- tributi scientifici ed integrandone le indicazioni nella pratica quotidiana, previo confronto con il nostro setting e con la nostra esperienza. Del resto, come già ricordato nel documento della FIMMG di Torino del marzo 1993, sull’assistenza agli anziani, nella XII edizione dell’Harrison’s (a pag. 23 nell’edizione italiana - 1992) si legge: ”...la Geriatria richiede un’integrazione di tutta la Medicina. Non è una pratica specialistica. Piuttosto ogni medico generale o specialista dovrebbe avere un addestramento e conoscenze adeguati nei principi della Geriatria.”. Non si può quindi che rigettare l’ipotesi che la Geriatria stessa da disciplina prevalentemente rivolta allo studio ed alla ri- cerca si proponga come disciplina specialistica di gestione diretta dell’assistenza di primo livello, sovrapponendosi in qualche modo alla Medicina Generale. Questo contribuirebbe solo ad aumenta- re la disarticolazione della realtà sociosanitaria, la burocratizzazione del lavoro e la spesa comples- siva. Rischierebbe inoltre forse di offuscarsi per molti anziani l’intelleggibilità del mondo domesti- co (invaso da alieni, pur armati di buone intenzioni) e per molti medici la motivazione professiona- le (sentendosi deresponsabilizzati o manipolati in un contesto che si vive come proprio) . Diverso sicuramente sarà il risultato finale se nuovi e più evoluti strumenti di intervento sanitario (assistenza domiciliare integrata, medicina di gruppo ambulatoriale e domiciliare, ecc.) potranno essere offerte all’intera popolazione anziana attraverso il lavoro dei medici di famiglia, senza pregiudicarne le doti di natura e la popolarità. Il medico di famiglia del resto sa bene che negli assistiti più anziani, non sono tanto presenti il reclamo e la rivendicazione quanto la rassegnazione a subire il prezzo degli anni, atteggiamento che conduce spesso all’autoesclusione dal circuito e dalle procedure di un’organizzazione sanitaria di secondo livello spesso troppo rigida ed ipocrita. L’anziano sovente demanda volentieri il suo bi- sogno di considerazione e consolazione alla comprensione ed ai rimedi di “prima mano” del medico in cui ripone fiducia. Questo è un gravoso condizionamento che può però essere sublimato nel con- creto con un onesto impegno a rendere la propria opera sempre più efficace ed il proprio spirito sempre più aperto.
BIBLIOGRAFIA
* J. C. Beck - Manuale di Gerontologia e Geriatria (Geriatric review syllabus) - Masson, 1994
* E. Palummeri, D. Cucinotta - Elementi di Gerontologia e Geriatria - Ambrosiana Milano, 1992
* Manuale Merck di Geriatria - E.S.I. Stampa Medica, 1990
* M.S.J. Pathy - Trattato di Gerontologia e Geriatria - USES, 1988
* J.C. Brocklehurst, T. Hanley - Geriatria - Masson 1985
* E. Martin, J.P. Junod - Manuale di Gerontologia - Masson 1985
* C. Gala - Psicogeriatria - Masson 1990
* R. Nardi, F. Cavazzuti - Terapia Farmacologica in Geriatria - Masson 1991
* F. Fabris, C. Macchione et Al. - La cartella clinica geriatrica - Minerva Medica, suppl. al n 12,
dic. 1989
* F. Fabris - Atlante di Geriatria - UTET 1986
* Rakel - Textbook of Family Practice - cap. 10 “Caring for the Elderly” - Saunders 1990
* Harrison’s - Principles of Internal Medicine - XIII edizione, Mc Graw Hill 1994
* O. Zanetti - Metodologia in Geriatria - Senior, dicembre 1991
* L’assistenza agli anziani - Documento a cura della FIMMG di Torino - marzo 1993
Articolo pubblicato su SIMG n 8 Ottobre 1995
Infermieri Net
PROTOCOLLO DISINFEZIONE DI
SUPERFICI ED AMBIENTI

Redazione: DDSI
Data Stesura:14 Settembre 2004

Coordinazione: Revisione: 0

Approvazione:




Pulizia, Sanificazioni e Disinfezioni di Superfici

Il rischio infettivo per pazienti ed operatori, legato a pavimenti, pareti, arredi e suppellettili in genere, è irrilevante. Inoltre, corrette procedure di pulizia e disinfezione sono in grado di ridurre in misura sostanziale la carica microbica di qualunque superficie, anche nel caso che sia visibilmente contaminata da sostanze organiche. Tuttavia la presenza di materiale organico e/o sporco in genere, può inattivare il disinfettante o può ridurre il potere di penetrazione, pertanto è indispensabile effettuare un’accurata pulizia della superficie prima della sua eventuale disinfezione. In linea di massima, è possibile fornire le seguenti indicazioni per il personale addetto alle procedure di pulizia.

1. usare guanti robusti ( del tipo per le pulizia domestiche)
2. usare le stesse misure protettive adottate quando il paziente era presente
3. durante la manipolazione degli effetti letterecci, indossare idonei indumenti protettivi ed adottare idonei comportamenti per evitare una contaminazione grossolana dell’ambiente circostante
4. applicare il disinfettante sulle superfici già asciutte e lasciare, se possibile,che si asciughi da solo per favorire lo svolgimento dell’azione disinfettante residua;
5. dopo il lavaggio ( sia manuale che in lavatrice) spugne, panni e frange del Mop devono essere conservati ben puliti ed asciutti;
6. mentre per la pulizia si usano detergenti , per la sanificazione si possono scegliere: cloroderivati a bassa concentrazione, polifenoli detergenti, composti di ammonio quaternario, od anche clorexidina gluconato associato a cetrimide. Per la disinfezione di superfici od oggetti in ambienti critici, invece, la scelta va fatta solo tra:
a. ipoclorito di sodio ( comune candeggina ) e derivati del cloro per utte le superfici non metalliche ad una concentrazione che va da 20 ml/lt di acqua ( per superfici non contaminate da materiale organico ) a 100 ml / litro di acqua ( per le superfici contaminate). Tale soluzione può essere utilizzata applicandola direttamente sulla superficie da trattare o immergendovi gli oggetti per almeno 30 minuti;
b. soluzioni d polifenoli detergenti per tutte le superfici , alle concentrazioni suggerite dal produttore;
c. alcool etilico denaturato per tutte le superfici ad esclusione di quelle in plexiglas

Pulizia, Sanificazioni e Disinfezioni di Superfici

Prodotti:
Cloroderivati
Soluzioni Polifenoliche detergenti
Alcool Etilico denaturato
Composti di Ammonio Quaternario
Clorexidina Gluconato + Cetrimide

Modalità di esecuzione:

Superfici non contaminate da materiale organico;
· dopo aver rimosso preventivamente lo sporco con un sistema “ad umido” lavare la superficie con la soluzione detergente
· far asciugare
· passare sulla superficie un panno imbevuti di disinfettante e lasciare asciugare

Superfici contaminate da materiale organico;
· con un panno imbevuto di disinfettante, rimuovere lo sporco e gettarlo nel sacco dei “Rifiuti speciali” se monouso
· lavare accuratamente la superficie con la soluzione detergente
· sciacquare
· lasciar asciugare o asciugare
· passare sulla superficie un panno imbevuto di disinfettante
· lasciar asciugare

Disinfezione terminale

il personale addetto alle pulizie deve usare guanti per le pulizie domestiche
il personale addetto alle pulizie deve usare le stesse misure protettive adottate quando il paziente era presente
Gli oggetti non monouso ( bottiglie di drenaggio, padelle, termometri, flussometri per ossigeno, ecc) devono essere sottoposti ad adeguata pulizia e disinfezione
Tutte le superfici ( es. arredi, pareti, maniglie, pavimenti, ecc.) dovranno essere pulite e decontaminate con prodotti idonei
Il personale ceh manipola gli effett iletterecci deve indossare idonei indumenti protettivi ed adottare idonei comportamenti per evitare una contaminazione grossolana dell’ambiente circostante, prima di iviarli alla sezione lavaggio.
In linea di massima, i prodotti utilizzati per la pulizia/ disinfezione di superfici e di apparecchiature, oltre ai comuni detergenti, sono:
Ipoclorito di sodio per tutte le superfici non metalliche ad una concentrazione che va da 20 ml/lt di acqua ( per superfici non contaminate da materiale organico) a 100 ml/lt di acqua ( per le superfici contaminate) Tale soluzione può ssere utilizzata applicandola direttamente sulla superficie da trattare o immergervi gli oggetti per almeno 30 minuti;
Soluzioni polifenoliche per utte le superfici alle concentrazioni suggerite dal produttore;
Alcool etilico denaturato può essere utilizzato su tutt le superfici già pulite.

N.B. si suggerisce, comunque , di applicare il disinfettante sulle superfici già asciutte e di lasciare, se possibile, che si asciughi da solo per favorire lo svolgimento dell’azione disinfettante residua.

Bibliografia
M.M. D’Errico, G. Anolini, G. Faccenda, L, Fontana, E. Martini, E. Prospero, F. Bevere, I. Annino “ La Gestione praitica della disinfezione nelle strutture sanitarie” Nuovo Studio Tecna 1999
Infermieri Net

PROTOCOLLO DISINFEZIONE DI
SUPERFICI ED AMBIENTI



Redazione: DDSI Data Stesura:

Coordinazione: Revisione: 0

Approvazione:




Pulizia, Sanificazioni e Disinfezioni di Superfici

Il rischio infettivo per pazienti ed operatori, legato a pavimenti, pareti, arredi e suppellettili in genere, è irrilevante. Inoltre, corrette procedure di pulizia e disinfezione sono in grado di ridurre in misura sostanziale la carica microbica di qualunque superficie, anche nel caso che sia visibilmente contaminata da sostanze organiche. Tuttavia la presenza di materiale organico e/o sporco in genere, può inattivare il disinfettante o può ridurre il potere di penetrazione, pertanto è indispensabile effettuare un’accurata pulizia della superficie prima della sua eventuale disinfezione. In linea di massima, è possibile fornire le seguenti indicazioni per il personale addetto alle procedure di pulizia.

1. usare guanti robusti ( del tipo per le pulizia domestiche)
2. usare le stesse misure protettive adottate quando il paziente era presente
3. durante la manipolazione degli effetti letterecci, indossare idonei indumenti protettivi ed adottare idonei comportamenti per evitare una contaminazione grossolana dell’ambiente circostante
4. applicare il disinfettante sulle superfici già asciutte e lasciare, se possibile,che si asciughi da solo per favorire lo svolgimento dell’azione disinfettante residua;
5. dopo il lavaggio ( sia manuale che in lavatrice) spugne, panni e frange del Mop devono essere conservati ben puliti ed asciutti;
6. mentre per la pulizia si usano detergenti , per la sanificazione si possono scegliere: cloroderivati a bassa concentrazione, polifenoli detergenti, composti di ammonio quaternario, od anche clorexidina gluconato associato a cetrimide. Per la disinfezione di superfici od oggetti in ambienti critici, invece, la scelta va fatta solo tra:
a. ipoclorito di sodio ( comune candeggina ) e derivati del cloro per utte le superfici non metalliche ad una concentrazione che va da 20 ml/lt di acqua ( per superfici non contaminate da materiale organico ) a 100 ml / litro di acqua ( per le superfici contaminate). Tale soluzione può essere utilizzata applicandola direttamente sulla superficie da trattare o immergendovi gli oggetti per almeno 30 minuti;
b. soluzioni d polifenoli detergenti per tutte le superfici , alle concentrazioni suggerite dal produttore;
c. alcool etilico denaturato per tutte le superfici ad esclusione di quelle in plexiglas













Pulizia, Sanificazioni e Disinfezioni di Superfici

Prodotti:
Cloroderivati
Soluzioni Polifenoliche detergenti
Alcool Etilico denaturato
Composti di Ammonio Quaternario
Clorexidina Gluconato + Cetrimide

Modalità di esecuzione:

Superfici non contaminate da materiale organico;
· dopo aver rimosso preventivamente lo sporco con un sistema “ad umido” lavare la superficie con la soluzione detergente
· far asciugare
· passare sulla superficie un panno imbevuti di disinfettante e lasciare asciugare

Superfici contaminate da materiale organico;
· con un panno imbevuto di disinfettante, rimuovere lo sporco e gettarlo nel sacco dei “Rifiuti speciali” se monouso
· lavare accuratamente la superficie con la soluzione detergente
· sciacquare
· lasciar asciugare o asciugare
· passare sulla superficie un panno imbevuto di disinfettante
· lasciar asciugare
























Disinfezione terminale

il personale addetto alle pulizie deve usare guanti per le pulizie domestiche
il personale addetto alle pulizie deve usare le stesse misure protettive adottate quando il paziente era presente
Gli oggetti non monouso ( bottiglie di drenaggio, padelle, termometri, flussometri per ossigeno, ecc) devono essere sottoposti ad adeguata pulizia e disinfezione
Tutte le superfici ( es. arredi, pareti, maniglie, pavimenti, ecc.) dovranno essere pulite e decontaminate con prodotti idonei
Il personale ceh manipola gli effett iletterecci deve indossare idonei indumenti protettivi ed adottare idonei comportamenti per evitare una contaminazione grossolana dell’ambiente circostante, prima di iviarli alla sezione lavaggio.
In linea di massima, i prodotti utilizzati per la pulizia/ disinfezione di superfici e di apparecchiature, oltre ai comuni detergenti, sono:
Ipoclorito di sodio per tutte le superfici non metalliche ad una concentrazione che va da 20 ml/lt di acqua ( per superfici non contaminate da materiale organico) a 100 ml/lt di acqua ( per le superfici contaminate) Tale soluzione può ssere utilizzata applicandola direttamente sulla superficie da trattare o immergervi gli oggetti per almeno 30 minuti;
Soluzioni polifenoliche per utte le superfici alle concentrazioni suggerite dal produttore;
Alcool etilico denaturato può essere utilizzato su tutt le superfici già pulite.

N.B. si suggerisce, comunque , di applicare il disinfettante sulle superfici già asciutte e di lasciare, se possibile, che si asciughi da solo per favorire lo svolgimento dell’azione disinfettante residua.
























Bibliografia
M.M. D’Errico, G. Anolini, G. Faccenda, L, Fontana, E. Martini, E. Prospero, F. Bevere, I. Annino “ La Gestione praitica della disinfezione nelle strutture sanitarie” Nuovo Studio Tecna 1999

August 31, 2006

Infermieri Net
Benvenuti nel Blog di Infermieri Net.
Avete la possibilità di pubblicare le vostre recensioni nel rispetto di una netiquette che sarà comunque garantita dalla redazione.
Usate al meglio questo spazio e ne trarrete un vantaggio.
Infermieri Net

April 12, 2003

Diagnosticare la tubercolosi
L’esame del numero di cellule T del sistema immunitario permette di identificare le infezioni latenti


Molte persone infette dalla tubercolosi ne sono ignare e non ricevono alcun trattamento fino a quando non si ammalano e diventano contagiosi. Questo perché i medici non sono in grado di diagnosticare in modo accurato l’infezione fino a quando i sintomi non appaiono. Tutto ciò presto potrebbe cambiare grazie a un nuovo esame del sangue.
Il batterio Mycobacterium tubercolosis provoca tosse persistente (che diffonde ulteriormente la malattia), muco, febbre, e sintomi simili a quelli dell’influenza. Gli antibiotici sono riusciti a rallentare in modo notevole questa malattia, ma non l’hanno sconfitta del tutto. E il miglior esame per rivelarla, vecchio di un secolo, consiste ancora in una puntura, che per di più può dare un risultato errato nel caso in cui una persona fosse stata vaccinata contro la TBC. Gli sforzi per sviluppare un test migliore sono stati complicati dal fatto che il sistema immunitario non produce anticorpi - che di solito vengono rivelati dai test diagnostici - per combattere l’infezione.
Il nuovo esame, sviluppato dall’immunologo Ajit Lalvani dell’Università di Oxford, rivela invece le cellule T del sistema immunitario. Si tratta delle cellule che rispondono a una proteina espressa nel batterio della tubercolosi. Il nuovo test, chiamato ELISPOT, è stato usato per studiare un’epidemia scoppiata in Gran Bretagna in una scuola media nel 2001. ELISPOT ha individuato valori massimi di cellule T negli studenti che sedevano più vicini al bambino infetto, e ha permesso di stabilire che 97 dei 594 studenti presentavano un’infezione latente. Il normale test ne ha identificati di più, 128, ma 31 di questi erano stati vaccinati contro la TBC, il che suggerisce che si trattava di false positività.
Lo studio è stato pubblicato sul numero del 5 aprile della rivista “The Lancet”. Lalvani afferma che ELISPOT potrà essere usato non solo per diagnosticare le infezioni da TBC, ma anche per prevedere chi svilupperà la malattia allo stato completo e per monitorare le cure.


Fonte: Le Scienze S.p.A.

March 15, 2003

Menu' completo all'OGM.

Come sottrarsi al gioco delle multinazionali
ed orientare il mercato verso la sicurezza alimentare: diventare
consumatori critici e consapevoli.


Anticrittogamici, bestiame rimpinzato con mangimi killer (vedi le
vicende della "mucca pazza"), ormoni, antibiotici... mettersi a
tavola e' un po' come giocare alla roulette russa. Come se tutto cio'
non bastasse, ora sono arrivati anche gli OGM che detti cosi' fanno
poca impressione ma se si scioglie la sigla per leggerla in tutta la
sua estensione, "Organismi Geneticamente Modificati", non mancano di
regalare almeno un po' d'apprensione. Soprattutto perche' riuscire ad
individuarli e' tutt'altro che semplice.

Chi ha pensato di scansarli togliendo dal proprio menu' l'insalata di
mais e la salsa di soia, si prepari ad una brutta sorpresa. Infatti
sul mercato circolano innumerevoli alimenti, possiamo azzardare a
dichiarare "di uso quotidiano", che tra i loro ingredienti annoverano
derivati di soia e mais. Inutile dire che e' impossibile trovare
indicazioni in merito sulle etichette: i nostri legislatori non hanno
ancora adeguatamente affrontato il problema. Se a cio' si aggiunge il
bestiame nutrito con sostanze geneticamente modificate, si scopre che
a tavola non si salva una portata, dall'antipasto al dolce.

Il problema e' stato seriamente affrontato da Greenpeace,
l'associazione ambientalista che da alcuni mesi ha fatto dei
supermercati uno dei suoi campi d'azione. In appositi punti
d'informazione, alcuni attivisti mascherati da polli giganti
distribuiscono ai consumatori le liste degli alimenti prodotti con o
senza OGM. Le marche piu' o meno note sono suddivise in tre
categorie: verde, giallo o rosso... con chiaro riferimento ai
semafori stradali.

"I produttori non sono tenuti per legge a dichiarare la presenza di
OGM nei mangimi, e di conseguenza i consumatori non sanno se i
prodotti che acquistano derivano da animali nutriti con mangimi
geneticamente modificati", spiega Federica Ferrario, della campagna
Ogm di Greenpeace. "Con queste liste vogliamo dare ai consumatori la
possibilita' di scegliere prodotti senza OGM e far capire loro che
hanno un grande potere, quello di orientare il mercato verso la
sicurezza alimentare. Rispetto alle prime liste, pubblicate nel '99,
molti prodotti non sono piu' segnalati in rosso, proprio grazie alla
pressione dei consumatori. Ora il problema si e' spostato
prevalentemente sui prodotti di origine animale".

Gli elenchi in distribuzione (presenti anche su un sito Internet
dell'associazione, dove sono continuamente aggiornati) riguardano in
concreto produttori di pollame, uova, suini, pesci d'allevamento e
piatti pronti. Le informazioni sui prodotti sono state fornite
direttamente dalle aziende, pero' Greenpeace si riserva di effettuare
delle analisi per verificare la veridicita' delle dichiarazioni.

Ma si possono evitare gli OGM, senza andare a fare la spesa con la
lista a semaforo? "Gli alimenti biologici garantiscono di escludere
gli OGM in ogni fase della preparazione, compresi i mangimi animali",
spiega ancora Federica Ferrario. "Attenzione all'etichetta, pero': i
prodotti devono essere certificati da uno degli enti autorizzati.
Sarebbe auspicabile che anche i prodotti tipici, dal Parmigiano
Reggiano al prosciutto di Parma, vanto della nostra gastronomia,
inserissero nei loro disciplinari l'assenza di OGM dall'alimentazione
del bestiame".

Per concludere, andiamo a curiosare tra le marche bollate con il
rosso. Tra le pi˜ note troviamo il pollame firmato AIA, il "galletto"
Vallespluga, le uova di varie catene di megastore (come Carrerfour,
Conad, GS e Standa), i "teneroni" di Casa Modena, i salumi Beretta,
Rovagnati e Vismara, alcuni piatti pronti di Buitoni (Nestle') e Chef
Menu (Billa).

Ovviamente le varie liste sono molto piu' lunghe e meritano una
lettura approfondita, cosi' come sarebbe bene memorizzare i nomi
delle industrie che rientrano nella categoria verde... ma lo spazio
e' tiranno, non ce ne vogliano coloro che abbiamo omesso.

Per saperne di piu':

http://ogm.greenpeace.it/new/browseliste.php

http://www.greenpeace.it/camp/ogm/new/presentazioneliste.php

Fonte: GEVAM (http://www.gevam.it)

March 05, 2003

La biologia molecolare e le speranze di salute

Massimo Conese e Claudio Bordignon, Telethon Institute for Gene Therapy, Istituto Scientifico H.S. Raffaele, Milano
Fonte: http://www.fondazionesmithkline.it/t20002art7.htm


Quello che hanno rappresentato la medicina e la biologia tout court nell'immaginario dell'uomo moderno all'inizio del metodo scientifico dal Seicento in poi, allo scadere del XX secolo ed al sorgere del XXI viene in primis rappresentato dalla biologia molecolare. Non è un caso che fra i primi romance scientifici spicchi "Frankenstein ovvero il Prometeo moderno" di Mary Shelley (del 1818), in cui si racconta della creazione di un essere artificiale (assemblato da parti di cadaveri) la cui vita deriva da una scarica galvanica, mentre nel Novecento si arrivi a pensare alla creazione di un essere in tutto e per tutto umano grazie alla clonazione dei geni che compongono tutto il nostro patrimonio cromosomico (forse il più recente esempio è "Il terzo gemello" di Ken Follett).

La biologia molecolare è quella branca delle scienze della vita che si occupa di manipolare il corredo genetico, ovvero i geni, le unità discrete di informazione del nostro DNA, tramite metodiche e tecniche che sono note colloquialmente col termine di ingegneria genetica.

Alla base di questa tecnologia c'è la possibilità di ricostruire ed amplificare in maniera smisurata le molecole di DNA mediante il cosidetto clonaggio -ed il prodotto così ottenuto viene chiamato 'DNA ricombinante'. La biologia molecolare ha già avuto un ruolo essenziale nella creazione e modificazione di nuove specie di piante ed animali ai fini alimentari ed ecologici. Lungi dal voler entrare in un campo così vasto ed oggi complesso, lo scopo primario del nostro articolo è quello di voler illustrare le applicazioni più recenti della biologia molecolare alla medicina ed alla farmacologia.

Nell'ambito di questo articolo illustreremo con alcuni esempi come la biologia molecolare sia oggi alla base delle biotecnologie che stanno rapidamente cambiando lo scenario in cui viviamo. Difatti, le tecnologie scaturite dalla biologia molecolare e dall'ingegneria genetica hanno permesso -tra le tante applicazioni - la produzione di quelle chimere a livello genetico denominate animali transgenici, utilizzati per la produzione di anticorpi e di molte altre molecole utili nella diagnostica e in terapia. Inoltre, le biotecnologie stanno permettendo all'uomo di conoscere se stesso fino nei più reconditi dettagli molecolari nell'ambito del Progetto Genoma Umano. Si darà infine particolare rilievo a quella che è forse la più straordinaria frontiera del pensiero umano, ovvero la modificazione del patrimonio genetico ai fini terapeutici.


Biotecnologie

Con questo termine si intende oggi quell'insieme di tecniche attraverso cui è possibile conoscere e modificare, a proprio vantaggio, le proprietà ereditarie degli organismi viventi. Branche mediche come la genetica medica, la diagnosi prenatale e la medicina forense sono state completamente rivoluzionate da tecniche di biologia molecolare e di ingegneria genetica. Quelle che sono state denominate 'piattaforme biotecnologiche' hanno preso il via a partire dagli anni '70 con la ottimizzazione di colture di cellule umane ed animali nonchè con la possibilità di isolare, caratterizzare e modificare i geni mediante l'ingegneria genetica. Poichè il prodotto di un gene, una volta espresso, è una proteina, i ricercatori hanno focalizzato la loro attenzione anche sull'espressione e la purificazione di proteine. Quindi, a partire dai primi studi pioneristici, la maggior parte degli sforzi si sono concentrati da una parte sui geni e dall'altra sui loro prodotti ultimi, le proteine.

Una volta standardizzate le tecniche di ingegneria genetica negli anni '80, il passo successivo, per valutare le funzioni cellulari associate a determinati geni, è stato quello di inserire questi geni al di fuori del loro ambiente cellulare normale. Infatti, ben diverso è sapere come è fatto un gene dal sapere come funziona e da quali altri fattori è regolato. Il primo passo da farsi consisteva nell'effettuare il cosidetto trasferimento genico, ovvero inserire il gene da studiare nella cellula in esame ed, in particolare, nel suo nucleo. Le prime metodiche ad essere usate si basarono sulla possibilità di far precipitare e concentrare il materiale genico sulla membrana plasmatica delle cellule da cui viene assunto per fagocitosi, oppure sulla formazione di piccoli pori sulla membrana mediante un processo di elettroporazione. Dopo aver effettuato il trasferimento genico nella linea cellulare prescelta, e averne verificato l'espressione, si poterono caratterizzare quali sottoregioni del suo promotore (la principale regione che controlla la sua trascrizione) erano fondamentali per la sua espressione. Il passo successivo era l'identificazione dei fattori di controllo (i cosidetti fattori trascrizionali) che si legano a queste sottoregioni e che, in ultima analisi, condizionano l'espressione genica. Le metodiche fin qui descritte volte alla conoscenza dei meccanismi fini della regolazione genica a livello cellulare non sono però esenti da alcune limitazioni. In primo luogo, il trasferimento genico fu effettuato in linee cellulari in vitro, le quali sono solo lontanamente simili alle cellule presenti nel corpo umano e di cui esiste comunque una limitata possibilità di scelta. Inoltre, in vitro vengono a mancare quelle interazioni fra cellule ed ambiente extra-cellulare che avvengono a livello tessutale e che si sono dimostrate importanti per la regolazione dell'espressione genica. Infine, il gene che noi introduciamo dall'esterno, si inserisce non nella regione cromosomica di origine e quindi non nel suo 'ambiente' genico, ma in maniera causale. Nonostante queste problematiche, gli studi di trasferimento genico e di regolazione dell'espressione genica hanno portato a due importanti considerazioni. La prima riguarda la possibilità, ormai saggiata e confermata, di poter inserire dei geni sani all'interno di cellule malate, per verificare se fosse possibile correggerne il difetto (e di questo ne parleremo nel paragrafo dedicato alla terapia genica). La seconda era che la comprensione reale della regolazione genica si sarebbe potuta ottenere solamente introducendo i geni in una determinata cellula che fa parte di un determinato tessuto di un organismo. Solo così si sarebbe potuto dire in quali cellule e in quali stadi di sviluppo viene espresso un determinato gene e dove è attivo il suo promotore. Si sviluppò cioè l'esigenza di capire i meccanismi di controllo genico negli organismi superiori.

In questo modo nacque l'idea di creare i primi animali transgenici. La scelta dell'animale per questi studi ricadde inizialmente sul topo, data la facilità d'uso ed il basso costo, nonchè per altri motivi che vedremo in seguito. Oggi è possibile creare topi transgenici mediante due strategie. In un caso, il DNA del transgene viene microiniettato direttamente nella cellula uovo fecondata di un topo la quale viene successivamente fatta sviluppare in vitro fino allo stadio di blastocisti e quindi reimpiantata nell'utero di un'altra femmina. Nella seconda metodica, sviluppata successivamente ma oggi molto usata, il DNA transgenico viene introdotto nelle cosidette cellule staminali embrionali (ES), le quali vengono selezionate in vitro in base alla presenza o meno del transgene ed inserite in una blastocisti. Appare evidente come la seconda strategia permetta di controllare in maniera molto precisa l'avvenuta inserzione del gene nei cromosomi delle cellule riceventi, ed è per questo che oggi è preferita alla prima.

Nei primi anni ottanta si usò fondamentalmente la prima strategia e fece scalpore la creazione di veri e propri topi 'giganti' in seguito all'introduzione nei loro oociti del gene per l'ormone della crescita (GH). Il gene GH fu posto sotto il controllo di un promotore zinco-dipendente. Quando lo zinco veniva aggiunto all'acqua da cui i topi transgenici bevevano, si osservava una crescita maggiore rispetto a quei topi a cui non era stato somministrato lo zinco ed ai topi di controllo non transgenici. In seguito è stato riscontrato che i topi-GH hanno una durata di vita minore rispetto ai normali. Da queste osservazioni è evidente l'importanza della creazione di questi animali transgenici: è stato infatti possibile capire i vantaggi e gli svantaggi che vengono offerti dalla terapia genica di alcune forme di nanismo con il GH.

In seguito, la tecnologia transgenica fu posta al servizio dell'oncologia. Nel 1988 fu creato il primo modello transgenico murino di tumore (il cosidetto 'oncomouse'), mediante l'introduzione dell'oncogène myc nel pronucleo di una cellula-uovo. Il costrutto genico conteneva una sequenza promotrice diretta a determinare l'espressione del gene nella ghiandola mammaria in via di differenziazione. Gli animali transgenici sviluppavano nell'80% dei casi adenocarcinomimammari mammari.

A partire da questi studi, diversi organismi transgenici sono stati creati al fine di abbracciare una serie di applicazioni molto utili ai fini biologici e medici: per studiare geni in un ambiente complesso come quello dei tessuti o degli organi sia sovraesprimendoli che abolendone l'espressione, o anche per produrre grandi quantità di una proteina utile a scopi terapeutici (vedi il seguente paragrafo).

La trattazione della comprensione dei meccanismi di regolazione genica nell'animale transgenico esula dagli scopi di questa trattazione. La possibilità invece di annullare la funzione di un determinato gene a livello di cellule embrionali polipotenti ci appare molto più foriera di implicazioni nel campo delle biotecnologie. Mediante questa strategia è stato possibile creare i cosidetti animali knock-out (KO). Data la notevole identità delle vie metaboliche fra l'uomo ed il topo, ancora questo animale è stato scelto per la messa a punto di tale metodica. Nella creazione di questi topi, è stata inoltre sfruttata la possibilità, presente in natura, di far ricombinare fra di loro due geni in corrispondenza di regioni omologhe, un evento che prende il nome di ricombinazione omologa. Poichè questo evento si verifica nelle cellule di mammifero con una frequenza abbastanza bassa, una volta su mille, è evidente come la possibilità di coltivare e selezionare le cellule ES dopo il trasferimento genico sia stata di fondamentale importanza per la creazione di questi topi. Il materiale genico che si vuole far ricombinare con il gene endogeno conterrà delle sostituzioni nella sequenza in esame oppure una sequenza estranea all'interno del gene stesso. Nel primo caso, lo scopo è quello di introdurre una o più mutazioni specifiche nel gene in esame e di studiarne l'effetto; nel secondo, si ottiene una soppressione completa del gene. Entrambe queste strategie sono state usate all'occorrenza per mimare alcune malattie umane. Sono stati quindi creati dei modelli animali di malattie ereditarie, come la distrofia muscolare, la fibrosi cistica, l'anemia falciforme o la b-talassemia, icui fenotipi erano uguali o simili a quelli umani. Oltre ad essere un ottima fonte di informazioni per la comprensione etio-patogenetica delle malattie umane, è evidente come tali animali siano ben presto diventati una palestra dove eseguire "esercizi" di terapia genica. Infatti, laddove è possibile introdurre un transgene in maniera mirata in un preciso sito cromosomico, è possibile sostituire una copia malata del gene con una sana. Questo tipo di esperimento è stato effettuato con successo a all'Imperial College School of Medicine di Londra da Claire Huxley e collaboratori, i quali hanno creato un topo transgenico che esprimeva il gene umano della fibrosi cistica (CFTR) e lo hanno incrociato con un topo KO per il gene murino (cftr -/-). La progenie eterozigote presentava le caratteristiche fenotipiche di un topo normale. Sebbene questi risultati indichino che la possibilità di correggere un difetto ereditario manipolando le cellule germinali sia possibile, la loro applicazione all'uomo appare remota, soprattutto per ragioni etiche.


Animali transgenici utili per l'uomo

I ricercatori stanno trasformando greggi ed allevamenti in bioreattori predisposti a produrre farmaci, medicinali ed alimenti.

La tecnologia per la produzione di anticorpi risale alla creazione degli ibridomi, ovvero cellule di fusione fra linfociti murini oppurtanamente stimolati con l'antigene e cellule tumorali. La limitazione di tale metodica risiede nelle basse quantità di anticorpo prodotto, il quale sarebbe difficile da utilizzare a fini industriali. L'evoluzione delle piattaforme biotecnologiche ha portato a generare animali da allevamento capaci di produrre e secernere nei loro fluidi biologici la proteina di interesse. Rimanendo all'esempio degli anticorpi, nel 1996 la Genzyme Transgenics ha annunciato la nascita di una capra transgenica nel cui patrimonio genetico era stato inserito un gene codificante un anticorpo monoclonale, in seguito sviluppato e testato come farmaco antitumorale. Il vantaggio di usare una capra che produce nel proprio latte notevoli quantità di farmaco risiede evidentemente anche nella durata della sua vita biologica. Recentemente, lo stesso gruppo della Genzyme ha prodotto delle capre transgeniche capaci di secernere nel latte due proteine coinvolte nei processi di fibrinolisi e coagulazione, rispettivamente l'attivatore tessutale del plasminogeno e l'antitrombina. L'antitrombina ricombinante secreta nel latte (>1 g/L) è stata purificata e si è dimostrata avere un'attività specifica identica a quella derivata da plasma umano. Altri esempi di questa tecnologia riguardano la creazione di pecore transgeniche che producono e secernono nel latte il fattore IX antiemofilico, coinvolto nella coagulazione del sangue e difettoso nell'emofilia, o l'alfa-1-antitripsina, un inibitore di enzimi proteasici prodotto a livello epatico, carente nella malattia a membrane ialine del polmone.

Nel febbraio 1997, Ian Wilmut dell'Istituto Roslin di Edimburgo annunciava la creazione di Dolly, una pecora transgenica ottenuta mediante tecniche di ingegneria genetica. Più che un organismo transgenico, Dolly è un clone, ovvero un individuo geneticamente identico ad un altro. La sua creazione si deve ad un procedimento per cui il nucleo, prelevato da una cellula di ghiandola mammaria di una pecora adulta, è stato inserito nel citoplasma di una cellula uovo ricevente precedentemente privata del proprio nucleo. I ricercatori hanno fatto sviluppare l'uovo inserendolo nell'utero di un'altra pecora. La nascita di Dolly, oltre ad andare oltre alle più ardite previsioni di coloro che si occupano di animali transgenici, ha posto anche molti quesiti etici. Di fatto, oggi, è possibile produrre più copie identiche di mammiferi, ognuno indistinguibile dall'originale. Inoltre, nonostante questo sorprendente risultato, nulla si può dire della "fisiologia" di Dolly: la sua vita sarà simile a quella delle sue "sorelle" non transgeniche, o il fatto di essere stata generata a partire da un DNA già adulto potrà influenzare il suo processo di invecchiamento? Wilmut e colleghi hanno dimostrato che la lunghezza dei telomeri (le parti terminali dei cromosomi, implicati nella senescenza cellulare) di Dolly è paragonabile a quella delle cellule adulte di ghiandola mammaria usate per il trasferimento nucleare. Inquietante è il fatto che la pecora 'progenitrice' ha sei anni, mentre Dolly na ha solo uno.

Subito dopo l'annuncio di Dolly, Wilmut e colleghi hanno riferito la nascita di altre sei pecore (tra cui la famosa Polly), cloni nati mediante la stessa procedura di Dolly, ma da una cellula fetale e non da una adulta. Inoltre, nel costrutto genico usato era stato inserito il gene umano codificante il fattore IX della coagulazione, una proteina carente nell'emofilia.

È possibile immaginare che la creazione di Polly avrà importanti ricadute sulla biotecnologia degli xenotrapianti, cioè il trasferimento di organi fra specie diverse (dal greco xenos, 'diverso', 'straniero'). La sempre crescente richiesta di organi e le lunghe liste di attesa hanno indotto i ricercatori a prendere in considerazione gli animali come donatori alternativi per gli organi umani. Il primo problema da affrontare è stato quello del rigetto dell'organo trapiantato. Risalgono ai primi anni '60 i trapianti di organi da babbuini in soggetti umani poi deceduti a causa di una reazione acuta di rigetto. Il nostro organismo attiva verso il non-self una serie di risposte molecolari e cellulari, che fanno parte del sistema immunitario, per cui l'organo trapiantato viene distrutto. L'ingegneria genetica ha offerto un potenziale aiuto a questo problema, attraverso l'inserimento di geni umani nelle cellule dell'animale donatore. In particolare, la Imutran di Cambridge in Inghilterra ha già creato dei maiali transgenici (la specie animale normalmente usata per gli xenotrapianti) che contengono un gene umano codificante per la proteina DAF (decay accelerating factor) capace di inibire la reazione responsabile del rigetto iperacuto (DAF è un inibitore del complemento, un effettore della risposta immunitaria).

I cloni animali contenenti un gene umano, come Polly, potrebbero essere usati come produttori di organi "sicuri" dal punto di vista immunologico per i trapianti umani. Società di biotecnologia come la Nextran e la Alexion negli USA sono già nella Fase I degli esperimenti clinici per testare l'efficacia dell'uso extracorporeo del fegato di maiali transgenici in pazienti affetti da gravi epatopatie in attesa di un trapianto da un donatore adatto. Molti scienziati si pongono dei problemi di tipo pratico ed etico al riguardo, e cioè se la fisiologia dell'invecchiamento di un organo animale (seppure transgenico) in un corpo umano sia diversa e come sia diversa. Nonostante questi interrogativi, è stato stimato che più di 450 000 persone in tutto il mondo otterranno vantaggi dagli xenotrapianti a cominciare dall'anno 2010.


Il Progetto Genoma Umano

Fino ad ora abbiamo descritto quelle applicazioni della biologia molecolare e dell'ingegneria genetica più pratiche e rivolte a "piegare" il patrimonio genico alle esigenze della società. Il Progetto Genoma Umano è invece quello che si potrebbe anche chiamare un "vaso di Pandora": chissà cosa contiene e a che cosa darà luogo. Avviato formalmente nel 1990, esso si propone di sequenziare ed analizzare in circa 15 anni il patrimonio genico umano nei suoi minimi dettagli. La biologia molecolare gioca un ruolo determinante in questo immenso progetto da tre miliardi di dollari. Giusto per farsi un'idea della grandezza del problema, ricorderemo che il genoma umano è composto da 3X109 paia di basi, le subunità chimiche la cui sequenza è responsabile dell'informazione presente nel DNA. Una volta ottenuta la loro sequenza su ogni cromosoma delle 23 paia presenti nel nostro nucleo, il progetto è rivolto ad identificare i circa 100 000 geni che sono presenti all'interno di tale sequenza e, possibilmente, a conoscere le loro funzioni.

Il Progetto Genoma è stato avviato grazie alle conoscenze che i genetisti avevano accumulato sulla ereditarietà dei caratteri. In base alle caratteristiche della ricombinazione omologa che avviene a livello dei gameti, ad esempio, è stato possibile approntare le cosidette mappe genetiche dei cromosomi. Una mappa genetica è il risultato di come le migliaia di sequenze note sui cromosomi -e quindi aventi funzioni di marcatori- si separano e si ricombinano passando da una generazione all'altra. Basata evidentemente ed unicamente sull'osservazione della trasmissione fenotipica dei caratteri, questo genere di mappatura non illustra però la sequenza precisa dei geni sui cromosomi. Si è quindi passati a costruire le cosidette mappe fisiche. Ed è qui che entriamo nel regno dell'ingegneria genetica e possiamo meglio capire la funzione del Progetto Genoma. Quest'ultimo si basa infatti sull'isolamento di regioni di DNA cromosomico della lunghezza di 50.000/100.000 paia di basi. Tali frammenti, più facili da propagare e caratterizzare, verranno mappati mediante l'uso di marcatori polimorfici fino ad identificare l'effettiva posizione occupata da ciascuno di essi sui cromosomi. Completate queste fasi iniziali, si procederà al sequenziamento di ogni piccolo frammento, base dopo base.

È recentissimo l'annuncio, pubblicato sulla rivista Nature, del sequenziamento dell'intero cromosoma 22, una pietra miliare nello sviluppo del Progetto. Il 22 è un piccolo cromosoma coinvolto nella patogenesi della schizofrenia, della leucemia mieloide cronica e, verosimilmente, di altre patologie. Ora che ne è nota la sequenza, questa ipotesi potrà essere verificata. Tale successo è il risultato della strategia di clonare e propagare i frammenti di DNA (lunghi da 40.000 a 400.000 paia di basi) in una cosidetta "libreria genomica", inserendo i frammenti stessi nel genoma di un cromosoma artificiale batterico (BAC). Dato che si costruiscono molte migliaia di BAC, si possono trovare zone di giustapposizione fra i BAC stessi. Queste zone vengono riconosciute mediante la cosidetta reazione di polimerizzazione a catena (PCR, polymerase chain reaction). La PCR, ideata da Kary Mullis nel 1983, permette di selezionare una regione circoscritta di DNA e di amplificarla sino a poterne disporre in quantità tali da caratterizzarla. Grazie a questa strategia, Ian Dunham, del Sanger Center di Cambridge, Inghilterra, insieme ad altri otto laboratori sparsi in tutto il mondo, ha potuto creare una mappa fisica del cromosoma 22 mettendo nella giusta posizione i 'contigs' (le zone di giustapposizione) dei BAC, i quali sono stati alfine sequenziati. Il tallone di Achille di tale strategia risiede nel fatto che non sempre è possibile riempire esattamente gli intervalli fra i 'contigs', lasciando così scoperte delle zone la cui identificazione richiede tecniche ancora più sofisticate. Questo intoppo potrebbe essere superato dalla Celera Genomics, la rivale privata del Progetto Genoma, nata sotto l'egida del Department of Energy e del National Institute of Health statunitensi e finanziata dal governo americano. La Celera ha già compiuto l'impresa di sequenziare l'intero genoma di Drosophila melanogaster (180 milioni di paia di basi) mediante la strategia di processare per il sequenziamento i frammenti di DNA direttamente, senza cioè prima localizzare la loro posizione esatta lungo i cromosomi, e quindi di introdurre questa enorme mole di dati in velocissimi supercomputer. Questi ultimi, dedicati all'impresa mediante sofisticati software, indicano, mediante il confronto delle sequenze, dove va uno specifico frammento rispetto a tutti gli altri. Tale procedimento presenta però alcune difficoltà nell'uomo. Infatti il genoma umano contiene, in quantità molto maggiore rispetto agli organismi inferiori, numerose sequenze di DNA identiche, ripetute molte volte, e quindi difficili da posizionare. L'approccio della Celera potrebbe fallire, nel senso che i supercomputer potrebbero confondere le sequenze ripetute di un cromosoma con quelle simili di altri cromosomi.

Al di là della strategia impiegata in questa impresa, è chiaro che il sequenziamento completo del genoma umano (atteso ora per il 2003) non deve indurci a pensare di aver compreso come il nostro organismo da uovo fecondato raggiunga lo stadio di adulto. Nè potremo dire di poter accedere ai segreti irrisolti della dinamica cellulare e delle patologie che ai guasti di tale dinamica conseguono. L'informazione contenuta in quelle 3X109 paia di basi rimarrà ancora criptica. Un esempio illuminante potrà forse meglio chiarire questo concetto. Nel 1989 è stato identificato, mediante tecniche di biologia molecolare molto sofisticate per l'epoca (chromosome walking and jumping), il gene responsabile della fibrosi cistica, una tra le malattie genetiche più diffuse (colpisce 1 su 2500 nuovi nati nella popolazione caucasica) e letali. L'identificazione del gene è risultata ben presto un punto di partenza e non di arrivo. Il nostro livello di comprensione delle relazioni che collegano sequenza nucleotidica, struttura e funzione di una proteina sono ancora rudimentali. Per rimanere al gene della fibrosi cistica, studi in colture cellulari hanno successivamente dimostrato che esso codifica per una proteina che funge da canale ionico per il cloro a livello delle membrane di cellule epiteliali. Ulteriori studi, che combinano tecniche di ingegneria proteica ed analisi strutturale (ad esempio la biocristallografia tramite diffrazione di raggi X), potranno illuminarci su come funziona il canale e le sue relazioni con altre proteine cellulari. Ancora oggi non si sa chiaramente come il prodotto proteico del gene mutato sia responsabile delle alterazioni fenotipiche riscontrate nei pazienti. Inoltre, se consideriamo che sono state riscontrate ad oggi più di 800 mutazioni nel gene stesso, ci si rende conto come sia impossibile affermare che il sequenziamento del genoma umano condurrà alla comprensione del funzionamento dei geni.

Legato a doppio filo a questo discorso, è quello dell'uso che si farà di tale conoscenza. La ricaduta sulla diagnostica molecolare sarà tale che le ditte farmaceutiche immetteranno sul mercato nuovi test utili a dimostrare se una determinata persona è predisposta o meno a determinate malattie, ad esempio il cancro. Ad esempio, in famiglie ove è presente la predisposizione ereditaria per il tumore alla mammella (responsabile di meno del 10 per cento di tutti i casi), le mutazioni del gene BRCA1 conferiscono un rischio dell'85 per cento di contrarre il tumore nel corso della vita, nonchè un rischio del 45 per cento di cancro delle ovaie. È del 1996 l'annuncio di alcune società di biotecnologie, quale la Myriad Genetics, con sede a Salt Lake City, di rendere disponibile il test per BRCA1 per tutte le donne a cui sia stato diagnosticato un tumore alla mammella o delle ovaie e per le loro parenti strette. Ma qual è il ruolo, a livello molecolare, di BRCA1 nella insorgenza di questi tumori maligni? La recente identificazione di un secondo gene coinvolto nel cancro della mammella, BRCA2, complica ulteriormente le cose. Appare evidente che la diffusione di tali test in maniera indiscriminata potrebbe portare ad interventi terapeutici senza un preciso razionale. In ultimo, ma non meno importante, va considerato il potenziale rischio discriminativo in ambito lavorativo, assicurativo, sociale nei confronti di individui "a rischio", in un momento più o meno definito della propria vita, di malattie croniche e debilitanti, come l'aterosclerosi o il cancro.


Nuove biotecnologie

Lo studio e la classificazione di tutte le proteine presenti nelle cellule permetterà un giorno di complementare le informazioni ottenute dal sequenziamento del genoma e di poter finalmente definire quelle che sono le precise funzioni dei prodotti genomici. Il termine "proteoma" si riferisce a quel particolare insieme di proteine espresse in una data cellula in un determinato momento della sua vita e fu ideato dal ricercatore australiano Mark Wilkins nel 1994. La composizione del proteoma può essere indagata mediante tecniche di biochimica quali l'elettroforesi a due dimensioni e la spettrometria di massa. Oggi, le informazioni sulla espressione delle proteine in vari tessuti e in determinati intervalli temporali vanno a combinarsi con quelle derivanti dalla biocristallografia, un metodo di indagine che esplora la struttura tridimensionale delle proteine stesse. Una volta ottenuti i dati che costituiscono una vera e propria 'carta d'identità' delle proteine, si può pensare a quella che è stata definita ingegneria delle proteine, ovvero alla possibilità di cambiare la sequenza delle proteine in modo da variarne le proprietà funzionali. L'approccio sperimentale può essere diversificato a seconda delle esigenze. Un modo molto semplice è quello di cambiare un aminoacido in un altro, mediante tecniche di mutagenesi mirata nel gene codificante, e verificare le conseguenze della mutazione nell'attività funzionale della nuova proteina. L'utilizzo di questa metodica è limitato però a quei casi in cui siano disponibili dati esaustivi sulla proteina di interesse e dei suoi rapporti struttura/funzione. Quando queste informazioni mancano, si può considerare un approccio denominato evoluzionistico in quanto il ricercatore ricalca il modus operandi dell'evoluzione. In questo ambito, si fa uso di una variante della PCR che prende il nome di "PCR soggetta ad errore", per mezzo della quale si introducono 1 o al massimo 2 mutazioni puntiformi (ovvero a livello di singolo nucleotide) in modo da ottenere la sostituzione di 1 aminoacido per proteina mutante. La strategia sta nel produrre molte migliaia di tali geni mutati (una cosidetta libreria), di esprimerli in cellule batteriche ospiti ed infine identificare le proteine mutanti con caratteristiche più vicine a quelle desiderate. Il DNA corripondente alla proteina "migliore" viene quindi sottoposto a cicli di mutagenesi/selezione finchè non verranno ottenuti ulteriori miglioramenti significativi. L'approccio dell'evoluzione in vitro viene applicato oggi con crescente successo nell'industria farmaceutica e in procedimenti industriali che fanno sempre più uso di enzimi, ovvero le proteine con funzioni catalizzatrici. Infatti i catalizzatori dovrebbero soddisfare numerose caratteristiche quali la resistenza ad alte temperature, l'attività in solventi diversi dall'acqua, e la tolleranza a pH lontani dalla neutralità. L'evoluzione guidata degli enzimi in provetta sarà forse la risposta a tutte queste esigenze.

Per parlare della più recente piattaforma biotecnologica dobbiamo tornare al DNA. La sequenza completa dei 100.000 geni che verranno identificati nel corso del Progetto Genoma Umano non permetterà di sapere come le cellule appartenenti ai vari tessuti esprimano solo e solamente un singolo set di geni, i quali così definiscono il fenotipo cellulare. Tale espressione è alla base del differenziamento cellulare e della specializzazione cellulare durante l'embriogenesi. Le metodiche messe a punto (librerie sottrattive, differential display) si erano dimostrate molto laboriose, poco efficienti e comunque non idonee ad essere automatizzate. Nel 1991 Stephen Fodor, allora ricercatore della Affymax, pubblicava su Science un articolo in cui descriveva una tecnica di analisi comparativa simultanea dell'espressione di migliaia di geni in tipi cellulari diversi. Questa piattaforma prese il nome di GeneChip in quanto era il prodotto dell'incontro fra la tecnologia dei semiconduttori e quella della sintesi chimica degli oligonucleotidi. Il sistema è composto da un supporto di vetro suddiviso in molteplici aree contenenti ciascuna 107 oligonucleotidi identici (lunghi 20 basi azotate) che costituiscono la sonda per l'identificazione di un determinato gene. Se si tien conto che GeneChip può contenere fino a 65.356 oligonucleotidi diversi e che oggi sono disponibili chip che presentano oligonucletidi sonda per circa 40.000 dei geni umani, si comprende come le potenzialità di questa tecnica siano enormi. Con gli oligonucleotidi presenti sul chip si fa poi reagire l'RNA messaggero estratto dalle cellule, ovvero lo specchio di tutti i geni attivi. L'applicazione più banale del GeneChip appare quindi l'analisi dei geni espressi da due cellule appartenenti a tessuti diversi. Uno degli scopi finali sarà comunque cercare la correlazione tra cambiamenti dell'espressione genica e specifici cambiamenti nella fisiologia, sia in condizioni normali che patologiche. I GeneChip saranno di enorme ausilio nella diagnosi di malattie conseguenti a particolari mutazioni nel gene implicato. Recentemente alcuni ricercatori della Nanogen, una società di San Diego in California, hanno ideato un microchip per rilevare delle variazioni genetiche chiamate single nucleotide polimorphism a carico della proteina che lega il mannosio, il cui deficit comporta un difetto nell'immunità naturale. Gli studi che useranno i GeneChip potranno anche fornire bersagli per nuovi farmaci. Infatti un gene espresso a livelli molto alti in un tessuto malato rispetto al tessuto sano di riferimento potrebbe rappresentare il bersaglio di nuove molecole.


Terapia genica

Fra le tante possibilità aperte dalla biologia molecolare e dall'ingegneria genetica, appariva di grande attrattiva quella di inserire geni estranei nell'organismo umano e di farli funzionare. Il passo successivo, quello di inserire il gene "sano" in una cellula "malata" e dimostrare che la cellula recuperava quelle funzioni alterate dalla mutazione del gene, è stato breve. Per essere il più possibile vicini alla realtà patologica dell'uomo, questi esperimenti sono stati ripetuti e convalidati in modelli transgenici della malattia in esame. La parte concettuale della rivoluzione della terapia genica è stata quindi compiuta: ogniqualvolta viene scoperto un nuovo gene, ci si chiede se possa essere usato per curare qualche malattia, anche nel caso in cui siano disponibili approcci più tradizionali. È rimasta inevasa, la domanda che è lecito porsi: è capace la terapia genica di curare una malattia? Fino ad ora, e cioè a circa un decennio dall'inizio delle sperimentazioni controllate nell'uomo, non si è riusciti a migliorare in modo sostanziale le condizioni di salute di alcuno degli oltre 2000 pazienti che si sono sottoposti volontariamente a tali protocolli. Ma esistono delle eccezioni. Vediamo punto per punto quali sono le principali tappe del miglioramento della terapia genica.

La sfida più importante, come si legge in una valutazione delle ricerche sulla terapia genica commissionata nel 1995 al National Institutes of Health (NIH) statunitense, è rappresentata dal perfezionamento dei metodi per inserire geni nelle cellule. Spesso i geni introdotti nei pazienti non raggiungono un numero sufficiente di cellule bersaglio oppure funzionano in modo insoddisfacente o addirittura si inattivano. In queste condizioni, un gene potenzialmente utile ha scarse possibilità di interferire con un processo patologico in atto. Quindi il primo limite verso una efficace terapia genica è quello tecnologico che comunque è strettamente correlato a quello biologico. Gli scienziati sono oggi concentrati essenzialmente su due problematiche: come far arrivare più copie dello stesso gene in una cellula e come farle funzionare in modo da poter controllare la malattia.

I primi tentativi di applicare le conoscenze del funzionamento dei geni sono stati fatti in malattie monogeniche, cioè la cui patologia deriva dalle mutazioni a carico di un unico gene. Tra le malattie genetiche di questo tipo finora studiate vi sono la fibrosi cistica (che colpisce soprattutto i polmoni), la distrofia muscolare, la carenza di adenosinadeaminasi (che indebolisce il sistema immunitario) e l'ipercolestorelemia familiare (che porta ad una grave forma di aterosclerosi precoce). Fra queste, fu il deficit di adenosinadeaminasi, o ADA (un enzima che elimina i prodotti di degradazione del DNA all'interno delle cellule), ad essere il banco di prova della terapia genica. Tale carenza è una SCID (severe combined immunedeficiency) che si trasmette in maniera autosomica recessiva e colpisce soprattutto i linfociti T e B, i quali risultano inattivati dall'accumulo di adenosina. Prima dell'avvento della terapia genica, questa malattia veniva curata mediante trapianto di midollo da un donatore compatibile oppure con una terapia enzimatica a base di ADA bovino, stabilizzato da una sostanza chiamata PEG. Fu il gruppo di French Anderson, agli NIH di Bethesda in Maryland, che nel 1990 trattò le cellule staminali di una bimba affetta da SCID/ADA con un vettore retrovirale contenente il gene per l'ADA e le reiniettò nella paziente. Il successo fu parziale poichè le cellule del midollo trattate da French Anderson, essendo quasi tutte in fase di quiescenza, mal rispondevano all'infezione con il retrovirus utilizzato. Nel 1991 fu comunque approvato il trattamento delle cellule staminali con un cocktail di interleuchine (sostanze che stimolano la proliferazione delle popolazioni cellulari circolanti nel sangue), grazie al quale si riuscì a indurre la replicazione delle cellule staminali senza provocarne però il differenziamento precoce. Nel 1993 la terapia per la SCID/ADA fu provata su tre bambini e grazie a questo pre-trattamento il vettore retrovirale dimostrò finalmente di esercitare un effetto duraturo, inserendosi in cellule totipotenti e replicandosi assieme ad esse nella progenie.

Il nostro gruppo al San Raffaele di Milano ha trattato il primo paziente in Europa con terapia genica. A tre anni dall'inizio del protocollo, i pazienti trattati mostravano nel loro sangue linfociti T e B che possedevano il gene ADA nonchè esibivano una normalizzazione del repertorio immune (ovvero tutte le varie classi di linfociti T e B) con un recupero dell'immunità cellulare ed umorale. Benchè questi trials abbiano prodotto importanti indicazioni sul potenziale della terapia genica nel trattamento delle immunodeficienze congenite, il loro pieno impatto rimane difficile da valutare a causa delle infusioni simultanee di ADA nei pazienti. In tale contesto, il contributo relativo della terapia genica rispetto all'infusione dell'enzima nei confronti del miglioramento del paziente rimane ancora da valutare finchè la terapia sostitutiva enzimatica non verrà sospesa.

Mentre il bersaglio genico delle malattie mendeliane è singolo, lo stesso non è vero per altre malattie come il cancro. Come è stato definito negli ultimi anni, questa patologia non è ereditaria, ma deriva dall'accumulo post-natale di danni genetici. Nondimeno, il cancro è sicuramente una delle malattie del secolo che beneficierà della terapia genica. Di fatto, oltre la metà delle sperimentazioni cliniche di terapia genica oggi in corso riguarda il cancro.

Il primo approccio al trattamento del cancro mediante il trasferimento genico fu essenzialmente un esperimento di gene marking. Si sapeva già che isolando i cosidetti TIL (tumor-infiltrating lymphocytes), e cioè linfociti presenti nella massa di un melanoma, trattandoli con interleuchina-2 e reinserendoli nel melanoma si otteneva una sostanziale regressione del tumore in alcuni pazienti. Nel 1990 Steven Rosenberg, allora al National Cancer Institute di Bethesda, transdusse i TIL con un gene-bandiera, il quale induce resistenza alla neomicina, li reinfuse nei pazienti affetti da melanoma e misurò la loro presenza nel sangue e nella massa tumorale anche per parecchi mesi. Siccome Rosenberg non rilevò alcun effetto tossico, anzi una regressione notevole del melanoma in due pazienti sui cinque trattati, egli si spinse a pensare che questo studio sarebbe stato presto seguito da altri in cui i TIL sarebbero stati ingegnerizzati con geni terapeutici, quali il tumor necrosis factor o l'interferone-alfa. Oggigiorno questa è una realtà incontrovertibile e i protocolli clinici basati sull'immunoterapia e approvati dal governo federale statunitense sono più di cinquanta.

Il cancro è una malattia complessa, con una storia naturale che include vari passaggi. Le mutazioni si accumulano nella stessa cellula e la rendono incapace di controllare la propria crescita. Le mutazioni possono attivare i cosidetti oncogèni, che promuovono la crescita incontrollata delle cellule, oppure disattivare i geni oncosoppressori, alcuni dei quali, come p53, sono preposti a determinare la morte cellulare programmata (l'apoptosi) in determinati momenti del ciclo cellulare. Una volta che il tumore si è formato, esso riesce a crescere grazie all'apporto di nuovi vasi sanguigni, elude il riconoscimento e la distruzione da parte del sistema immunitario, e si diffonde in siti lontani da quello della sua insorgenza dove produce i suoi cloni (metastasi) che possono o meno ripetere le caratteristiche del tumore primario.

In base a quello che abbiamo appena descritto, varie strategie di terapia genica sono state approntate. Una di queste è lo spegnimento degli oncogèni mediante le cosiddette strategie antisenso. Il principo su cui esse si basano è il riconoscimento reciproco fra l'RNA messaggero aberrante prodotto dall'oncogène e un mRNA antisenso, cioè un filamento speculare del primo e quindi in grado di appaiarsi ad esso impedendone la traduzione in proteina. Questo approccio è stato provato con successo sui due geni responsabili della trasformazione neoplastica da parte del virus del papilloma, il quale induce cancro alla cervice uterina. In altri casi, ai fini dello spegnimento di geni aberranti, sono state utilizzate delle particolari molecole di RNA chiamate ribozimi. Questi ultimi assumono una struttura tridimensionale per cui sono in grado di riconoscere un RNA aberrante, prodotto da un oncogene, e di degradarlo.

Uno dei geni oncosoppressori più comunemente mutato nel cancro umano è p53, il quale, se il DNA è danneggiato, può arrestare la divisione cellulare affinchè il danno venga riparato oppure può indurre apoptosi. Esperimenti preliminari negli animali hanno dimostrato significativi miglioramenti quando il gene p53 è stato introdotto sia nel flusso sanguigno che direttamente nei tumori. Un trial clinico iniziale ha fatto registrare la regressione di alcuni tumori in siti localizzati.

L'approccio di terapia genica mediante l'attivazione di geni oncosoppressori o l'inattivazione di oncogèni ha comunque una forte limitazione: il gene correttivo deve essere veicolato in ogni cellula tumorale; in caso contrario le cellule a cui esso non ha avuto accesso continueranno a proliferare in modo incontrollato.

Alla stregua di una terapia con oncosoppressori sta quella basata sull'uso di geni suicidi, cioè particolari sequenze geniche in grado di sensibilizzare una cellula verso farmaci tossici: tale tipo di trattamento ha avuto buone possibilità di successo con i tumori del cervello. Poichè i neuroni sono cellule che non si replicano ed i retrovirus trasducono solo cellule in attiva replicazione e quindi anche quelle tumorali, si è pensato ad un protocollo clinico in vivo per i tumori cerebrali. L'introduzione selettiva di un gene chiamato HSV-TK (timidin-kinasi dell'herpesvirus simplex) in cellule tumorali cerebrali le rende quindi sensibili all'azione citocida del pro-farmaco, il ganciclovir, il quale viene per l'appunto convertito in farmaco attivo proprio dal gene TK. Questo permette l'uccisione mirata solo delle cellule neoplastiche che hanno integrato il transgene, risparmiando le cellule nervose quiescenti non tumorali.

Un altro esempio di terapia con geni suicidi è rappresentato dal trapianto di midollo osseo da donatore allogenico (allo-BMT), che oggi costituisce il trattamento di scelta per alcuni tipi di tumore del sistema ematopoietico (soprattutto leucemie). L'impatto terapeutico dell'allo-BMT è limitato dal rischio di insorgenza di una grave complicanza, la cosidetta graft-versus-host-disease (GvHD), dovuta verosimilmente alla presenza di linfociti T effettori nel midollo trapiantato. Attualmente il midollo da infondere viene depleto della popolazione T linfocitaria. Alla ricomparsa della leucemia, si infondono anche i linfociti e a questo punto può comparire la GvDH. Il nostro gruppo al San Raffaele ha allora disegnato una strategia secondo la quale i linfociti T da iniettare vengono ingegnerizzati in vitro con un vettore retrovirale che porta il gene HSV-TK. Degli otto pazienti trattati in questa maniera, tre di essi hanno sviluppato una GvHD, che è stata controllata mediante somministrazione di gangiclovir. Tuttavia alcuni pazienti hanno dimostrato una resistenza al trattamento con gangiclovir. Sono in corso degli studi per poter comprendere i motivi di tale refrattarietà, al fine di poter individuare altri geni suicidi.

Nella storia naturale del cancro sta acquisendo sempre più importanza la vascolarizzazione stessa della massa tumorale. L'angiogenesi tumorale balzò prepotentemente alle cronache nel Maggio 1988 quando il New York Times riportò con grande enfasi i risultati del Prof. Judah Folkman del Children Hospital di Boston. Prima di arrivare ad una determinata dimensione, il tumore non è vascolarizzato e si definisce 'dormiente'. In seguito, vengono prodotti degli specifici fattori di crescita per le cellule endoteliali dei vasi contigui al tumore e queste cellule, creando nuovi vasi, infiltrano la massa e la nutrono. Inoltre, è solo dopo la creazione dei vasi sanguigni tumorali che può iniziare il processo di diffusione a distanza, ovvero la formazione di metastasi. È del 1994 l'idea di Folkman di bloccare la crescita tumorale inibendo la neo-angiogenesi tumorale. Egli riuscì ad identificare degli inibitori naturali (angiostatina ed endostatina) prodotti dallo stesso tumore. Nonostante ad oggi ancora non si conosca la precisa funzione di tali inibitori nella vita naturale del tumore, è certo che Folkman ed altri ricercatori hanno pensato di usarli nella lotta senza quartiere contro il cancro. E poichè si sono riscontrate delle difficoltà nell'ottenere inibitori purificati che conservino le loro proprietà biologiche, si è pensato di farli produrre mediante la terapia genica. Blezinger e colleghi della GeneMedicine, una società con sede nel Texas, hanno introdotto il gene codificante per l'endostatina nel muscolo di topo, il quale ha cominciato a produrre quantità sufficienti dell'inibitore nel sangue per bloccare la crescita di tumori presenti in sedi lontane dal sito d'iniezione del gene. Attualmente sono almeno una trentina le sostanze naturali e sintetiche inibenti l'angiogenesi in sperimentazione nell'uomo, e fra queste l'angiostatina (dalla Entremed di Rockville nel Maryland). Un inibitore della crescita delle cellule endoteliali ha meno probabilità di indurre resistenza rispetto ai chemioterapici attivi sulle cellule tumorali. Mentre infatti queste ultime vanno incontro a rearrangiamenti genici che possono determinare chemioresistenza, la componente endoteliale non è tumorale e quindi non è soggetta a mutare. Ecco spiegata la speranza riposta e la notevole attenzione accordata alla terapia con inibitori della neo-angiogenesi.

Vogliamo finire questo paragrafo parlando del futuro della terapia genica. I vettori genici attualmente in uso possono introdurre il gene all'interno del corredo cromosomico ma in maniera randomizzata (retrovirus e virus adeno-associati) oppure introdurlo nel nucleo senza permettere l'integrazione con il corredo cromosomico (virus adenovirali e sistemi non-virali sintetici). Nel primo caso, il gene, inserendosi casualmente, potrebbe attivare un oncogène oppure disattivare un gene oncosoppressore. Nel secondo, il limite principale appare la mancanza di permanenza del gene terapeutico, perso in seguito alle divisioni cellulari. Inoltre, uno dei maggiori problemi associati a questo tipo di terapia genica, sarebbe dovuto al fatto che il gene terapeutico non è mai attorniato da quelle sequenze regolatrici che sono fondamentali alla funzione del gene stesso e che possono giacere anche a molte kilobasi (migliaia di paia di basi) di distanza da quella parte del gene che darà origine alla proteina. La soluzione a questi problemi sarebbe creare un vettore 'ideale' costituito dalla sequenza genomica in cui è presente il gene d'interesse (lunga anche parecchie kilobasi) e da quelle sequenze nucleotidiche che rassomigliano a quelle presenti sui cromosomi naturali. Esse vengono definite centromeri, telomeri ed origini di replicazioni e permettono ai cromosomi di svolgere le loro funzioni di integrità e propagazione dell'informazione genica. Nel 1997 H.F. Willard e collaboratori, dell'Università di Cleveland nell'Ohio, pubblicarono i risultati riguardanti la possibilità di creare un minicromosoma artificiale assemblando le varie componenti sopra descritte. Willard riuscì anche a dimostrare che il minicromosoma si ritrovava nelle generazioni cellulari successive fino a 6 mesi dalla sua introduzione, indicando che la sua strategia era vincente per quanto riguardava la segregazione ed il mantenimento del cromosoma artificiale. Ovvero, esso si comportava come un cromosoma naturale. Questa tecnologia è oggi ancora molto giovane per poterne predire l'uso a livello umano, ma sicuramente avrà un futuro nelle varie piattaforme biotecnologiche che abbiamo descritto fin qui.


Conclusioni

La biologia molecolare ha generato negli ultimi venticinque anni una conoscenza approfondita del mondo che ci circonda a livello molecolare; non solo, ha permesso ai ricercatori di intervenire sul patrimonio genetico anche dell'uomo per fini terapeutici. D'altra parte, i successi ottenuti rivelano che devono essere affrontati ancora molti problemi tecnologici, biologici e, non ultimi, etici. La società massificata e totalitaria in cui l'uomo nasce grazie a manipolazioni genetiche, come descritta da Aldous Huxley ne "Il mondo nuovo", è lontana; ma sarebbe bello anche sperare che un giorno un cane non pensi ed agisca alla stregua di un uomo (in seguito al trapianto di una ipofisi umana!) come ipotizzato in "Cuore di cane" di Michail Bulgakov.


Fonti ed ulteriori letture

Per le tecnologie che fanno uso del DNA ricombinante si veda:

Boncinelli e A. Simeone, Principi di ingegneria genetica, Ed. Momento Medico, 1984.
B. Lewin, Il gene, Zanichelli, 1985.
Per le biotecnologie:

C. Serra, Le biotecnologie, Editori Riuniti, 1998.
AA.VV., Biotecnologie, Le Scienze Quaderni, n. 106, Le Scienze, 1999.
T. Edmunds et al., Transgenically produced human antithrombin: Structural and functional comparison to human plasma-derived antithrombin. Blood, vol. 91: pp 4561-4571, 1998.
B. Jost et al., Production of low-lactose milk by ectopic expression of intestinal lactase in the mouse mammary gland. Nature Biotechnology, vol. 17: pp 160-164, 1999.
P.N. Gilles et al. Single nucleotide polymorphic discrimination by an electronic dot blot assay on semiconductor microchips. Nature Biotechnology, vol. 17: 365-370, 1999.
Per il Progetto Genoma Umano:

AA.VV., Il Progetto Genoma, Le Scienze Quaderni, n. 100/D, Le Scienze, 1998.
I. Dunham et al., The DNA sequence of human chromosome 22. Nature, vol. 402: pp 489-495, 1999.
Per i vari aspetti della terapia genica:

C. Bordignon et al., Gene therapy in peripheral blood lymphocytes and bone marrow for ADA-immunodeficient patients. Science, vol. 270: pp 470-475, 1995.
C. Bonini et al., HSV-TK gene transfer into donor lymphocytes for control of allogeneic graft-versus-leukemia. Science, vol. 276: pp 1719-1724, 1997.
A.L. Manson et al., Complementation of null CF mice with a human CFTR YAC transgene. The EMBO Journal, vol. 16: pp 4238-4249, 1997.
P. Blezinger et al., Systemic inhibition of tumor growth and tumor metastasis by intramuscular administration of the endostatin gene. Nature Biotechnology, vol. 17: pp 343-348, 1999.
J.J. Harrington et al., Formation of de novo centromeres and construcion of first-generation human artificial chromosomes. Nature Genetics, vol. 15: pp 345-355, 1997.