eDott.it |
| ||||||||||||||||||||||||||||||||
INDICE GENERALE PILLOLE
APPROFONDIMENTI MEDICINA LEGALE E NORMATIVA
SANITARIA
Allergie di importazioni americana: l'ambrosiaRecenti studi epidemiologici evidenziano che, circa il 30% della popolazione italiana è affetta da patologie ai tipo allergico; le manifestazioni cliniche più frequenti sono quelle di tipo respiratorio (rinite, asma), la congiuntivite, la dermatite. Le allergie respiratorie di maggior frequenza
sono quelle classiche agli acari della polvere (35%) o ai pollini (35%).
Tuttavia è comparsa da alcuni anni,
prevalentemente nelle regioni del nord-ovest e nella zona di Trieste,
l'allergia all'ambrosia. I dati forniti dal monitoraggio dei pollini
nelle varie stazioni italiane, presenta all'incirca un andamento parallelo
tra la concentrazione di queste nell'atmosfera e la frequenza delle
manifestazioni allergiche clinicamente riscontrate. Nella zona a sud-est di Milano, gli allergici a questo polline sono il 15-17% del totale degli allergici. Caratteristica particolare dell'ambrosia è quella di essere una pianta fortemente allergizzante: uno studio effettuato su studenti stranieri provenienti da zone dove non esiste l'ambrosia e ospitati nel Michigan, dove invece l'ambrosia è una pianta comune, ha rilevato che una percentuale variabile tra il 70% e il 100% dei soggetti predisposti all'allergia, venivano sensibilizzati al contatto con il polline dell'ambrosia. La diffusione dell'ambrosia in Italia appare in lenta ma costante crescita, difficilmente contrastata dalla comuni metodiche, in quanto si tratta di una pianta piuttosto forte e infestante. Saranno necessari degli interventi mirati. ("Aria, ambiente e salute" anno IV n. 3 - Settembre 2001) Torna alle PilloleTorna all'inizio Una nuova terapia per l'astenia nei pazienti affetti da sclerosi multiplaPer la prima volta i ricercatori hanno annunciato una terapia efficace nell'astenia che spesso accompagna il corteo sintomatologico della sclerosi multipla. Sono state sviluppate molte terapie per trattare i sintomi della sclerosi multipla, ma poche sono state in grado di produrre un qualche sollievo sull'eccessiva e debilitante astenia che accompagna gli altri sintomi della malattia. Lo studio pubblicato sul Journal of Neurology, Neurosurgery and Psychiatry è opera del dr K.W. Rammohan neurologo presso The Ohio State University Medical Center. I ricercatori hanno osservato che il Modafinil, correntemente usato contro la narcolessia, può essere efficace nel ridurre l'astenia. Due dosaggi di modafinil ( 200 mg e 400 mg ) furono comparati con placebo in 72 pazienti affetti da Sclerosi Multipla di età compresa tra 18 e 65 anni. Già 200 mg di modafinil hanno dato incoraggianti successi. L'astenia è stata valutata con 3 scale diverse di valutazione e con tutte e 3 le metodiche sono stati ottenuti risultati concordanti. Nessun farmaco precedentemente aveva mostrato una simile risposta terapeutica nei trial clinici. www.osu.edu/units/research (18.01.02) Torna alle
Pillole In Germania preoccupazioni dei medici per l'adozione dei DRG nel sistema di rimborso degli ospedaliI leader dei medici tedeschi hanno duramente criticato la proposta del governo di introdurre un sistema di rimborso a DRG per finanziare le cure ospedaliere. Il progetto di legge è stato approvato dal Bundestag a dicembre ed attende il suo ultimo passaggio al Bundesrat a febbraio 2002.Con il nuovo sistema,basato su un modello australiano, il governo spera di avere la possibilità di correlare l'uso delle risorse economiche alle entità cliniche e si augura di poter confrontare ospedali e regioni. La misura rientra nel piano di riforma del sistema sanitario e nel tentativo di razionalizzazione e contenimento della spesa sanitaria. Altri provvedimenti che prevedono l'obbligo dei medici di prescrivere farmaci generici e limitazioni agli onorari dei medici sono ancora oggetto di dibattito. Dal 01.01.03 gli ospedali potranno aderire al sistema dei DRG volontariamente. Nell'anno successivo sarà obbligatorio aderire alla raccolta dei dati per tutti gli ospedali eccetto quelli psichiatrici. Il budget ospedaliero avrà un incremento di 100 milioni di € nel 2003 e nel 2004 e gli ospedali saranno interamente finanziati con il nuovo sistema dal 2007. Molte le preoccupazione espresse dai maggiori rappresentati dei medici: dalla paura di un perverso meccanismo di competizione tra ospedali, al timore che i criteri economici prevalgano sulla qualità delle cure. The Lancet Vol.359 January 26, 2002 Torna alle
Pillole I misteri del medulloblastoma svelati dai genetistiNuove ricerche indicano che la prognosi del medulloblastoma può essere predetta dal pattern di espressione genica.Gli effetti collaterali dei trattamenti correntemente in uso per il medulloblastoma includono gravi problemi cerebrali e, soprattutto nei pazienti in età pediatrica sarebbe auspicabile usare le terapie più razionali possibili.I dati degli ultimi studi indicano che è possibile predire la prognosi di un medullobalstoma con sufficiente sicurezza statistica analizzandone l'espressione genica. Il medullobalstoma, il più comune tumore maligno cerebrale dell'infanzia, è di fatto un gruppo eterogeneo e poco conosciuto di tumori embrionali del cervello. Separare un tipo di tumore da un altro è uno dei problemi fondamentali dell'oncologia ed è particolarmente difficile per tumori cerebrali come il medulloblastoma dove i vari tipi sono molto simili..Il dr Golub e i suoi collaboratori esaminando 6817 geni in 60 medullobalstomi e paragonandoli con i geni del tessuto normale e di altri tumori cerebrali hanno notato di essere capaci di differenziare i medulloblastomi con prognosi peggiore da quelli con prognosi migliore. La tecnica usata ha la capacità di stratificare i pazienti in gruppi di rischio e quindi permette di ottimizzare la terapia. Tuttavia trasferire la tecnica di laboratorio alla pratica clinica presenta ancora difficoltà. Bisognerà attendere lo sviluppo di metodiche immunoistochimiche standard capaci di sostituire il metodo genomico usato nella ricerca per una applicazione clinica pratica. The Lancet Vol 359.January 26, 2002 Torna alle PilloleTorna all'inizio Malattia di Meniere: gentamicina intratimpanica aiuta a controllare le vertiginiL'uso di gentamicina intratimpanica può essere di aiuto in pazienti selezionati affetti da malattia di Meniere con vertigini persistenti dopo trattamento chirurgico. Questo trattamento può ridurre la necessità di intervento di neurectomia vestibolare in pazienti con malattia di Meniere refrattaria all'intervento chirurgico sul sacco endolinfatico. Questi sono i risultati di uno studio retrospettivo condotto presso la Loyola University di Chicago. Su 68 pazienti con malattia di Meniere, 4 presentarono vertigini ricorrenti dopo intervento chirurgico di asportazione del sacco endolinfatico. A questi pazienti furono praticate una serie di iniezioni intratimpaniche di gentamicina. La terapia con gentamicina ebbe successo in tre su quattro dei pazienti trattati ed un paziente fu sottoposto a neurectomia vestibolare ed in nessuno dei pazienti peggiorò la perdita di udito. Otolaryngology-Head & Neck Surgery 2002 Vol 126 No 1 pp 31-33 Torna alle
Pillole Il medico esperto cura meglio l'infartoÈ ben noto come, in diverse realtà sociali, il paziente affetto da infarto del miocardio possa subire trattamenti diversi come impostazione e come intensità. Non è chiaro se esista una effettiva differenza prognostica legata alla diversa esperienza degli operatori che abbiano in carico i soggetti infartuati. Per chiarire questo aspetto alcuni ricercatori canadesi hanno effettuato uno studio retrospettivo su tutti i casi di infarto del miocardio che erano stati trattati nello stato dell'Ontario negli anni dal 1992-1998. I medici coinvolti nello studio erano oltre 5000. Sono stati esaminati diversi indici statistici che hanno evidenziato come la mortalità globale a 30 giorni dall'evento cardiovascolare, fosse pari al 13,5%. Veniva evidenziata una forte correlazione inversa fra probabilità di decesso nella fase acuta e il numero medio di soggetti infartuati trattati annualmente dal singolo medico. In altre parole si evidenziava come i medici che abitualmente trattassero il maggior numero di pazienti infartuati, avessero un minor numero di decessi a 30 giorni. I dati apparivano statisticamente significativi: i professionisti che assistevano meno di 5 infarti l'anno presentavano una mortalità a 30 giorni del 24,2%; i pazienti che avevano un alto numero di infartuati (oltre 24 l'anno) avevano invece una mortalità del 19,6%. Veniva quindi confermata l'importanza della esperienza clinica nel raggiungimento dei migliori risultai ottimali. (Jama 2001;285:3116-22) Torna alle
Pillole Immunoterapia della psoriasi dalla casualità ad una maggiore selettivitàL'inizio del nuovo millennio ha visto un consistente numero di compagnie farmaceutiche impegnate a sviluppare terapie sistemiche per la psoriasi. Le compagnie farmaceutiche hanno concentrato la loro attenzione sulle T-cells e sulle citochine come possibili bersagli. Questo comportamento è la logica conseguenza
delle osservazioni già compiute in maniera casuale circa 20 anni fa.Prima
del 1980 molti dermatologici consideravano la psoriasi essenzialmente come
una malattia dovuta alla iperproliferazione dei cheratinociti e tutti i
suoi connotati infiammatori come fenomeni secondari. La scoperta casuale
avvenne con l'uso della ciclosporina,un agente immunosoppressore la cui
azione è relativamente specifica per i T linfociti. Durante gli studi
iniziali sull'uso della ciclosporina nel trattamento dell'artrite fu
osservato che i pazienti con psoriasi mostravano una rapida risoluzione
delle lesini cutanee. Recentemente sono stati pubblicati studi che riportano l'uso di trattamenti immunitari selettivi per la psoriasi. Questo nuovo approccio terapeutico può essere grossolanamente diviso in due grossi rami: da una parte l'uso di farmaci che inibiscono le T-Cell e dall'altra i modulatori delle citochine. C'è un certo parallelismo tra queste strategie terapeutiche e quelle già in uso per l'artrite reumatoide e il morbo di Crohn. Pur non essendo ancora stato identificato alcun autoantigene nella psoriasi esistono abbastanza evidenze per considerare la malattia come un processo autoimmune, sfortunatamente la mancanza di un modello animale per la psoriasi riduce la possibilità di testare rapidamente l'eventuale efficacia delle nuove terapie. Due delle nuove terapie immunologiche della psoriasi si basano sull'inibizione dei T linfociti per mezzo di anticorpi contro i recettori CD25 dei T linfociti e sull'inibizione delle molecole "costimolanti " che mediano il legame tra T linfociti e "antigen presenting -cells ". Gli anticorpi usati includono un anticorpo monoclonale umanizzato ( hu1124;efaluzimab) diretto contro il CD11a, un componente dell'antigene1 associato alla funzione linfocitaria (LFA-1).Kim Papp e colleghi trattando con efaluzimab per via endovenosa una volta a settimana per 8 settimane 75 casi hanno riportato un 25% di successi nelle forme moderate e severe di psoriasi senza effetti collaterali e senza riduzione del numero dei linfociti circolanti nel breve periodo. L'altra nuova terapia è esemplificata dall'alefacept. L'alefacept,una proteina di fusione di IgG1 e LFA-3, inibisce l'attivazione dei T linfociti bloccando il legame del LFA-3 con il recettore CD2 e riduce il numero delle cellule effettrici della memoria CD45RO+T cells inducendo apoptosi mediata dai linfociti NK. Charles Ellis et al. Hanno rilevato una percentuale di remissione pari al 35% dei casi trattati nei pazienti con psoriasi severa e moderata e una percentuale di miglioramenti clinici valutabile intorno al 75%, somministrando alefacept per via endovenosa una volta a settimana per 12 settimane.L'alefacept sembra essere sicuro nel breve periodo. L'altra strategia terapeutica consiste nella modulazione delle citochine, sia in via diretta bloccando le citochine infiammatorie come il TNF-alfa, sia in maniera indiretta modificano il profilo delle citochine all'interno della placca psoriasica. L'Etanercept è anch'esso efficace per il trattamento della psoriasi ma forse meno dell'Infliximab Altre anticitochine attualmente in studio sono l'anti- interleuchina 8 e l'anti- interferone gamma. La Psoriasi viene classificata come una malattia Th-1 citochine mediata perché la placca psoriasica contiene prevalentemente Th-1 citochine come interferone gamma, interleuchina - 2, interleuchina -12.Riportare il rapporto Th1: Th2 il più vicino possibile ad 1 all'interno della placca psoriasica mediante la somministrazione di citochine Th2 è una tattica razionale ed efficace. Ma perché è necessario trattare una malattia della pelle che non è pericolosa per la vita per via sistemica invece che con unguenti e pomate? Solo recentemente c'è stata una presa di coscienza del grande impatto di questa malattia sulla qualità della vita sociale e psichica dei pazienti. Una recente inchiesta del National Psoriasis Foudation ha evidenziato una necessità sconosciuta, soltanto il 26% dei pazienti è soddisfatto delle attuali terapie; un altro studio condotto a Manchester ha rivelato che il 44% dei pazienti preferisce una terapia sistemica all'uso biquotidiano di creme e ungenti poco accettati. Beneficio clinico a parte, le nuove biotecnologie hanno permesso grandi conoscenze per quanto riguarda il meccanismo etiopatologico e biologico della psoriasi. Forse la psoriasi racchiude varianti clinicamente molto simili ma genotipicamente diverse che potrebbero essere distinte in base alla risposta alle nuove terapie immunologicamente selettive. The Lancet vol 359 januay 26,2002 Torna alle
Pillole Le benzodiazepine aumentano il rischio di cadute negli anzianiUn recente studio americano ha confermato l'esistenza di una effettiva associazione tra benzodiazepine e caduta con frattura dell'anca nell'anziano. I ricercatori hanno evidenziato una differenza tra farmaci ad azione rapida e benzodiazepine ad azione lenta. I farmaci ad azione rapida sono risultati essere molto più pericolosi rispetto ai secondi. È stato osservato come tutti i dosaggi di benzodiazepine uguali o superiori ai 3 mg/die aumentino il rischio di frattura dell'anca di circa il 50%. Questo incremento si riscontra durante le due settimane iniziali di trattamento e dopo un mese di uso continuato, con una diminuzione transitoria tra le seconda e la quarta settimana di terapia. Per spiegare questa curva bimodale legata alla durata d'uso di questi farmaci gli autori hanno ipotizzato che dapprima prevalgano gli effetti negativi "acuti", che poi insorga rapidamente (dopo circa due settimane) una tolleranza degli effetti acuti; solo in un secondo tempo (4 o più settimane) sviluppa una serie di disturbi diversi, da "accumulo", consistenti soprattutto in deficit motori e cognitivi cronici tali da predisporre il paziente anziano alla caduta e a perdita di equilibrio. Queste differenze di incidenza sono evidentemente collegate ai due meccanismi suggeriti prima. (AM. Journal Psychiatry 2001;158:892-898) Torna alle
Pillole Nuova infezione virale da controllare in gravidanzaAlcuni ricercatori di Stoccolma,, hanno voluto analizzare i dati relativi alle morti intrauterine o alle interruzioni di gravidanza spontanee e volontarie, che sono avvenute a Stoccolma dal '98 al '99. I dati venivano raccolti in tre grandi ospedali di tale città, allo scopo di valutare se esistessero rischi di morte intrauterina oltre a quelli comunemente monitorati durante la gravidanza. Lo studio, comprendente l'esame del tessuto placentale e del tessuto fetale, rivelava in particolare come fosse assai frequente l'infezione da parvovirus B19. La differenza era statisticamente molto importante in quanto la presenza di questo virus veniva scoperta in quasi il 20% delle gravidanze non a termine, mentre risultava totalmente assente in un gruppo di controllo di gravidanze normali a termine. I ricercato hanno rilevato come appunto l'infezione da parvovirus B19, durante il secondo trimestre di gravidanza, comportasse un elevato rischio di morte intrauterina. Questo rischio era ulteriormente accresciuto qualora esistesse un' idrope fetale. I ricercatori propongono quindi di inserire nella routine di esami di monitoraggio della gravidanza anche la determinazione degli indici di infezione fetale da parvovirus B19. (Lancet 2001;357:1494-97) Torna alle
Pillole Nuove prospettive nel trattamento della Fibrillazione AtrialeI maggiori esperti in fibrillazione atriale si sono riuniti a Boston il 18-19 gennaio 2002 al Seventh International Atrial Fibrillation Symposium per discutere i progressi nel trattamento della FA. Una novità fondamentale è arrivata dal gruppo di ricercatori di Bordeaux che ha scoperto come il "trigger" della F.A. abbia inizio a livello delle vene polmonari e come la disconnessione segmentale o circolare di queste vene dalla giunzione atriale rappresenti una cura efficace per la F.A. Pierre Jais di Bordeaux ha descritto i risultati più recenti ottenuti in un gruppo di pazienti selezionati affetti da Fibrillazione Atriale Parossistica. In questi pazienti si è ottenuta una percentuale di successo pari al 90 % con l'isolamento delle vene polmonari mediante catetere anche se con trattamenti ripetuti. In accordo con quanto riportato da Jais i pazienti con FA cronica traggono minor beneficio da questa nuova tecnica essendo necessari sia una ablazione più estesa che l'inserimento di linee multiple di blocco. I trattamento chirurgico della F.A. attualmente è considerato solo in aggiunta alle procedure chirurgiche attuate per pazienti mitralici o coronaropatici. Nondimeno la grande esperienza accumulata con la tecnica di Maze ha fornito una enorme mole di informazioni per l'uso delle tecniche di ablazione. La tecnica di Maze fu disegnata per escludere ogni possibile macro circuito di rientro responsabile della F.A. Fino ad un passato recentissimo questa tecnica richiedeva una serie di vaste incisioni atriali, attualmente la tecnica criochirurgica si è rivelata altrettanto efficace e meno impegnativa. C'è ancora molto da discutere in merito ai nuovi farmaci (dofetilide, azimilide, e dronedarone ),e ai nuovi pace-maker con algoritmo capace di diagnosticare e trattare le aritmie atriali e alle tecniche di ablazione. A dispetto della mancanza di trials specifici gli esperti riuniti a convegno hanno raggiunto un "consensus" basato sul fatto che la possibilità di applicare gli attuali trattamenti in maniera mirata al singolo paziente possa notevolmente migliorare la qualità della vita del paziente stesso. Molti degli oratori intervenuti hanno, per esempio, affermato che l'isolamento delle vene polmonari è efficace e raccomandato in centri specializzati.È stato anche più volte sottolineato che trials prospettici sono auspicabili per definire lo spazio di questa tecnica chirurgica nella terapia di routine. Ovviamente il fattore limitante l'applicazione routinaria di questa tecnica sembra essere l'alto costo E la disponibilità di staff dedicati. The Lancet. Vol 359. February 2, 2002 Torna alle
Pillole L'Osteocalcina è correlata alla perdita di tessuto osseo e fratture nell'anziano02/05/2002 I livelli serici di osteocalcina totale e intatta sono collegati con la perdita di massa ossea e sono predittivi di frattura in uomini e donne anziani. Questa è la scoperta i di un follow-up di cinque anni che ha messo in correlazione l'osteocalcina sierica con la densità ossea al calcagno (BMD) in soggetti anziani. Obiettivo dello studio è stato quello di seguire le concentrazioni del siero per cinque anni di osteocaclcina totale ( tOC) e intatta (iOC) in relazione a alla densità minerale ossea(BMD) rilevata a livello calcaneare. I partecipanti allo studio sono stati reclutati in due coorti di 75enni - e 80enni residenti nella stessa città (Jyvaskyla) in Finlandia. I ricercatori hanno ottenuto i valori basali di OC e BMD per 161 uomini e 233 donne; 83 di questi uomini e 189 delle donne parteciparono al follow-up. Mentre la concentrazione media di tOC aumentò in uomini e donne, la concentrazione media dell'iOC decrebbe negli uomini e donne. In ambi sessi, tOC e livelli dell'iOC furono trovati correlati inversamente con BMD e con le variazioni di BMD. Nel follow-up a 5 anni 19 uomini e 59 donne subirono almeno una frattura. I soggetti con fratture avevano il valore di iOC significativamente più alto e tendenzialmente mostravano anche il valore di tOC più alto dei soggetti del gruppo privo di fratture. Questi risultati, secondo gli autori dello studio, indicano che i livelli sierici di tOC e iOC basali sono correlati con la perdita di massa ossea e le fratture nei soggetti anziani. Journal of Bone and Mineral Metabolism Vol: 20 Iss:1 (2002) pp 49-56 Torna alle
Pillole Proteina antiobesità "Acrp30"È stata identificata una proteina che sembra favorire la perdita di peso nei soggetti che si alimentino anche con una dieta ipercalorica ricca di grassi e zuccheri. Tale proteina chiamata "Acrp30" viene prodotta dalle cellule grasse, e diminuisce la sua espressione sia nei soggetti umani affetti da obesità, sia nei topi sperimentalmente obesi. Non è ancora definita chiaramente però la sua precisa funzione. È stato documentato che i topi iniettati con "Acrp30" e nutriti con una dieta ricca di grassi e di zuccheri, hanno perso il 35% del loro peso corporeo totale in dieci giorni, e oltre il 7% in 16 giorni. Questo dato confermerebbe il ruolo di questa proteina nel mantenimento del peso corporeo; è stato ipotizzato che, la sua attività sia legata all'aumentata capacità delle cellule muscolari di bruciare i grassi. È possibile perciò che ulteriori studi portino all'uso di questa proteina o di un suo derivato, nella regolazione del peso corporeo e potrebbero favorire per cui il controllo del peso senza bisogno di diete ipocaloriche. ("Proceedings off the National Accademy off Sciences" 2001;98:2005-2010) Torna alle
Pillole Eradicazione dell'Helicobacter Pylori: nuova quadruplice terapiaUn nuovo quadruplice regime terapeutico di breve durata sembra essere efficace, ben tollerato e valida alternativa alla triplice terapia standard contro l'H.P. Ricercatori tedeschi hanno studiato il nuovo protocollo terapeutico su 243 pazienti H.P. positivi.I pazienti sono stati assegnati in maniera randomizzata a seconda di età, sesso, abitudine al fumo e diagnosi ad uno dei seguenti tre regimi terapeutici: 5 giorni di trattamento con lansoprazolo e tre antibiotici, 5 giorni con tre antibiotici e ranetidina, e tre giorni di lansoprazolo e antibiotici con due giorni di pretrattamento con lansoprazolo. I tre antibiotici usati in tutti e tre i regimi furono: amoxicillina 1 gr b.i.d.; claritromicina 250 b.i.d.;metronidazolo 400 mg b.i.d.).Il lansoprazolo fu somministrato a 30 mg b.i.d. e la ranetidina a 300 mg b.i.d. 234 pazienti completarono lo studio. La eradicazione batterica fu raggiunta nell'86.4 percento.La percentuale di eradicazione non fu significativamente differente in nessuno dei tre gruppi di trattamento. L'analisi di regressione ha mostrato che l'insuccesso nella eradicazione era associato con: età inferiore di 55 anni, storia di ulcera peptica, fumo, resistenza al metronidazolo, basse concentrazioni sieriche di ranetidina. E citotossine associate al gene A negativo nell'ulcera peptica. Questa nuova quadruplice terapia è efficace, ben tollerato e " cost saving" secondo gli autori e potrebbe diventare il trattamento di scelta per i pazienti ultra cinquantacinquenni senza storia di ulcera peptica. Archives of Internal Medicine 2002;162 (2):153-160 Torna alle
Pillole Resistenza inaudita dell'allergene-uovoÈ stato riportato recentemente un caso molto peculiare di allergia alle proteine dell'uovo: una ragazza ventenne era stata ricoverata già in precedenza presso l' Ospedale per sindrome allergica a diverse sostanze, con positività ai test cutanei per graminacee, pelo di gatto e proteine dell'uovo. La paziente risultava particolarmente allergica all'uovo in quanto l'assunzione di soli 100 mg. di polvere d'uovo per bocca causava una diminuzione del 20% dei dati spirometrici rispetto a quelli basali, con evidenza di una netta broncocostrizione. La paziente osservò, dopo alcuni mesi dalla dimissione dall'Ospedale, la comparsa di una riacutizzazione e di un peggioramento dei propri disturbi. Questo peggioramento clinico veniva da lei attribuito alla respirazione di polvere prodotta dai lavori di ristrutturazione della Cattedrale di Valladolid, vicina alla propria abitazione. I ricercatori hanno perciò analizzato la polvere proveniente dagli intonaci esterni di questa Cattedrale ed hanno potuto verificare, con un certo stupore, la presenza attuale di un notevole tenore di proteine dell'uovo. La cosa, in linea di principio, non avrebbe dovuto stupire: infatti l'uovo veniva usato nei tempi antichi nella composizione degli intonaci come adragante, in quanto dotato di notevole stabilità. Era logico che una certa quantità di tale materiale fosse stato usato anche nella costruzione della Cattedrale. Ciò che stupiva era il fatto che l'uovo contenuto nell'intonaco risultasse ancora pienamente attivo come allergene dopo quasi mezzo millennio: alcune verifiche evidenziarono infatti come fosse capace di scatenare reazioni allergiche non solo sulla paziente in questione, ma anche su altri cinque soggetti allergici anch' essi all'uovo. Gli autori concludono quindi che l'allergene dell'uovo è in grado di resistere per secoli anche negli intonaci di una Cattedrale del '500 mantenendo intatte le sue proprietà allergeniche. (N.E.J.M. 2001;345:1068-1069) Torna alle
Pillole Tromboflebiti nei viaggiatori aereiRecentemente i mass media hanno evidenziato il rischio che corrono coloro che effettuano lunghi viaggi, soprattutto in aereo, in posizione seduta per molte ore con possibile sviluppo di tromboflebiti di esito potenzialmente assai grave. Non è stata però mai esaminata l'effettiva frequenza di tale complicazione, anche se le premesse teoriche (posizione seduta, sedentarietà, compressione sui vasi delle gambe) siano convincenti. Alcuni ricercatori inglesi hanno voluto esaminare la frequenza effettiva di questa complicazione e l'eventuale differenza che venisse rilevata con l'uso preventivo di calze elastiche. Sono stati perciò seguiti oltre 220 passeggeri di età superiore ai 50 anni, non affetti da flebopatie o altre patologie importanti, che avessero un programma di viaggio aereo superiore alle otto ore. I pazienti sono stati divisi in due gruppi e uno dei gruppi ha indossato un set di calze elastiche come profilassi di complicazioni flebitiche. I soggetti venivano esaminati alla fine del viaggio mediante un doppler vascolare. È stato dimostrato come nelle persone che non portavano calze elastiche si sia rilevata una presenza di trombosi venosa nella percentuale del 10% circa. Nel gruppo invece che indossava calze elastiche a scopo profilattico, sono stati diagnosticati soltanto 4 episodi di tromboflebite superficiale. I ricercatori concludono che questa complicazione è pertanto più frequente di quanto possa apparire comunemente e può essere efficacemente prevenuta mediante l'utilizzo profilattico di calze elastiche durante il volo. (Lancet 2001;357:1485-89) Torna alle
Pillole Ulteriore indicazione per le statine: degenerazione maculare senileLa degenerazione maculare senile è la principale causa di cecità nel mondo occidentale. È notoriamente associata ad aterosclerosi e ad anomalie del metabolismo lipidico. I ricercatori hanno perciò voluto analizzare i risultati riscontrabili in tale patologia mediante l'uso di terapie in grado di modificare il profilo lipidico. Sono stati perciò controllati circa 380
pazienti di età compresa tra i 66 e i 75 anni. Analizzando separatamente i due gruppi si
osservava che nel gruppo che non era in terapia con statine il 22%
mostrava segni di degenerazione maculare, mentre solo il 4% dei soggetti
trattati con questi farmaci presentava lo stesso quadro. (BMJ 2001;323:375-376) Torna alle
Pillole
Dinamiche psicologiche nella gestione di un gruppoPer la prima volta nella sua storia, il Medico di Famiglia italiano si trova a dover affrontare concretamente il problema dell' aggregazione in gruppi che, seppure diversamente articolati e diversamente normati, costituiscono tuttavia uno scogli arduo da superare, in quanto assolutamente avulsi dalla sua mentalità, tipicamente individualista. Diviene perciò necessaria una approfondita presa di coscienza del problema, nonchè delle dinamiche interne che si vengono ad instaurare, e delle tecniche utili perchè il gruppo, anzichè fonte di stress, divenga aggregazione vincente e gratificante. Generalità sull'organizzazione di gruppo Nella società di oggi è sempre più difficile prendere importanti decisioni da soli: la vastità dei problemi e la complessità delle varie organizzazioni impongono quasi sempre una decisione collegiale presa da un gruppo di individui. Tali gruppi sono stati nominati nei più diversi modi: comitati, commissioni, team, task-force ecc. e si ritrovano a tutti i livelli nelle gerarchie organizzative dal vertice alla base. Ma la gestione di un gruppo come tutti ben sanno è legata a numerosi problemi. Il primo problema è quello di riunire
fisicamente il gruppo: è ben noto come le decisioni e le discussioni di
solito vengano prese quando l'intero gruppo è presente, mentre per
l'arrivo in ritardo o l' assenza di alcuni elementi, l'andirivieni
continuo, lo squillo del telefono, è facile che l'équipe non sia in grado
di concludere una discussione fattiva. Perchè? Quali sono le caratteristiche che rendono alcuni gruppi migliori di altri? I gruppi vincenti sono sati studiati attentamente, con conclusioni a volte sorprendenti. Per prima cosa bisogna rendersi conto che un gruppo è formato da singole persone. Questa considerazione può apparire banale ma in realtà sono proprio i singoli elementi, con le loro capacità, le loro idee, con i loro limiti e difetti a decretare il successo o l' insuccesso finale. Quali sono le persone più adatte per costituire un gruppo efficace? Gli studi hanno dimostrato che la maggiore efficienza si evidenzia nei gruppi di composizione eterogenea, composti cioè da persone con caratteristiche socio-anagrafiche, abilità, e culture differenti. Questo perchè nel loro interno è più probabile trovare la persona in grado di fornire l'informazione o la soluzione migliore allo specifico problema. Rispetto ai gruppi omogenei (formati cioè da individui più simili tra di loro) i gruppi eterogenei mostrano prestazioni più elevate sia nei compiti "applicativi" (che ricercano una soluzione precisa ad un preciso problema) sia nei compiti "di valutazione" o "creativi" (che richiedono una soluzione al di fuori di schemi usuali o già sperimentati). A mitigare l' efficacia dei gruppi eterogenei interviene però un fattore disturbante: il problema della coesione interna. Gli individui sono infatti generalmente attratti da persone che hanno atteggiamenti ed idee simili alle loro; sono invece diffidenti verso i componenti "diversi". Ne deriva perciò che, mentre il gruppo eterogeneo è potenzialmente molto più efficace nella soluzione dei problemi, esso finisce per presentare invece delle importanti difficoltà sotto l'aspetto della unità programmatica, al punto da poter divenire inefficiente. Sono stati perciò effettuati studi sui gruppi "omogenei" (quelli che presentavano maggior coesione tra i loro membri), ipotizzando che tale fattore potesse costituire una chiave di successo, ma così non è stato: un gruppo è tanto più coeso e unito quanto più elevato è il livello di attrazione tra i suoi membri con conseguente elevata similarità di opinione tra di loro; tuttavia questa similarità, come è stato dimostrato, non favorisce l'efficacia del team, anzi sembra essere una delle cause maggiori delle decisioni erronee e degli insuccessi, a causa del basso tasso di dissenso che favorirebbe la presa di coscienza di un eventuale errore di giudizio. I gruppi, poi, tendono a comportarsi come organismi viventi ed a perpetuare, tendenzialmente, la propria tipologia: un gruppo eterogeneo sostituirà un membro con un altro membro di tipo eterogeneo magari preso all'esterno dell'azienda o dell'ambiente di riferimento; un gruppo omogeneo invece tenderà a prendere una persona che si adegui all'omogeneità del gruppo pescandola all'interno della struttura e in posizione vicina a quella degli altri. I componenti del gruppo Benchè le tipologie dei componenti di un gruppo possano essere tante e irripetibili quanti sono gli esseri umani, alcune tipologie sono più tipiche di altre, e il loro peso all' interno del gruppo può condizionarne pesantemente l' efficienza.
Utilità dei gruppi Uno dei principali motivi per cui si costituiscono i gruppi è che li si ritiene capaci di esaminare più informazioni rispetto al singolo. Questa affermazione poggia su due presupposti:
Un ricercatore americano, Stasser, ha verificato che i gruppi in realtà non operano in modo ottimale: essi tendono a prestare maggior attenzione e a discutere le informazioni di cui tutti sono a conoscenza prima della riunione, trascurando invece le informazioni "nuove" e aggiuntive portate in modo inaspettato dal alcuni membri. Diversi esperimenti hanno infatti evidenziato che, allorchè il gruppo arrivi alla discussione con bagagli informativi disomogenei, la tendenza a dar la precedenza ai fattori conosciuti da tutti induca frequentemente a conclusioni erronee. Per ridurre questo tipo di errore si suggerisce di ridurre e frazionare il carico di informazioni che il gruppo deve discutere (scomponendo per esempio il problema in sottoproblemi), di utilizzare delle tecniche comunicative esemplificative (come presentazioni multimediali o altri supporti per la memoria) che favoriscono l' abitudine allo scambio di informazioni, e di valorizzare la disomogeneità con una serie di accorgimenti, agendo, ad esempio, sulla psicologia dei singoli membri evidenziando (in modo positivo) la loro diversità ed esplicitando e valorizzando i ruoli, le competenze, le aree specialistiche in cui ciascuno di loro può apportare un contributo unico al gruppo. Patologia del gruppo Può accadere che in un gruppo, venendo meno il primo requisito esposto sopra, ci si presenti alla riunione con informazioni già note a tutti, e già condivise ed accettate; è facile allora che i vari membri abbiano già effettuato valutazioni discordanti e arrivino alla riunione con opinioni e conclusioni precostituite e in contrasto tra loro. In questo caso il contrasto interno, mancando la possibilità di inserire nuove informazioni che possano permettere ad una delle due parti di modificare onorevolmente la propria posizione diviene assai più difficile da sanare. Si può generare, paradossalmente, una divisione "manichea" in cui i due punti di vista o le due fazioni si contrappongono in modo intenso. In effetti ogni soggetto dotato di buon senso
accetta l'idea che persone ragionevoli possono avere opinioni diverse (ma
corrette) sul modo di raggiungere gli obiettivi proposti; questa diversità
deve essere però presentata in modo non offensivo e non lesivo della
personalità degli altri; in tal caso la differenza di opinioni viene
accettata in modo costruttivo e può costituire una pietra su cui procedere
alla costruzione della soluzione. Il gruppo alle prese con un problema: come affrontarlo e risolverlo I* stadio: Il problema del... riconoscimento del problema Una delle cause di decisione errate da parte di gruppi apparentemente validi, può essere dovuta a deficit del meccanismo di input. Infatti in una organizzazione i problemi non si manifestano generalmente all' improvviso, ma gradualmente, mediante una progressione di sintomi che però devono superare, per essere notati dai membri dell' organizzazione, un certo valore-soglia. Problemi che producano sintomi poco appariscenti o non immediatamente collegabili o incongruenti sono difficili da individuare e quindi possono essere identificati con ritardo, con conseguente maggiore difficoltà nella ricerca di una soluzione. Se la soglia di attivazione del gruppo è troppo alta o troppo bassa si creano degli errori di metodo: una soglia troppo bassa comporta che il gruppo finisce per disperdere le sue energie nella soluzione di problemi irrilevanti o del tutto marginali; una soglia troppo alta lascia evolvere il problema fino al punto di rendere troppo difficile la soluzione. II* stadio: la reazione al problema Una volta che i sintomi del problema siano stati percepiti, non è detto che i membri del gruppo si sentano motivati ad affrontarlo. La motivazione ad agire dipende essnzialmente dal "livello di attivazione" ovvero da quanto essi si sentono minacciati dall'esistenza di quel problema. Il gruppo tenderà ad affrontare soprattutto i problemi che avvertirà come minacciosi per l' omeostasi ambientale. Acquista importanza, a questo punto, il meccanismo "sensoriale" di acquisizione di informazioni esterne che il gruppo avrà saputo organizzare: un gruppo eterogeneo avrà maggiori possibilità di avvertire fenomeni anomali che potrebbero sfuggire a un gruppo con una visuale più ristretta. III* stadio: la diagnosi del problema Una volta comunque individuata l'esistenza del problema e condivisa la necessità di affrontarlo occorre diagnosticare le sue cause. Il passaggio è delicato perchè, come negli organismi viventi, il gruppo tende a creare dei meccanismi "riflessi" di diagnosi "automatica". Può capitare ad esempio che un problema si presenti, apparentemente sempre uguale, in più occasioni durante un certo arco temporale: i componenti del gruppo, avendone studiato le cause in occasioni precedenti, e sentendosi forti dell' "esperienza", possono continuare ad individuare automaticamente le stesse cause (e quindi ad applicare gli stessi rimedi) anche in occasioni in cui invece i fondamenti siano del tutto differenti. Ad esempio può capitare che la cattiva organizzazione di un settore sia dipesa, in più occasioni, da incompatibilità caratteriali di alcuni membri. Mediante il meccanismo di cui abbiamo parlato, tutte le successive disfunzioni possono venire automaticamente attribuite allo stesso motivo, senza indagare se siano intervenuti nel frattempo fattori interferenti. Le diagnosi automatiche hanno il vantaggio di essere veloci e di richiedere un minimo sforzo, così da permettere ai componenti del team di dedicarsi anche ad altro. Il loro limite è che, essendo automatiche, non sempre sono adeguate alla realtà dei fatti. Un sistema non automatico, invece, si manifesta con un meccanismo diagnostico attivo, che ricerca intenzionalmente e consapevolmente le informazioni utili a considerare l'insieme di cause del problema. Anche qui, in sede di definizione operativa, può giocare molto l'eterogeneità del team: dove alcune persone vedono minacce altre possono vedere opportunità, con conseguente maggiore possibilità di intervento. Dutton e Jackson (1987) sostengono che quando il problema è definito come una opportunità è più probabile che vengano coinvolti nel processo decisionale i membri ai livelli più bassi dell'organizzazione e che questa intraprenda iniziative prudenti, di portata limitata, finalizzate a modificare l'ambiente esterno. Quando invece il problema è definito come minaccia è più probabile che si attivino solo i livelli più alti della gerarchia e che tendano a perseguire azioni rischiose, di ampio respiro e finalizzate maggiormente a modificare l'ambiente interno. Come gestire il gruppo Per ottenere i risultati migliori, qualsiasi leader vorrebbe evitare un dibattito troppo intenso o addirittura un aperto conflitto all'interno del gruppo ma, come sostiene Heisenhardt (1989) in realtà il problema non è costituito dal conflitto di opinioni in sè e per sè, quanto dall'inefficacia delle strategie adottate per la loro soluzione. Gli studi effettuati da Heisenhardt hanno dimostrato che i gruppi in cui esistono delle forti divergenze di opinioni tra membri possono lavorare in modo molto fruttuoso, addirittura superiore a quello degli altri gruppi, allorchè le persone si accordino su alcuni meccanismi di discussione:
Quest' ultimo punto è certamente uno dei più importanti in quanto introduce un nuovo concetto: quello del "consenso con riserva". Si tratta di un processo a due fasi che consente di raggiungere un accordo anche in presenza di divergenza tra i membri del gruppo. Secondo tale procedura
In questo modo la procedura viene avvertita come equa anche dai membri dissidenti in quanto viene consentito loro di esprimere liberamente la propria opinione, di essere ascoltati con attenzione, di influenzare la scelta finale e di "perdere la partita" in un contesto di dialogo e di apertura, senza una stroncatura che apparisse autoritaria e frustrante e quindi disgregatrice del gruppo. In conclusione l'eterogeneità dei membri e la diversità dei punti di vista possono costituire due importanti condizioni per aumentare l'efficacia del gruppo e per prendere decisioni migliori. Occorre però abbandonare l'idea che l' unanimità di consenso sia sempre possibile e che essa sia indicattrice di efficacia del gruppo. Per ottenere una falsa unanimità spesso il leader arriva a forzare il consenso, e ciò può aprire la strada a infinite discussioni e recriminazioni oppure all'apatia e al disimpegno, in quanto i membri del gruppo finiranno per avvertire come controproducente ogni atteggiamento dissenziente e finiranno per appoggiare acriticamente (e quindi a discapito dell' efficacia del gruppo) qualsiasi idea venga proposta dal leader pur di simulare una concorde unanimità. In ambito sanitario è stata effettuata una ricerca sull' efficienza dei gruppi decisionali in 27 ospedali inglesi (West e Anderson, 1996). Le innovazioni introdotte da questi gruppi hanno riguardato argomenti come: miglioramenti nella gestioni delle risorse, aumenti degli introiti, riduzione dei costi, espansione o miglioramento de servizi e così via. I risultati hanno evidenziato che nei gruppi "efficaci" i membri erano capaci di costruire, dapprima nel gruppo in seguito anche nell'organizzazione, un contesto e un clima in cui l'innovazione era valorizzata e sostenuta piuttosto che punita o osteggiata. Il numero di innovazioni prodotte non era influenzato dalla presenza di membri con particolari capacità innovative, in quanto questi influivano piuttosto sulla loro radicalità. Non si rilevava una relazione tra anzianità di servizio e capacità innovativa; inoltre la maggior disponibilità di risorse finanziarie non solo non influenzava il livello delle innovazioni introdotte ma addirittura diminuiva la soddisfazione del benessere del gruppo. Daniele Zamperini; Roberta Floreani Pubblicato, con qualche modifica, su "Doctor", febbraio 2002 Torna ad Approfondimenti
MEDICINA LEGALE E NORMATIVA SANITARIA Rubrica gestita dall' ASMLUC: Associazione Specialisti in Medicina Legale Università Cattolica (a cura di D.Z.) Il nesso causale e la medicina legale: un chiarimento indifferibile1. La pubblicazione dell'importante opera monografica - la cui lettura è da considerare indispensabile anche per i medici legali - dedicata dal penalista Federico Stella al tema della Giustizia e Modernità offre un'occasione, da non perdere, per un indispensabile e addirittura urgente chiarimento sul tema della causalità in medicina legale. La severa critica che Stella rivolge alla Medicina Legale - cui egli imputa due peccati capitali che sarebbero la conseguenza di una tara di origine risalente agli inizi del ventesimo secolo - è forse in parte eccessiva e frutto di alcuni equivoci, ma tuttavia adduce anche motivi che impongono una seria riflessione, ed un tentativo di fare chiarezza. Invero in questi ultimi anni dei tentativi in tal senso sono stati compiuti, alcuni anche recentemente. Anche in questo ambito, tuttavia, come per altri cruciali temi della Medicina Legale, non si è soddisfatta l'esigenza di dar seguito ad isolati interventi e convegni ad hoc, con una conclusiva Conferenza di Consenso che elabori un documento chiaro ed univoco da sottoporre agli studiosi ed operatori della materia, nonché a giuristi, magistrati ed avvocati. La tara di origine, secondo Stella, consisterebbe in un antico articolo di Antonio Cazzaniga che, nel lontano 1919, ha rivendicato l'autonomia del concetto di causa nell'ambito della medicina legale negando che essa possa accogliere la concezione condizionalistica e proponendo una criteriologia per l'accertamento del nesso causale rimasta in vita nel corso del secolo, sia pure con modificazioni di qualche concetto, e della terminologia, apportate da alcuni autori. Da questa lontana impostazione dottrinale sarebbero derivati i due peccati capitali della medicina legale. Il primo "peccato capitale" è così individuato da Stella: "l'aver ripudiato e il continuare a ripudiare il concetto di condizione necessaria, cioè il concetto pacificamente utilizzato nel nostro ordinamento". Il secondo "peccato capitale" è "l'aver elaborato dei criteri di accertamento del rapporto causale, la c.d. criteriologia, che nulla hanno a che vedere con l'accertamento del nesso di condizionamento". Questo breve passaggio critico dell'analisi compiuta nell'opera di Stella - che dedica l'intero suo quinto capitolo a "La mancanza di certezze della scienza" - è inserito nell'ampia trattazione comparatistica, che, con un linguaggio accessibile anche per chi non sia giurista, affronta il problema cruciale della giustizia penale europea. L'Autore ritiene, con il conforto di molti altri studiosi italiani e stranieri, che essa sia tuttora profondamente influenzata dal retaggio autoritario che deriva dalla storia dell'Europa. Mentre nei paesi di common law si esigono in sede penale prove "oltre il ragionevole dubbio" - sia in ordine alla colpevolezza che alla causalità - in Europa domina ancora il pericoloso ed opinabile principio del "libero convincimento" del giudice che si riflette molto negativamente sul principio democratico fondamentale della "presunzione di innocenza". Nel corso della sua approfondita analisi, che prende spunto soprattutto dai problemi giudiziari connessi allo sviluppo tecnologico - come i processi per danni da prodotti industriali, da inquinamento, da vendita di taluni farmaci come il talidomide; per il disastro del Vajont ed altri noti eventi giudiziari italiani e stranieri - Stella denuncia lo slittamento del diritto penale di evento e della causalità verso la sostituzione della condicio sine qua non con la causalità generale: si tende sempre più ad interpretare la condicio sine qua non come condizione necessaria non già dell'evento, bensì dell'aumento del rischio. È un pericolo incombente che si è manifestato proprio nei settori che maggiormente connotano la "modernità" cioè l'attività medica, le alterazioni ambientali, i danni da prodotto. In questi settori una parte della giurisprudenza italiana del merito e di legittimità, in sintonia con parte della dottrina, ha compiuto negli ultimi vent'anni passi che allontanano sempre di più il diritto di evento e di causalità condizionalistica. Questa evoluzione, che è da molti giudicata negativa, è stata autorevolmente richiamata con chiarezza dalla Commissione ministeriale istituita con D.M. 1 ottobre 1998 che ha elaborato un nuovo Progetto preliminare di riforma del codice penale. Nella relazione al Progetto, la Commissione ha espresso analoghe preoccupazioni specie al riguardo di quel minimo indispensabile per imputare a chiunque un reato: cioè che sussista il nesso causale tra la sua azione, od omissione, e l'evento. Lo scivolamento verso l'impiego progressivo
del criterio di probabilità in luogo di quello di certezza del nesso
causale - che sembra abbia avuto una battuta di arresto in più recenti
sentenze della Corte di Cassazione - ha indotto la Commissione a
progettare due articoli che, se davvero faranno parte dell'annunciato
nuovo codice penale, non consentiranno equivoci, perlomeno in linea di
principio. L'art.13 prevede infatti che "Nessuno può essere punito per un
fatto previsto dalla legge come reato se la sua azione od omissione non è
condizione necessaria dell'evento da cui dipende l'esistenza del
reato". Il progetto di riforma pone dunque basi precise e chiare non solo al principio della condizione necessaria, essenza della dottrina condizionalistica, ma anche a quello della certezza del nesso causale anche nel caso di condotte omissive. La civiltà giuridica delle democrazie avanzate si misura, in sede penale, nelle regole che devono garantire da un lato la protezione dell'innocente dall'altro quella della vittima attraverso un sistema rigoroso di prove raggiunte "oltre il ragionevole dubbio" quale richiesto nei paesi di common law. È questo il tema di fondo della monografia di Federico Stella. 2. A sostegno della sua critica rivolta
al primo peccato capitale della medicina legale, Stella cita dei
passi di alcuni autorevoli medici legali nei quali la teoria della
causalità adeguata (di von Kries) sembra presentata come preferibile o,
addirittura, come quella accettata dal vigente ordinamento italiano che
invece, come già ricordato, si basa, indiscutibilmente, sulla teoria della
condicio sine qua non (di von Buri), cioè della condizione
necessaria o dell'equivalenza delle cause. Non può negarsi, riandando alla lettura di alcuni tra i più noti testi di Medicina Legale, che la giusta esigenza didattica di presentare ai lettori le due principali teorie della causalità nel diritto che si sono contese il campo a partire dalla seconda metà dell'ottocento, non è sempre accompagnata dalla chiara informazione conclusiva: cioè che i paesi europei seguono la teoria condizionalistica e non quella della causalità adeguata. Ne consegue il rischio di equivoci, purtroppo spesso realizzato, e della conseguente diffusione di concetti giuridicamente impropri, e di applicazioni medico-forensi altrettanto improprie ed erronee. Questo è il nodo sul quale non sono ammessi equivoci ed incertezze per cui il richiamo, allarmato e severo, di Federico Stella, è da ritenere in linea di massima motivato. E lo è ancor più dopo la citata presa di posizione della Commissione ministeriale per la riforma del codice penale. Un'attenuante si deve invero riconoscere agli autorevoli medici legali che hanno dato luogo a quello che riteniamo sia più che altro un equivoco. Essa consiste senza dubbio nel frequente intrecciarsi del loro duplice ruolo di studiosi e di operatori nella pratica forense. Il compito dello studioso di Medicina Legale è particolarmente difficile, talora arduo, quando rivolge le proprie analisi e valutazioni a quegli aspetti dottrinali della disciplina che appartengono all'area denominata Medicina Giuridica per distinguerla dalla Medicina Forense. La prima riguarda lo studio dei problemi giuridici che richiedono l'intervento della Medicina Legale e se è ben vero che essa si occupa prioritariamente del diritto condendo - proponendo ai giuristi ed al legislatore suggerimenti nella fase di elaborazione di nuove norme - è altrettanto vero che anche i grandi problemi del diritto vigente richiedono continuamente analisi e proposte, si tratti di norme vigenti da tempo ovvero, a fortiori, di norme di recente emanazione. È anche evidente che la Medicina Giuridica del diritto vigente è in più stretta connessione con la Medicina Forense, intesa come quella parte della disciplina che si esprime nella professione giudiziaria ed extragiudiziale. La Medicina Giuridica che si occupa del diritto condendo - autorizzata a farlo in forza dell'esperienza pratica medico-forense che può suggerire modifiche legislative - gode senza dubbio di una maggiore libertà nel formulare analisi e proposte. Ma anche queste devono ovviamente rimanere entro i binari della scienza giuridica, che d'altro canto sono in genere insufficientemente noti a gran parte di coloro che abbiano un curriculum scolastico medico, a differenza dei pochi medici che sono in possesso anche di una laurea in giurisprudenza. Nell'ambito del diritto vigente, invece, il compito dello studioso di medicina legale è più ristretto, condizionato com'è, e deve rigorosamente essere, dalle norme esistenti, ed anche dalle interpretazioni di esse elaborate dai giuristi. A queste inderogabili esigenze deve dunque tassativamente adeguarsi la metodologia medico-legale. Non può sussistere dunque alcun dubbio, nell'ambito della Medicina Forense, sul fatto, di cui il medico legale deve prendere atto operando in conseguenza, che la teoria condizionalistica della causalità - non già quella della causalità adeguata - è quella che sta alla base del nostro attuale ordinamento: e lo sarà probabilmente anche, e forse con ancor maggiore evidenza, nel futuro codice penale. Non è immaginabile che i medici legali abbiano in proposito idee divergenti nel corso della loro attività pratica, in quanto la loro funzione "ancillare" rispetto alle esigenze della giustizia richiede anzitutto, e primariamente, che essi conoscano la realtà dell'ordinamento vigente e ad essa adeguino sia le proprie elaborazioni dottrinali de jure condito, sia, ancor più, le loro prestazioni professionali. Ne consegue che non solo i principi seguiti, ed insegnati a studenti e specialisti, devono essere inderogabilmente quelli provenienti dall'ordinamento, ma che anche la terminologia impiegata deve essere quella "ufficiale", proveniente dalle norme giuridiche e non deve consentire divagazioni neologistiche. È questa la ragione per cui si è già in passato raccomandato, in tema di nesso causale, l'abbandono di espressioni come "causa occasionale" "momento sciogliente" "momento rivelatore": concetti ed espressioni assenti dall'ordinamento e fonti non infrequenti di equivoci e di errori in un settore già per proprio conto gravato da grandi difficoltà concettuali e, soprattutto, applicative. Una cosa è tuttavia la teoria della causalità adeguata (che, fra l'altro, restringe e non amplia la responsabilità dell'imputato) ed altra cosa è il concetto scientifico di idoneità od adeguatezza, il quale è imprescindibile premessa qualunque sia la dottrina causale che un determinato ordinamento adotta. 3. Il secondo "peccato capitale" che Federico Stella addebita alla Medicina legale è, come abbiamo più sopra riferito, è l'aver elaborato dei criteri di accertamento del rapporto causale, la cosiddetta "criteriologia", "che nulla hanno a che vedere con l'accertamento del nesso di condizionamento". Questa forte affermazione contiene anch'essa, come spesso succede, delle motivazioni che in parte la giustificano ma nel contempo deve essere contestata in linea di principio: con le correlativa conseguenza di riaffermare l'assoluta necessità di avvalersi di un metodo, comunque lo si voglia chiamare. Corrisponde indubbiamente al vero la constatazione, purtroppo assai frequente, dell'uso improprio, in sede peritale, della "criteriologia" per l'accertamento del nesso causale. Si leggono elaborati peritali nei quali si afferma la sussistenza di un nesso causale senza adeguate analisi, discussioni e coerenti motivazioni conclusive: sostituite dalla mera dichiarazione di aver utilizzato i criteri cronologico, topografico, di idoneità lesiva, di continuità fenomenologica, di esclusione di altre cause, ed altri. Questo penoso espediente vorrebbe far credere al lettore dell'elaborato tecnico, in genere ignaro benché magistrato od avvocato, che il perito possiede magiche formule di analisi dei dati, troppo lunghe da spiegare: ma che garantiscono, solo dichiarando di avervi fatto ricorso, la "bontà del prodotto". Questa realtà, che non si esita a definire dolorosa per chiunque abbia a cuore la giustizia, prima ancora che la medicina legale, fa comprendere l'indignata reazione di Mauro Barni che giudica i criteri un metodo "antiscientifico" e ne propone l'abbandono, trovando consenso, come si è detto, nell'affermazione di Stella. Detto questo per amore di verità, non si può e, ad avviso di chi scrive, tanto meno si deve, rinunciare ad avvalersi di un metodo medico-legale di elaborazione scientifica dei dati al fine di esprimere un parere tecnico motivato sull'esistenza o meno di un nesso causale tra un'azione od omissione, ed un evento. Non è questa la sede, né l'autore
dell'editoriale ha competenza adeguata, per affrontare il problema
generale del metodo, cui Federico Stella dedica il già citato
capitolo quinto della sua opera. Si designa notoriamente con il termine metodologia la dottrina del metodo cioè lo studio o il complesso dei principi di metodo su cui è fondata o dai quali risulta legittimata una scienza o una disciplina. Nella storia del pensiero occidentale i
problemi filosofici del metodo hanno avuto una complessa ed alternante
evoluzione, che qui non rileva ricordare, fino alle posizioni di P.
Feyerabend (1970) che negano interesse alla ricerca metodologica. La Medicina Legale, come tutte le scienze, pure ed applicate, ha dunque un assoluto bisogno di avvalersi di un metodo per ciascuno dei settori che impegnano la sua attività. Anche la conoscenza critica dei limiti del metodo fa parte integrante di esso, ed anzi ne costituisce forse la parte più importante perché aiuta ad evitare gli errori: che in sede giudiziaria sono di particolare gravità e, purtroppo, gravano spesso proprio sulle spalle dei periti la cui opera, trasmessa ai giudici, costituisce di frequente una base decisiva nella formazione del loro "libero convincimento". La dottrina della condicio sine qua non, nella sua aggiornata versione che la giurisprudenza, anche della Cassazione, sta progressivamente adottando, richiede la "copertura" di leggi scientifiche. Si ricordano i principi enunciati in proposito da Engisch (1931) secondo cui "il concetto di causa penalmente rilevante coincide con il concetto di causa proprio delle scienze naturali" e "il rapporto causale può essere accertato solo impiegando il criterio dell'assunzione sotto leggi naturali". Alla teoria condizionalistica, nella sua forma originaria, era stata formulata la critica di non soddisfare ai casi in cui mancano conoscenze sicure e probanti circa il valore eziologico di un determinato evento. Il ricorso alle leggi scientifiche può (talora) superare gli ostacoli: ma a questo proposito Stella ritiene non si possa seguire Engisch quando sostiene che la condizione sine qua non deve essere sostituita con il concetto di causa proprio delle scienze naturali. È comunque indispensabile avvalersi in primo luogo del metodo generalizzante di spiegazione causale anziché del metodo individualizzante. Il metodo individualizzante si basa sul principio di accertamento del rapporto causale in eventi singoli e concreti, essendo privo di importanza il fatto che essi siano eventualmente unici e non riproducibili in futuro. La prova del rapporto causale sarebbe fornita dallo stesso svolgersi dei fatti nella loro storia e dalla successione temporale che collega il secondo accadimento al primo. In pratica questo metodo si fonda largamente sul principio del "post hoc ergo propter hoc" e, in sede giudiziale, finisce per non obbligare il giudice a ricercare leggi causali idonee a spiegare scientificamente perché e come l'evento sia conseguenza dell'azione criminosa. Seguendo questa linea, applicata ai casi in cui la spiegazione scientifica possa risultare oggettivamente difficile, si lascia in realtà al giudice di decidere in base al proprio convincimento sulla realtà del rapporto causale ed indipendentemente dalla possibilità di conoscere la precisa natura della relazione causale. Di fatto questo "metodo" si applica in numerosi casi, con il contributo rilevante dei periti che raggiungono dapprima un proprio convincimento cui cercano di dare una veste tecnica pur su basi incerte ed opinabili, ed in tale veste lo trasmettono al giudice che finisce spesso col ritenerlo un parere scientificamente fondato e su di esso basa la propria decisione. Il metodo generalizzante comporta invece il ricorso a leggi generali che individuano rapporti di successione regolare tra l'azione e l'evento, considerati non come accadimenti singoli e unici, bensì come accadimenti ripetibili. Anche questo metodo richiede, ovviamente, che si faccia riferimento all'evento concreto. Ma questo viene ridescritto in modo tale da inserirvi quegli aspetti causali ripetibili mancando i quali l'evento non si sarebbe verificato in quel determinato luogo ed in quel momento. La teoria che si basa sul "metodo generalizzante" obbedisce principalmente alle esigenze di garanzia richieste dal fatto che il nesso causale è un requisito fondamentale nei reati di evento, per cui la sua determinazione non può essere lasciata alla discrezione del giudice ma deve essere affidata a metodi il più possibile verificabili e controllabili. Poiché il giudizio sul rapporto causale deve essere motivato, la motivazione non può dunque essere basata se non sul modello della sussunzione sotto leggi scientifiche: un antecedente può essere considerato come condizione necessaria (condicio sine qua non) solo se rientra nell'ambito degli antecedenti che, sulla base di una successione regolare conforme ad una legge dotata di validità scientifica (cosiddetta legge generale di copertura), producono eventi del tipo di quello verificatosi in concreto. È un metodo, quello "generalizzante", da adottare con piena convinzione, specie da parte dei medici legali che, professando una disciplina biomedica scientifica, hanno l'esigenza culturale ed etica di utilizzare i dati della scienza per dare contenuto tecnico adeguato al loro lavoro al servizio della giustizia. A questo punto, però, bisogna distinguere - per evitare ulteriori equivoci concettuali e semantici - tra "causalità generale" intesa come idoneità o probabilità statistica ex ante, che coincide con il concetto di aumento del rischio, e la "causalità individuale", la cosiddetta causa bur for degli anglosassoni "che deve essere provata da esperti, attraverso tests e pareri che sono espressione di una conoscenza e di un metodo scientifico affidabile". Tuttavia, come spesso avviene, le enunciazioni di principi incontrano non solo difficoltà applicative a causa delle insufficienze di molti di coloro che devono attuarli in pratica, ma anche per reali difficoltà che si possono talora -ma non sempre - superare solo avvalendosi, appunto, del metodo scientifico. Il quale poggia senza dubbio su pilastri comuni a tutte le scienze, ma deve possedere anche strumenti specifici per singoli settori. Di tali strumenti specifici ha assoluto bisogno la medicina legale per la sua natura di interfaccia tra la biomedicina ed il diritto, la quale richiede modulazioni particolari. Rinunciare all'elaborazione di un metodo significa dunque abbandonare ulteriormente l'attività peritale medico-legale nelle mani di improvvisatori privi di bussola, non di rado dotati di conoscenze mediche insufficienti, accoppiate a sostanziale ignoranza delle norme giuridiche e della loro interpretazione alle cui esigenze devono conformarsi i pareri tecnici. 4. La Metodologia medico-legale può schematicamente dividersi in due parti interconnesse: la parte medico-biologica e la parte medico-forense. La parte medico-biologica riguarda tutti gli accertamenti, diretti o indiretti, che il medico legale esegue avvalendosi delle conoscenze, degli strumenti e dei metodi propri della medicina e della biologia: con l'obiettivo di formulare una diagnosi clinica, anatomo-patologica o anche soltanto di laboratorio; e, nel vivente, una prognosi circa l'evoluzione futura delle patologie accertate. In questo settore il rigore nella obiettivazione deve essere almeno pari, ma se possibile ancor maggiore, di quello che qualsiasi medico deve imporsi nella pratica clinica. Anche la diagnosi eziologica, quando è possibile, può essere formulata già in questa "fase medica" dell'operatività professionale. Ma proprio in questo ambito emergono differenze sostanziali che implicano il trasferimento dei problemi causali nella parte medico-forense del metodo, caratterizzandone specificamente la metodologia. È comune conoscenza che di molte malattie non si conosce la vera causa e che anche in casi di malattie ad eziologia più nota, non sempre la causa è individuabile con certezza. In molte malattie, inoltre, la causa ha già esaurito la propria azione dannosa per cui al medico non resta che la terapia delle conseguenze che, a maggior ragione, viene attuata nei casi in cui l'eziologia della malattia è ignota. In altri termini il clinico può anche prescindere dalla diagnosi eziologica, avendo come obiettivo principale la terapia: eziologica quando è possibile, sintomatica negli altri casi, che sono la grande maggioranza. Non è così in medicina legale dove - nella maggior parte delle prestazioni professionali -l'obiettivo centrale è l'accertamento dell'eziologia. Tale accertamento è ineludibile e, quantomeno in linea di principio, risponde alla legge del tutto o del niente. Nella realtà pratica un certo numero di casi, che attengono alla classica patologia medico-legale (lesioni o morte da armi, da cause asfittiche, da elettricità ecc.) consente l'accertamento del nesso causale in modo relativamente facile e quasi immediato. In altri casi, invece,, è necessaria una valutazione complessa che, pur avvalendosi ovviamente di motivazioni provenienti dalle scienze, deve incanalarsi sui binari dettati dalle esigenze del diritto ed è pertanto procedimento che appartiene più specificamente alla parte medico-forense della metodologia medico-legale. È quella parte che, sulla base dei dati accertati direttamente, o comunque acquisiti agli atti, elabora valutazioni in risposta a quesiti -siano essi proposti in sede giudiziale o stragiudiziale -i quali vengono formulati in rapporto alle peculiari esigenze giuridiche del caso. È evidente che questa parte medico-forense della metodologia medico-legale implica, per il perito, la conoscenza delle finalità giuridiche dei quesiti e quindi anche la sua consapevolezza della rilevanza probatoria delle valutazioni che egli deve esprimere con adeguate motivazioni. Queste valutazioni -collocate a ponte tra la biomedicina ed il diritto - devono avvalersi di un metodo, modulato a seconda dei vari settori medico-forensi. Tale metodo implica il possesso di criteri cioè di regole di massima per la formulazione di un giudizio e la verifica della sua validità. La cosiddetta criteriologia, dunque, altro non è che l'uso di criteri resi necessari dal metodo. In sede medico-legale si impiega tradizionalmente il termine "criteriologia" con riferimento ai problemi dell'accertamento del nesso causale. Ma è ovvio che si può legittimamente parlare di "criteriologia" anche per altri tipi di valutazione che si effettuano nella fase medico-forense dell'attività del medico legale. Una criteriologia è dunque indispensabile per ragioni metodologiche e lo è particolarmente per accertare medicolegalmente i nessi causali. Pertanto non solo l'impiego di criteri di giudizio non deve essere abbandonato, bensì se ne deve ribadire con convinzione la necessità. Nel contempo, tuttavia, si deve anche affermare l'esigenza che si abbandonino le pratiche applicative improprie del passato e, in sede dottrinale, l'uso disordinato, non sequenziale e disarticolato, di criteri usati "alla rinfusa". Alle pur autorevoli proposte abrogative di Barni e di Stella riteniamo dunque si possa opporre motivatamente la tesi che afferma l'utilità della rilettura migliorativa dell'antica criteriologia, che è da ritenere allo stato attuale priva di alternative: se non quella di lasciare ciascun perito alla mercé di procedimenti arbitrari ed occasionali, fonte di difficoltà ancor maggiori di quelle che i casi presentano per proprio conto. Deve essere peraltro chiaro che nessuno, ed anche chi scrive, può pensare seriamente che la pur aggiornata criteriologia medico-legale sia la chiave che risolve sistematicamente i problemi scientifici dei singoli casi che la teoria condizionalistica implica, specie nella sua avanzata variante della sussunzione sotto leggi scientifiche di Engisch, importata in Italia da Federico Stella e richiamata in non poche recenti sentenze della Corte di Cassazione. Tuttavia decretarne la fine a causa di trattazioni dottrinali non concordi, ed un uso peritale improprio, rappresenterebbe senza dubbio una rinuncia ingiustificata e non contribuirebbe di certo ad un migliore dialogo con i giuristi e, soprattutto, a fornire motivati pareri in sede giudiziaria. Ma è ovvio che riconfermare l'utilità della classica criteriologia è possibile se si chiariscono il significato ed il valore, e nel contempo i limiti di ciascun criterio, e si adotta la necessaria gerarchia ed articolazione coordinata nella loro applicazione sequenziale. Si tratta, a ben guardare di avvalersi di un metodo che metta in ordine logico-scientifico i dati che il caso offre alla nostra analisi e valutazione diagnostica eziologica: per evitare che in assenza di criteri coordinati la valutazione medico-legale sia priva di un binario sul quale incanalare le risultanze del caso. È questa la linea che da tempo abbiamo proposto e che sinteticamente riproponiamo per brevi cenni in questa occasione ai fini di un chiarimento che appare doveroso ed urgente, stimolato dalle critiche di Federico Stella. 5. Per accertare che un determinato fattore sia stato, da solo o con il concorso di altri fattori (con-cause) la condizione necessaria alla produzione di un evento di danno, è indispensabile stabilire preliminarmente se tale fattore è potenzialmente idoneo a produrre quel danno, nelle specifiche condizioni del singolo caso. Questo accertamento sostanzia il criterio di
possibilità scientifica - terminologia proposta a suo tempo da Rinaldo
Pellegrini - da ritenere fondamentale e preliminare ad ogni
ulteriore analisi, non certo esaustivo. Se alla domanda circa la sussistenza o meno di una possibilità scientifica di nesso causale segue una risposta negativa - cioè si può scientificamente escludere anche la mera possibilità di un ruolo causale del fattore lesivo considerato - l'analisi del nesso causale si interrompe proprio in ragione del principio di sussunzione sotto leggi scientifiche. Infatti se una ipotesi è ritenuta, perlomeno allo stato attuale delle conoscenze, scientificamente impossibile, è evidente che il procedimento analitico deve interrompersi in radice e concludersi con la negazione del nesso causale: in altri termini si deve escludere che quel fattore sia stato "condizione contingentemente necessaria" a produrre l'evento. Tuttavia accertare la possibilità
scientifica che un fattore considerato produca uno specifico danno
(cioè sia dotato di potenziale idoneità lesiva), significa soltanto
constatare una potenzialità scientificamente riconoscibile e
riconosciuta: ma è privo di valore conclusivo, in ambito
condizionalistico se, dopo aver accertato la mera possibilità, non
si è in grado di accertare, con l'applicazione di altri criteri, la
certezza del nesso causale o quantomeno la sua elevatissima
probabilità. È evidente che se il perito si limitasse ad accertare la "possibilità" scientifica, e tale conclusione egli trasferisse nelle mani di chi deve giudicare, la risposta avrebbe caratteristiche tali da renderla utile qualora l'ordinamento si basasse sulla dottrina della "causalità adeguata". Ma poiché in Italia, ed in genere in Europa, la dottrina imperante è invece quella della condizione necessaria è evidente che il solo criterio di possibilità scientifica non può certo bastare dovendosi partire dalla risposta positiva a tale criterio, nella direzione del più difficile obiettivo costituito dalla prova positiva del nesso causale: cioè della dimostrazione che, in quello specifico caso, il fattore considerato è stato condizione necessaria a produrre l'evento. Il criterio di possibilità scientifica non è invero un criterio che si possa soddisfare con strumenti univoci, data l'eterogeneità della casistica e dei correlativi quesiti causali che vengono prospettati. Esso si avvale dunque di procedimenti differenziati a seconda dei casi, i quali tuttavia possono e debbono ricondursi a principi identificabili, in ultima analisi, nelle "leggi universali" o nelle "leggi statistiche" o quantomeno in "correlazioni scientifiche a carattere empirico e logico". Esistono senza dubbio casi, di comune osservazione in sede medico-legale, in cui il criterio di possibilità consente, sulla base di leggi universali, una risposta facile ed immediata che altrettanto rapidamente e conclusivamente consente subito l'applicazione positiva del criterio di sostanziale ed umana certezza, senza la necessità di ulteriori elaborazioni criteriologiche intermedie. In tutti i restanti casi, in cui non è utilizzabile alcuna legge universale, si deve ricorrere ai dati statistici, purché ne esistano di disponibili per quella determinata ipotesi. Oppure, in alternativa, si deve ricorrere a correlazioni logiche fondate su conoscenze scientifiche di base e su informazioni casistiche relative a casi consimili, peraltro spesso numericamente insufficienti per consentire vere indicazioni statistiche. Sono inoltre numerosi i casi in cui la possibilità scientifica non riguarda una idoneità assoluta del fattore eziologico considerato, a produrre l'evento dannoso, bensì una idoneità relativa. È assoluta l'idoneità a produrre la morte di un proiettile che trapassi il cuore, mentre l'idoneità di un pugno inferto sulla regione toracica anteriore, seguito da morte, è relativa alla esistenza di fattori concausali, come ad esempio un aneurisma aortico di cui il trauma contusivo causi la rottura. La "possibilità scientifica" è dunque soltanto una porta aperta verso l'auspicabile traguardo della certezza, molte volte irraggiungibile, sostituibile molto cautamente con il criterio di probabilità, che recenti sentenze della Cassazione penale stanno riconducendo a livelli vicini alla certezza allontanandosi così dal pericoloso ed inaccettabile criterio adottato in un non lontano periodo della giurisprudenza di legittimità: che era giunta a riconoscere il nesso causale, perlomeno nei casi di responsabilità medica, perfino con probabilità pari al 30%, equivalenti ad una improbabilità del 70%! La distanza che il perito deve percorrere, nella sua analisi valutativa, tra il criterio di possibilità scientifica, cui egli abbia potuto dare risposta positiva, ed il criterio di certezza - che si spera venga urgentemente introdotto, in modo esplicito, nel nostro codice penale richiedendosi così la prova "oltre il ragionevole dubbio" richiesta nei paesi di common law - può dunque essere talora assai breve, altre volte molto rilevante, caratterizzata da percorsi tortuosi e non di rado insoddisfacenti. Se un incidente stradale causa ad un individuo gravi lesioni plurime e la morte ne consegue dopo alcuni giorni di ricovero in un reparto di rianimazione, è quasi immediato il raccordo tra constatazioni mediche (cliniche ed autoptiche) e conclusione medico-forense circa il nesso causale con l'incidente. La possibilità scientifica è ovviamente soddisfatta, il decorso clinico ed i dati autoptici conducono alla certezza del nesso causale. Ma se in altro incidente stradale un individuo
subisce un trauma cranio-encefalico di media entità e, un anno dopo
l'apparente guarigione presenta una epilessia, il problema peritale è
facile a livello del primo criterio - quello di possibilità scientifica -
ma quanto alla certezza del nesso causale è traguardo arduo, sostituibile
solo in taluni casi da quello di una probabilità elevata da ritenere
ragionevolmente vicina alla certezza. Esempi di questo tipo possono ripetersi in numero sempre più elevato e molti di essi concernono la "modernità": nell'ambito dell'attività medico-chirurgica, nei danni ambientali e nei danni da prodotto. In queste varie evenienze la scienza riesce ormai, con elevata frequenza, a soddisfare il criterio di possibilità: ma lascia spesso insoluto il problema del singolo caso. Il tumore polmonare di un operaio esposto per anni all'inalazione di sostanze capaci di azione cancerogena può sicuramente essere stato causato da questa esposizione, eventualmente addebitabile a violazioni di norme da parte del datore di lavoro. Ma quel tumore potrebbe essere stato prodotto da altre cause, come ad esempio il fumo di sigarette. "Che fare", dunque, per colmare le enormi distanze che spesso sussistono tra possibilità scientifica e certezza del nesso causale come "condizione necessaria"? La risposta non è agevole. E d'altro canto, lo ripetiamo, non ci si può neppure rifugiare nell'agnosticismo e nella fuga dall'impegno professionale. 6. In altra sede si è cercato di indicare una criteriologia di massima per il passaggio dalla mera possibilità scientifica del nesso causale al suo accertamento in termini di certezza o di elevata probabilità. A questo tentativo di razionalizzazione basato su di una rinnovata articolazione dei criteri di giudizio medico-legale rinviamo il lettore non essendo un editoriale, già troppo esteso, la sede per riproporre un'analisi già compiuta in precedenti occasioni. Ci limitiamo a ricordare che il metodo proposto sposta l'applicazione dei noti criteri cronologico, topografico, quantitativo (o di adeguatezza), di continuità, di sindrome a ponte, nella seconda fase dell'indagine, quella in cui, superato positivamente il criterio di possibilità si affronta l'accertamento in concreto del nesso causale. Il criterio di "esclusione di altre cause" ha suoi connotati particolari che sono stati già considerati altrove . Questi criteri, comunque, appartengono primariamente alle valutazioni realizzate mediante la probabilità logica, che si avvale anche dei dati provenienti dalla statistica e dalla casistica. Detto questo in estrema sintesi, si deve tentare una risposta al quesito che ci siamo proposti nelle ultime righe del paragrafo precedente. La risposta che ci sentiamo di dovere onestamente dare è che in un'ampia casistica della medicina legale moderna - la quale comprende soprattutto i già menzionati settori della responsabilità medica, dei danni ambientali e da prodotto - i medici legali, anche se si avvalgono di un metodo scientifico razionale ed organico nell'analisi dei dati e nel giudizio conclusivo, non sono in grado, se non in un numero ridotto di casi, di fornire pareri che obbediscano al criterio di certezza o di elevatissima probabilità vicina alla certezza nei casi di condotte commissive, e soprattutto omissive, sottoposti alla loro valutazione. L'obiettivo - auspicato da Stella e da tanti autorevoli giuristi europei - di basare condanne penali su prove della colpevolezza e, ovviamente, del nesso causale "oltre il ragionevole dubbio" è dunque raggiungibile solo in taluni casi. Il più serio e competente dei medici non è spesso in grado di superare gli ostacoli enormi che si frappongono alla dimostrazione scientifica, nel caso concreto, del nesso causale cioè della caratteristica di condizione necessaria attribuita ad una determinata azione od omissione. La criteriologia è indispensabile, lo
ripetiamo: ma è illusorio pensare che possa risolvere i tanti problemi che
la pratica medico-forense ci pone di fronte. Questa presa d'atto di una realtà difficilmente contestabile, induce a ritenere del tutto convincente la tesi conclusiva di Federico Stella, secondo cui una vasta area di condotte, riguardante soprattutto i problemi della "modernità", è auspicabile non sia più perseguita in sede penale - se non si dispone di prove "oltre il ragionevole dubbio" - ma sia invece trasferita negli ambiti del diritto civile ed amministrativo, dove il giudizio probabilistico, non necessariamente "vicino alla certezza", può essere ammesso, sia pure anch'esso entro certi limiti. Angelo Fiori Torna a Medicina Legale Risarcimento del danno per il coniuge della vittima di lesioni colpose(Sezione Terza Civile n. 1516 del 2 febbraio 2001) I fatti: nel 1986 il notaio L. G., di 68 anni, mentre attraversava le strisce pedonali, era investito da un' autovettura, riportando trauma cranico e lesioni. Veniva accertata la responsabilità esclusiva del conducente dell'auto. Il notaio, e la di lui consorte, convivente, signora C. L., chiedevano, in giudizio, il risarcimento dei danni
Il Tribunale di primo grado accolse parzialmente le richieste risacitorie del notaio, rigettando invece quelle della moglie. La decisione era impugnata dai coniugi, che proponevano appello. Con sentenza pubblicata il 14 luglio 1997 la Corte di Appello di Palermo accoglieva parzialmente le richieste del notaio, aumentando la cifra del risarcimento, rigettando invece le pretese della moglie. I coniugi presentavano ricorso in Cassazione per una serie di dieci diverse motivazioni. La Suprema Corte ne rigettava otto, accogliendone due. In particolare venivano rigettate, per eccessiva genericità mancanza di specificità, le richieste di maggior risarcimento presentate dall' investito. Venivano invece accolte le richieste della moglie, che chiedeva il risarcimento del danno patrimoniale da lei subito sotto forma di lucro cessante. Infatti la ricorrente sosteneva che il suo ritiro dalla attività di insegnamento per la doverosa assistenza al marito, era conseguenza diretta della gravità delle lesioni subite dal marito ed al progressivo aggravamento della sua salute. Afferma la Corte che "Erroneamente la Corte d'appello aveva escluso tale danno con riferimento al principio della regolarità causale... Ed in vero il danno subito dalla moglie della vittima primaria, che rinunci per solidarietà familiare ad una propria attività lavorativa (insegnamento) per dedicarsi al soccorso del proprio marito, è un danno riflesso o di rimbalzo rispetto alla vittima primaria (secondo l'originaria intuizione della giurisprudenza francese), ma è un danno diretto, sia pure di natura consequenziale, per la vittima secondaria, che lo subisce come conseguenza rispetto al medesimo evento, subendo l'ingiusta menomazione della propria sfera "patrimoniale". Per tale motivo il ricorso veniva accolto. Torna a Medicina Legale Sanzioni per violazione delle norma sulla privacyLa tutela della riservatezza dell'individuo, con la legge 675/1996 "Legge Privacy", ha poi trovato un preciso fondamento normativo, con il DRP 318/1999 "Norme di Sicurezza della Privacy". È utile riassumere le sanzioni che la legge prevede per eventuali violazioni; è da tenere presente che l' abolizione del Pretore ha portato tali violazioni nella competenza del Tribunale.
Fonte: http://www.confesercentire.org/ Torna a Medicina Legale
PRINCIPALI NOVITÀ IN GAZZETTA UFFICIALE: mese di gennaio-febbraio 2002
Torna a Medicina Legale
|