La medicina prima e dopo la EBM: quali sono le differenze?
La differenza maggiore sta nel modo in cui utilizziamo ed esaminiamo le evidenze. Nella conferenza (PDF: 244 Kb) che ho da poco tenuto ho preso come esempio il fatto che disponevamo di evidenze per la terapia trombolitica, nella terapia antiaggregante successiva all’infarto del miocardio. Se fossero state valutate correttamente le evidenze derivanti da una dozzina di trial e 6000 pazienti, le prove erano chiare: la terapia trombolitica riduceva il rischio d’infarto all’incirca del 25%. Tuttavia, le persone, le condizioni generali e, in particolare, gli esperti non sapevano come processare le evidenze in modo appropriato, e il risultato è che sono serviti altri dieci anni e altri 40.000 pazienti arruolati nelle sperimentazioni prima che gli esperti fossero finalmente persuasi.
Ci dà qualche esempio che riguarda la sua esperienza personale?
Ho fornito un ulteriore esempio durante la conferenza di quando 30 anni fa, durante il tirocinio presso un’unità coronaria, somministravo un agente antiaritmico per arrestare le aritmie nei pazienti con infarto del miocardio. Lo somministravo regolarmente ai miei pazienti, come mi era stato detto di fare. Di fatto, le evidenze dalle sperimentazioni randomizzate – le prove di maggiore qualità – avevano sistematicamente suggerito che arrecasse danno e molti studi lungo i 20 anni successivi hanno continuato a evidenziare danno e abbiamo continuato a farlo; alla fine i medici hanno smesso di somministrarlo.
Non c’erano mai state prove a sostegno da trial randomizzati, che avessero un razionale biologico. Così siamo passati dalla fiducia in una giustificazione biologica alle sperimentazioni randomizzate e a fare affidamento su questi. Sono fermamente convinto – e credo sia accaduto di certo – che siamo diventati molto più scettici.
Un ulteriore esempio illuminante?
Un’altra storia esemplificativa è quella della terapia ormonale sostitutiva. Gran parte della gente sa che per 10 anni gli esperti andavano raccomandando la terapia ormonale sostitutiva per ridurre il rischio cardiovascolare nelle donne in post-menopausa. Ne emerso che [tale indicazione] era basata su studi osservazionali dove si seguivano donne trattate con terapia e donne che non lo erano. Tali studi sembrava rilevassero una riduzione della mortalità cardiovascolare, ma ora sappiamo che i trial randomizzati – in cui i soggetti sono assegnati attraverso un processo e che immagino avvenga attraverso il lancio di una monetina per ricevere o non ricevere il trattamento – forniscono evidenze di gran lunga più forti.
Quando questi studi sono stati effettuati, la terapia ormonale sostitutiva non ha prodotto alcun effetto o ha forse aumentato il rischio cardiovascolare e abbiamo continuato a somministrarla alle donne in post-menopausa; gli esperti, quindi, hanno fornito raccomandazioni forti alla somministrazione sulla base di tali prove inadeguate.
E’ venuto fuori che le donne che assumevano la terapia ormonale sostitutiva in questi studi osservazionali stavano meglio in termini di rischio cardiovascolare. Ma questo non aveva nulla a che vedere con la terapia ormonale sostitutiva: le donne che la assumevano avevano uno status socio-economico più elevato e, probabilmente, si erano occupate della loro salute in altri modi che sono stati determinanti e che, nei fatti, spiegavano i benefici.
La questione principale che credo illustrano queste storie di salute è il modo in cui gestiamo le evidenze, il modo in cui ‘processiamo’ le evidenze, e la maniera in cui cambiamo posizione e le interpretiamo in termini di guida per la pratica clinica.
Le prove di efficacia da sole sono sufficienti?
No, e pensavo di averne parlato a sufficienza nel rispondere alla prima domanda, ma avrei potuto farlo in un altro modo – le questioni sono diverse.
In realtà c’è una forte incongruenza di fondo e questa incongruenza data dal 1990, quando abbiamo iniziato ad introdurre questo percorso basato sulle prove (poi etichettato “evidence-based medicine”), che poi ha iniziato ad esser usato, abbiamo posto l’accento su quanto detto finora – proprio il percorso e come ognuno interpreta l’evidenza.
Ma quando inizi a farlo, quando inizi a guardare seriamente le evidenze, e quando dici “ok” e ci metti i numeri – il rischio d’infarto al miocardio si riduce di ‘tanto’, il rischio di emorragia aumenta di ‘tanto’, ma provoca questi effetti collaterali in questa misura – sei immediatamente confuso dal fatto che ci sono alti e bassi del trattamento e che, in moltissimi casi, questi alti e bassi sono così vicini da bilanciarsi; allora dici: “Bene, che dovrei fare?”. Sei di fronte al fatto che le evidenze non sono mai abbastanza: si tratta sempre di una questione di valori e di preferenze. Forse sembrerà incredibile, ma è anche una delle scoperte più importanti e, al giorno d’oggi, ancora abbiamo problemi a scalzare le tradizioni.
Dieci anni fa mi è capitata un’esperienza importante. Di fronte ad autorevole panel per la stesura di una linea-guida ho affermato che le loro scelte nel raccomandare si basavano su valori e preferenze, la metà della stanza era indignata, si è alzata e ha detto: “Non siamo qui per dare valutazioni e giudizi personali! Siamo gli esperti! Sappiamo… crediamo di conoscere le evidenze!” E di nuovo a dare indicazioni. La mia risposta è stata: “Non volete esprimere giudizi basati su valutazioni e preferenze personali? Bene! Allora non date raccomandazioni! Dite alla gente quali sono le prove e affidatele a loro”.
Quali sono gli assunti dell’approccio tradizionale da mettere in discussione?
Nel modo tradizionale di formare un medico gli si dice di dire al paziente cosa deve fare e quando mi trovo ad insegnare ai giovani medici una delle mie sfide nell’insegnare la evidence-based medicine è portare loro a capire che i valori e le preferenze dei pazienti sono fondamentali.
Solo un esempio: c’era un paziente che, per qualche motivo, non stava prendendo i farmaci e non era il genere di malato che uno staff medico vorrebbe, visto che questo paziente aveva una fibrillazione atriale che ti aumenta il rischio di ictus; e pensavano che era davvero un pessimo paziente al quale proporre il warfarin, perché è un anticoagulante che richiede controlli del sangue ogni 2 settimane; rischi emorragie e devi stare molto attento a cosa mangi. Ho suggerito: “No! Andate e chiedetelo a questa persona” e quando loro sono andati a chiederglielo sono tornati dicendo: “Quel tipo non vuole avere un ictus ed è pronto a passare attraverso tutto quanto…”.
Evidence based medicine, patient based medicine e… quale altro ingrediente è necessario?
L’altra importante soperta che viene dall’evidence-based process, è che le evidenze, da sole, non sono sufficienti: è sempre necessario valutare i diversi fattori, e non appena c’è un’alternativa – come bilanciare cose come la riduzione del rischio di ictus con l’aumento del rischio di emorragie, o preoccupazioni o i costi – questi elementi da bilanciare, i valori e le preferenze sono alla base di ogni decisione. Dovremmo, quindi, nei limiti del possibile, usare i valori e le preferenze dei nostri pazienti per assicurare che abbiano l’assistenza che è giusta per loro.
Versione originale
Medicine before EBM and after EBM: what’s the difference?
The biggest difference is the way we use and process the evidence.
In the talk that I just gave, I gave examples of the fact that we had evidence for thrombolytic therapy, clot-busting therapy after myocardial infarction. If we had processed the evidence properly after about a dozen trials and 6000 patients, the evidence was clear that the thrombolytic therapy reduced that rates by about 25%. But people, the conditions and the experts in particular did not know how to process the evidence properly and, as a result, it took another decade and another 40.000 patients enrolled in trials before experts were finally persuaded.
What about your personal experience?
I gave another example in the talk of when I was training 30 years ago and was in a coronary care unit, I gave an anti-arrhythmic agent to stop patients with myocardial infarctions having arrhythmias. I gave it out regularly to my patients – that’s what I was told to do; in fact, the evidence from randomized trials – the highest quality evidence – consistently suggested it harm and in many trials over a period of 20 years suggesting harm, we kept doing it and finally clinicians stopped giving it.
There was never any evidence in support from randomized trials that was of biologic rationale. So we’ve moved away from a reliance in biologic rationale toward randomized trials and toward believing randomized trials.
I think awfully – and that for sure has happened – we also have become much more sceptical.
Any other illuminating example?
Then another story that illustrates that is hormone-replacement therapy. Most people in the general public know that for a decade the experts were recommending hormone-replacement therapy to reduce cardiovascular risk in post-menopausal women; what it turns out is that was based on observational studies where you look at women who were taking hormone-replacement therapy and women who were not. Those seemed to suggest a reduction in cardiovascular mortality, but we now know that randomized trials – in which people are allocated by process and how I guess the flipping of coin to receive or not receive the treatment – provide much stronger evidence.
When those studies were done, hormone-replacement therapy either had no effect or possibly increased cardiovascular risk and we were giving it out to post-menopausal women – the experts were making these strong recommendations to do so on the basis of this inadequate evidence.
It turns out that the women who took hormone-replacement therapy in those observational studies did do better in terms of cardiovascular risk. It just had nothing to do with hormone replacement therapy: women who took it were of higher socio-economic status and they probably attended to their health in other ways that were important and that in fact explained the benefit.
The biggest way I think these health stories illustrate is the way we treat evidence, the way we process the evidence and the way we move and interpret it in terms of guiding our clinical practice.
Is evidence in itself enough or is there more?
No, and I thought I’d spent enough time answering the first question but I could have had it another way – things are different.
There is actually a big irony and that irony is that when we started around 1990, when we started introducing this evidence-based process (then labelled “evidence-based medicine”), started to be used, we focused on what I’ve said up to now – just the process and how one interprets the evidence.
But when you start doing this, when you start looking really hard at the evidence, and you say “ok” and you put numbers on it – the risk of myocardial infarction is reduced by this much, the risk of bleeding is increased by this much, but it gives these side effects by this much – you immediately are confounded by the fact that there are always upsides and downsides of the treatment and that, in a considerable number of instances, the upsides and downsides may be closely balanced and then you say “well, what should I do?”. That confronts you with the fact that evidence is never enough: it’s just always values and preferences. This has been maybe extraordinary to think so but this has also been one of the major revelations that, right to this day, we have some problems persuading traditions.
A decade ago I had a vivid experience of going before an important guideline panel and, telling them that their decisions when they recommend something was based on values and preferences, half of the room was outraged and they got up and said: “We’re not here to make value and preference judgements! We are the experts! We know… we think we know the evidence!” and yet they were giving out recommendations. My answer was: “You don’t want to make value and preference judgements? Certainly! Then don’t make recommendations! Tell people the evidence and leave it to them”.
Which assumption of the traditional medical education need to be discussed?
The traditional way of training doctors is you tell the patient what to do and when I’m teaching young clinicians one of my challenges in teaching evidence-based medicine is to get them to see that the patient’s values and preferences are crucial.
Just one story of that: there was one patient who hadn’t been taking the medication for some reason and didn’t seem to the health staff like that sort of patients you would, and this patient had atrial fibrillation which increases your risk of stroke, and they thought this was a very bad patient to offer warfarin to, because it is an anticoagulant, you need your blood checked every 2 weeks: you have risk to bleed, you have to be very careful whatever you eat. And so I said: “No! Go and ask this individual” and when they went to ask and they came back: “This guy really doesn’t want a stroke and he’s ready to go through all that”.
Evidence based medicine, patient based medicine and… what else?
So the other revelation from the evidence-based process has been that evidence is not enough in itself: there are always trade-offs, and as soon as there are trade-offs – how you balance things like reducing stroke or increasing bleeding or inconvenience or cost – those balances, their values and preferences, underline all these decisions. We should, if it all possible, be using the values and preferences of our patients to ensure that they get the care that’s right for them.
Articoli correlati
28 maggio 2008
In primo piano
La medicina prima e dopo la EBM
La medicina prima e dopo la EBM: quali sono le differenze?
La differenza maggiore sta nel modo in cui utilizziamo ed esaminiamo le evidenze. Nella conferenza (PDF: 244 Kb) che ho da poco tenuto ho preso come esempio il fatto che disponevamo di evidenze per la terapia trombolitica, nella terapia antiaggregante successiva all’infarto del miocardio. Se fossero state valutate correttamente le evidenze derivanti da una dozzina di trial e 6000 pazienti, le prove erano chiare: la terapia trombolitica riduceva il rischio d’infarto all’incirca del 25%. Tuttavia, le persone, le condizioni generali e, in particolare, gli esperti non sapevano come processare le evidenze in modo appropriato, e il risultato è che sono serviti altri dieci anni e altri 40.000 pazienti arruolati nelle sperimentazioni prima che gli esperti fossero finalmente persuasi.
Ci dà qualche esempio che riguarda la sua esperienza personale?
Ho fornito un ulteriore esempio durante la conferenza di quando 30 anni fa, durante il tirocinio presso un’unità coronaria, somministravo un agente antiaritmico per arrestare le aritmie nei pazienti con infarto del miocardio. Lo somministravo regolarmente ai miei pazienti, come mi era stato detto di fare. Di fatto, le evidenze dalle sperimentazioni randomizzate – le prove di maggiore qualità – avevano sistematicamente suggerito che arrecasse danno e molti studi lungo i 20 anni successivi hanno continuato a evidenziare danno e abbiamo continuato a farlo; alla fine i medici hanno smesso di somministrarlo.
Non c’erano mai state prove a sostegno da trial randomizzati, che avessero un razionale biologico. Così siamo passati dalla fiducia in una giustificazione biologica alle sperimentazioni randomizzate e a fare affidamento su questi. Sono fermamente convinto – e credo sia accaduto di certo – che siamo diventati molto più scettici.
Un ulteriore esempio illuminante?
Un’altra storia esemplificativa è quella della terapia ormonale sostitutiva. Gran parte della gente sa che per 10 anni gli esperti andavano raccomandando la terapia ormonale sostitutiva per ridurre il rischio cardiovascolare nelle donne in post-menopausa. Ne emerso che [tale indicazione] era basata su studi osservazionali dove si seguivano donne trattate con terapia e donne che non lo erano. Tali studi sembrava rilevassero una riduzione della mortalità cardiovascolare, ma ora sappiamo che i trial randomizzati – in cui i soggetti sono assegnati attraverso un processo e che immagino avvenga attraverso il lancio di una monetina per ricevere o non ricevere il trattamento – forniscono evidenze di gran lunga più forti.
Quando questi studi sono stati effettuati, la terapia ormonale sostitutiva non ha prodotto alcun effetto o ha forse aumentato il rischio cardiovascolare e abbiamo continuato a somministrarla alle donne in post-menopausa; gli esperti, quindi, hanno fornito raccomandazioni forti alla somministrazione sulla base di tali prove inadeguate.
E’ venuto fuori che le donne che assumevano la terapia ormonale sostitutiva in questi studi osservazionali stavano meglio in termini di rischio cardiovascolare. Ma questo non aveva nulla a che vedere con la terapia ormonale sostitutiva: le donne che la assumevano avevano uno status socio-economico più elevato e, probabilmente, si erano occupate della loro salute in altri modi che sono stati determinanti e che, nei fatti, spiegavano i benefici.
La questione principale che credo illustrano queste storie di salute è il modo in cui gestiamo le evidenze, il modo in cui ‘processiamo’ le evidenze, e la maniera in cui cambiamo posizione e le interpretiamo in termini di guida per la pratica clinica.
Le prove di efficacia da sole sono sufficienti?
No, e pensavo di averne parlato a sufficienza nel rispondere alla prima domanda, ma avrei potuto farlo in un altro modo – le questioni sono diverse.
In realtà c’è una forte incongruenza di fondo e questa incongruenza data dal 1990, quando abbiamo iniziato ad introdurre questo percorso basato sulle prove (poi etichettato “evidence-based medicine”), che poi ha iniziato ad esser usato, abbiamo posto l’accento su quanto detto finora – proprio il percorso e come ognuno interpreta l’evidenza.
Ma quando inizi a farlo, quando inizi a guardare seriamente le evidenze, e quando dici “ok” e ci metti i numeri – il rischio d’infarto al miocardio si riduce di ‘tanto’, il rischio di emorragia aumenta di ‘tanto’, ma provoca questi effetti collaterali in questa misura – sei immediatamente confuso dal fatto che ci sono alti e bassi del trattamento e che, in moltissimi casi, questi alti e bassi sono così vicini da bilanciarsi; allora dici: “Bene, che dovrei fare?”. Sei di fronte al fatto che le evidenze non sono mai abbastanza: si tratta sempre di una questione di valori e di preferenze. Forse sembrerà incredibile, ma è anche una delle scoperte più importanti e, al giorno d’oggi, ancora abbiamo problemi a scalzare le tradizioni.
Dieci anni fa mi è capitata un’esperienza importante. Di fronte ad autorevole panel per la stesura di una linea-guida ho affermato che le loro scelte nel raccomandare si basavano su valori e preferenze, la metà della stanza era indignata, si è alzata e ha detto: “Non siamo qui per dare valutazioni e giudizi personali! Siamo gli esperti! Sappiamo… crediamo di conoscere le evidenze!” E di nuovo a dare indicazioni. La mia risposta è stata: “Non volete esprimere giudizi basati su valutazioni e preferenze personali? Bene! Allora non date raccomandazioni! Dite alla gente quali sono le prove e affidatele a loro”.
Quali sono gli assunti dell’approccio tradizionale da mettere in discussione?
Nel modo tradizionale di formare un medico gli si dice di dire al paziente cosa deve fare e quando mi trovo ad insegnare ai giovani medici una delle mie sfide nell’insegnare la evidence-based medicine è portare loro a capire che i valori e le preferenze dei pazienti sono fondamentali.
Solo un esempio: c’era un paziente che, per qualche motivo, non stava prendendo i farmaci e non era il genere di malato che uno staff medico vorrebbe, visto che questo paziente aveva una fibrillazione atriale che ti aumenta il rischio di ictus; e pensavano che era davvero un pessimo paziente al quale proporre il warfarin, perché è un anticoagulante che richiede controlli del sangue ogni 2 settimane; rischi emorragie e devi stare molto attento a cosa mangi. Ho suggerito: “No! Andate e chiedetelo a questa persona” e quando loro sono andati a chiederglielo sono tornati dicendo: “Quel tipo non vuole avere un ictus ed è pronto a passare attraverso tutto quanto…”.
Evidence based medicine, patient based medicine e… quale altro ingrediente è necessario?
L’altra importante soperta che viene dall’evidence-based process, è che le evidenze, da sole, non sono sufficienti: è sempre necessario valutare i diversi fattori, e non appena c’è un’alternativa – come bilanciare cose come la riduzione del rischio di ictus con l’aumento del rischio di emorragie, o preoccupazioni o i costi – questi elementi da bilanciare, i valori e le preferenze sono alla base di ogni decisione. Dovremmo, quindi, nei limiti del possibile, usare i valori e le preferenze dei nostri pazienti per assicurare che abbiano l’assistenza che è giusta per loro.
Versione originale
Medicine before EBM and after EBM: what’s the difference?
The biggest difference is the way we use and process the evidence.
In the talk that I just gave, I gave examples of the fact that we had evidence for thrombolytic therapy, clot-busting therapy after myocardial infarction. If we had processed the evidence properly after about a dozen trials and 6000 patients, the evidence was clear that the thrombolytic therapy reduced that rates by about 25%. But people, the conditions and the experts in particular did not know how to process the evidence properly and, as a result, it took another decade and another 40.000 patients enrolled in trials before experts were finally persuaded.
What about your personal experience?
I gave another example in the talk of when I was training 30 years ago and was in a coronary care unit, I gave an anti-arrhythmic agent to stop patients with myocardial infarctions having arrhythmias. I gave it out regularly to my patients – that’s what I was told to do; in fact, the evidence from randomized trials – the highest quality evidence – consistently suggested it harm and in many trials over a period of 20 years suggesting harm, we kept doing it and finally clinicians stopped giving it.
There was never any evidence in support from randomized trials that was of biologic rationale. So we’ve moved away from a reliance in biologic rationale toward randomized trials and toward believing randomized trials.
I think awfully – and that for sure has happened – we also have become much more sceptical.
Any other illuminating example?
Then another story that illustrates that is hormone-replacement therapy. Most people in the general public know that for a decade the experts were recommending hormone-replacement therapy to reduce cardiovascular risk in post-menopausal women; what it turns out is that was based on observational studies where you look at women who were taking hormone-replacement therapy and women who were not. Those seemed to suggest a reduction in cardiovascular mortality, but we now know that randomized trials – in which people are allocated by process and how I guess the flipping of coin to receive or not receive the treatment – provide much stronger evidence.
When those studies were done, hormone-replacement therapy either had no effect or possibly increased cardiovascular risk and we were giving it out to post-menopausal women – the experts were making these strong recommendations to do so on the basis of this inadequate evidence.
It turns out that the women who took hormone-replacement therapy in those observational studies did do better in terms of cardiovascular risk. It just had nothing to do with hormone replacement therapy: women who took it were of higher socio-economic status and they probably attended to their health in other ways that were important and that in fact explained the benefit.
The biggest way I think these health stories illustrate is the way we treat evidence, the way we process the evidence and the way we move and interpret it in terms of guiding our clinical practice.
Is evidence in itself enough or is there more?
No, and I thought I’d spent enough time answering the first question but I could have had it another way – things are different.
There is actually a big irony and that irony is that when we started around 1990, when we started introducing this evidence-based process (then labelled “evidence-based medicine”), started to be used, we focused on what I’ve said up to now – just the process and how one interprets the evidence.
But when you start doing this, when you start looking really hard at the evidence, and you say “ok” and you put numbers on it – the risk of myocardial infarction is reduced by this much, the risk of bleeding is increased by this much, but it gives these side effects by this much – you immediately are confounded by the fact that there are always upsides and downsides of the treatment and that, in a considerable number of instances, the upsides and downsides may be closely balanced and then you say “well, what should I do?”. That confronts you with the fact that evidence is never enough: it’s just always values and preferences. This has been maybe extraordinary to think so but this has also been one of the major revelations that, right to this day, we have some problems persuading traditions.
A decade ago I had a vivid experience of going before an important guideline panel and, telling them that their decisions when they recommend something was based on values and preferences, half of the room was outraged and they got up and said: “We’re not here to make value and preference judgements! We are the experts! We know… we think we know the evidence!” and yet they were giving out recommendations. My answer was: “You don’t want to make value and preference judgements? Certainly! Then don’t make recommendations! Tell people the evidence and leave it to them”.
Which assumption of the traditional medical education need to be discussed?
The traditional way of training doctors is you tell the patient what to do and when I’m teaching young clinicians one of my challenges in teaching evidence-based medicine is to get them to see that the patient’s values and preferences are crucial.
Just one story of that: there was one patient who hadn’t been taking the medication for some reason and didn’t seem to the health staff like that sort of patients you would, and this patient had atrial fibrillation which increases your risk of stroke, and they thought this was a very bad patient to offer warfarin to, because it is an anticoagulant, you need your blood checked every 2 weeks: you have risk to bleed, you have to be very careful whatever you eat. And so I said: “No! Go and ask this individual” and when they went to ask and they came back: “This guy really doesn’t want a stroke and he’s ready to go through all that”.
Evidence based medicine, patient based medicine and… what else?
So the other revelation from the evidence-based process has been that evidence is not enough in itself: there are always trade-offs, and as soon as there are trade-offs – how you balance things like reducing stroke or increasing bleeding or inconvenience or cost – those balances, their values and preferences, underline all these decisions. We should, if it all possible, be using the values and preferences of our patients to ensure that they get the care that’s right for them.
Articoli correlati
28 maggio 2008