Quantcast
Viewing all 225 articles
Browse latest View live

A Banalização das Doenças



* Artigo publicado hoje no Jornal A Tarde por Luis Correia


Em meados do século XX, a evolução tecnológica e científica nos trouxe tratamentos de grande relevância. Antes disso, a maioria das condutas eram empíricas e inefetivas. Fazíamos uma medicina que tentava apenas reduzir o sofrimento ou proporcionar a falsa idéia de que algo benéfico estava sendo utilizado. No início do século passado, não havia antibióticos, anti-hipertensivos, medicamentos para baixar colesterol ou marca-passos.

Esta fase foi seguida de uma grande evolução nos últimos 50 anos, tirando a medicina de um estágio medieval para uma prática efetiva e embasada em evidências. Neste contexto, o primeiro ensaio clínico publicado (British Medical Journal) data de 1948, quando se comprovou pela primeira vez que um antibiótico (estreptomicina) reduzia significativamente a mortalidade de pacientes com tuberculose, quando comparado ao tratamento limitado ao repouso. Começava a era da medicina baseada em evidências.

Por outro lado, no início do século XXI, passamos a experimentar outro fenômeno: a medicalização da população. O principal mecanismo criador da medicalizaçãosão as novas definições de doença, caracterizadas pela redução dos limites de referência do que antes considerávamos normal. É comum que a redução destes limites ocorra sem o devido embasamento científico, sendo mais motivados pelo afã de prevenir doenças, ou por conflitos de interesses. Isto faz com que, do dia para a noite, surjam populações inteiras de novos doentes, antes considerados normais.

Há alguns anos, diabetes era definido como glicemia de 140 mg/dl, depois esta definição foi reduzida para 125 mg/dl e agora já se considera que glicemia de 100 mg/dl não é normal, criando-se o conceito de pré-diabetes. Embora o conceito de pré-diabetes tenha certo valor, este tem sido inadequadamente utilizado para justificar uso de medicações, sem base científica suficiente. Temos também o advento da pré-hipertensão, rótulo que já cabe a pessoas com pressão arterial de 120 x 80 mmHg. Está cada vez mais difícil ser normal.

A primeira vista, isto pode ser interpretado como uma conduta cuidadosa, típica do paradigma preventivo de que é melhor se preocupar antes que o problema se torne uma questão mais grave. No entanto, esta conduta representa mais uma forma de overdiagnosis. Em paralelo ao afrouxamento da definição das doenças, a indústria farmacêutica realiza estudos de má qualidade, que tentam demonstrar benefício do uso de medicamentos nestas condições. Estes que mostram resultados insuficientes, que são “vendidos” de forma sedutora, levando à adoção de terapias desnecessárias. Assim surge o overtreatment.

Recentemente, o Jornal Nacional noticiou que os médicos agora consideram que o valor ideal de colesterol LDL (colesterol ruim) é 70 mg/dl. Porém, a média de LDL-colesterol na população é 120 mg/dl, sendo muito difícil que uma pessoa saudável tenha colesterol LDL de 70 mg/dl.  Desta forma, um grande número de pessoas, antes definidas como portadores de colesterol adequado, agora estão insatisfeitas com seu colesterol. Como dieta reduz apenas 5-10% e exercício não tem impacto algum, restará apenas medicação para que as pessoas tenham um ótimo colesterol. De posse dessas novas definições, se inicia o marketing simulteamente voltado para médicos e pacientes. Um marketing efetivo, pois quem não quer ter colesterol ótimo?

Tudo isso ocorre em detrimento de uma escolha conscienciosa e científica, tal como proposto pela medicina baseada em evidências. Está mais para medicina baseada em fantasia, uma lucrativa fantasia.

Por outro lado, precisamos lembrar que verdadeiros fatores de risco, como colesterol elevado, diabetes e hipertensão, não devem ser negligenciados, necessitando de tratamento na maioria das vezes com medicação. Nestes casos, existe comprovação científica de benefício.

Diagnóstico e tratamento são as ações primordiais da prática médica e devem ser feitos para quem precisa, na hora que se precisa e com criterioso embasamento científico. 

Medicina e Fé: há compatibilidade?

O Mito do Tratamento da Hipertensão Leve



Fato # 1: Hipertensão arterial sistêmica é o mais importante fator de risco para acidente vascular cerebral e o segundo fator de risco para infarto do miocárdio. Isso sem falar em cardiopatia hipertensiva, nefropatia hipertensiva, retinopatia hipertensiva. 

Fato # 2: O tratamento farmacológico da hipertensão previne de forma substancial estas consequências negativas. 

Questão # 1: O que é hipertensão arterial? Esta definição deve ser estatística (distribuição dos valores de pressão na população) ou deve ser baseada na implicação terapêutica da definição?

Fato # 3: Os médicos definiram que hipertensão arterial como valores ≥ 140 / 90 mmHg.

Fato # 4: Ensaios clínicos demonstram que indivíduos com pressão arterial ≥ 160/100 mmHg e múltiplos fatores de risco apresentam redução de eventos cardiovasculares quando tratados farmacologicamente. 

Mito # 1: Indivíduos com hipertensão leve (valores de pressão sistólica entre 140 e 160 mmHg ou diastólica entre 90 e 100 mmHg) devem ser tratados com medicação se  mantiverem estes níveis pressóricos a despeito de medidas não farmacológicas. 

Quando pesamos que o tratamento da hipertensão é embasado por evidências (fato), pensamos em qualquer hipertensão (mito). O que não nos damos conta é que estas evidências se limitam a indivíduos com hipertensão pelo menos moderada. Afinal, são estas que de fato provocam as devastadoras consequências citadas nas primeiras linhas desta postagem. 

Mas porque nós sempre achamos que as evidências dizem respeito a qualquer hipertensão? Não é por acaso, fomos manipulados a pensar deste jeito.

Julian Hart, pioneiro na proposta de rastreamento de hipertensão na população geral, conta que a ideia sempre foi definir 160 x 100 mmHg como os níveis diagnósticos que implicariam em tratamento. Porém, quando surgiram as primeiras evidências a respeito do benefício do tratamento neste grupo de indivíduos, a Organização Mundial de Saúde (OMS) promoveu três simpósios sobre hipertensão leve, patrocinados por três grandes laboratórios farmacêuticos. Naquele simpósio, os médicos convidados foram solicitados a endossar por escrito a proposta de que o tratamento da hipertensão deveria ser instituído a partir de 140 x 90 mmHg. A partir deste apoio dos “especialistas”, se iniciou a progressiva redução dos limites de definição do normal, culminando com o Sétimo JNC (Joint National Committee on Prevention, Detection, Evaluation, and Treatment of High Blood Pressure), que já define 120 x 80 mmHg como pré-hipertensão. Se 120 x 80 mmHg já não é bom, quem dirá 140 x 90 mmHg, isso deve ser devastador … Ou seja, a redução progressiva dos níveis considerados ideais garante como inquestionável o limite de 140 x 90 mmHg, prevenindo a percepção real de que  este é um limite de tratamento contrário às evidências científicas. Se pré-hipertensão (120 x 80 mmHg) é algo preocupável, quando mais hipertensão (140 x 90 mmHg). 

Mas será que há estudos que testaram terapia em paciente com hipertensão leve? Sim, porém estes são em número bem menor. Mesmo assim, precisamos saber o que eles sugerem. 

Fato # 5: Recente revisão sistemática publicada pela Cochrane Collaborationnão demonstrou redução de eventos cardiovasculares com o tratamento farmacológico da hipertensão leve. 

Esta revisão identificou quatro ensaios clínicos randomizados que avaliaram indivíduos com hipertensão leve. Na verdade, os ensaios tinham também indivíduos com hipertensão moderada. Para resolver esta questão, os autores da revisão conseguiram os dados individuais dos pacientes com hipertensão leve em 3 ensaios e só incluíram estes pacientes na revisão. Um quarto ensaio foi incluído por inteiro, pois menos que 20% dos pacientes tinham hipertensão moderada.


Interpretação Científica

Em primeiro lugar, devemos nos lembrar do princípio da hipótese nula: partimos da premissa científica de ausência do fenômeno e só mudamos de ideia se este for suficientemente demonstrado. 

Assim pensa o cientista. Diferente pensa o crente, o religioso, que se embasa na fé. Só precisamos decidir que tipo de medicina queremos fazer.

Cientificamente devemos iniciar o pensamento sem preconceito, usando a  premissa de que não há demonstração de benefício do tratamento de hipertensõeszinhasEm seguida, devemos nos perguntar: há algum motivo para mudarmos de ideia (rejeitar a hipótese nula) ? 

Até agora não, pois ninguém fez um estudo especificamente dedicado a isso e o que há de evidências fala contra essa ideia. Talvez nunca façam esse estudo, pois os laboratórios não vão querer investir neste subgrupo para o qual a vendarem de droga já está garantida. Seria um gasto alto, pois menor risco = necessidade de maior tamanho amostral. É mais barato fazer uns simpósios, pagar umas passagens internacionais, e convencer os que se acham formadores de opinião (mas são meras marionetes) de que devemos tratar hipertensão leve. São estas mesmas marionetes que mais tarde se reunirão para escrever os guidelines de hipertensão. No fundo, temos que tirar o chapéu para a inteligência da indústria farmacêutica. Eles nos tiram de letra.

A oportunidade que temos de resolver esta questão será pelo financiamento de pesquisa por órgãos governamentais, tal como NIH ou CNPQ. É exatamente o que nosso amigo Flávio Fuchs está fazendo com seu ensaio clínico randomizado que testa diurético em pré-hipertensão, na ausência de conflito de interesse (Estudo PREVER). Como pergunta científica, isso tem grande valor.


A Decisão Clínica

Qual o significado do que aqui discuto em relação ao nosso comportamento no consultório ou ambulatório? Devemos negligenciar a “hipertensão leve”?

Claro que não, pois 140/90 mmHg já representa valores que não são tão habituais, por isso merecem atenção.

Mas será que devemos fazer do tratamento uma regra? Tratar com remédio todos que permanecerem hipertensos leves a despeito de medidas não farmacológicas? Hoje em dia, isso é uma regra. Inclusive uma regra contrária à medicina centrada no paciente, pois (em minha experiência) boa parte dos indivíduos "não se conformam” em ser rotulados de pessoas que precisam de medicação. Na prática, nós impomos o uso de medicação a estes pacientes, sem evidência científica que respalde esse conduta.

Devemos evitar o overdiagnosis da hipertensão leve, pela neurótica pesquisa de qualquer nível elevado de pressão arterial, com repetição de MAPAs, medidas em consultório ou valorização de picos hipertensos eventuais. Muitas vezes, na ânsia de não perder um diagnóstico, fazemos tantas medidas e exames, que acabamos concluindo de que o paciente é hipertenso quando ele tem apenas pressão próxima à imaginária linha de normalidade. 

Saber que não há comprovação de que 140/90 mmHg necessita de medicação não deve nos tornar negligentes quanto à hipertensão arterial. Porém pode e deve nos tornar menos ávidos por um diagnóstico definitivo de hipertensão leve, o que  muitas vezes implica em overtreatment de pessoas que não são exatamente hipertensas. A perseguição da alta sensibilidade em diagnosticar hipertensão reduz nossa especificidade, fazendo com que tratemos pacientes normais, piorando a qualidade de vidas destes que passam a ser hipotensos com o inapropriado tratamento. Isso não é incomum de percebermos no consultório. Vejo isso todo dia.

Esta discussão nos deixa mais a vontade para utilizarmos nosso julgamento clínico  e individualizar a decisão a respeito de tratamento na hipertensão leve. Evita a tirania do tratamento de todos. Ficamos mais livres para exercer a medicina centrada no paciente, considerando os valores e preferências destes quando estamos falando de hipertensão leve. 

Por fim, assunto aqui abordado é exemplo de verdades absolutas na mente médica, porém não embasadas em evidências. É exemplo de como a indústria cria mitos com tamanha competência. É exemplo de como podemos rever nossos paradigmas simplesmente revisando a literatura. É exemplo de que muitas vezes o paciente pode estar correto quando pergunta: Doutor, eu preciso mesmo desse medicamento?

OBS: Esta postagem não tem intenção de relaxar medidas cardiovasculares preventivas. A verdadeira intenção é calibrar a mente médica, diferenciando mito e realidade.

Café Científico com Flávio Fuchs

Depois de divulgar nossa última postagem, em que analiso a falta de evidências sobre o tratamento da hipertensão leve, fiquei curioso em saber da opinião de Flávio. Sabia que ele talvez não concordasse com minha ideia, visto que sua principal linha de pesquisa é voltada para a hipótese do tratamento de pré-hipertensos. No caso dele, totalmente isento de conflito de interesses.

Desta forma, resolvi interromper seu período sabático em Harvard e puxar este interessante assunto científico. Meu email resultou em uma intensa troca de ideias científicas que varou pela madrugada de terça. Com a permissão de Flávio, compartilharei trechos desta conversa, delegando partes pessoais. Prestem atenção na profundidade científica de Flávio. Suas hipóteses são muito bem embasadas.

Comecei provocando o assunto com uma pergunta conceitual:

Flávio, de onde vem a definição de HAS como PAS de 140 ou PAD de 90 mmHg? Quanto a risco cardiovascular, há um ponto de inflexão neste valor de 140/90?

Flávio: Olá Luis, que coincidência teu e-mail. Meu filho Felipe, que acessa mais costumeiramente teu blog, mandou tua nota sobre a HAS leve, onde me citas, muito obrigado. Acho, no entanto, que estás barking to the wrong tree. Ótimo que levantaste o assunto diretamente comigo. Aquela meta-análise Cochrane se limita a poucos estudos que fizeram esta pergunta (mild hypertension) há muitos anos, estudos sem poder estatístico, pois os participantes eram saudáveis. O risco é evidentemente contínuo e começa bem embaixo, como demonstraram os autores de coortes em meta-análises poderosas. A primeira em 1990, a segunda em 1995 e a terceira, definitiva, de 2002.

Cotejando estes trabalhos é que desenhei as curvas da apresentação em anexo (foto), preparando-me para responder a pergunta que alguém me faria um dia e eis que de repente, 10 anos após, tu me fizeste!



A questão é a seguinte, o risco duplica a cada 10 de diastólica ou 20 de sistólica, começando em 115 e 75, pelo menos, talvez menos em mais jovens. As curvas exponenciais que fiz espelham o fato, dobrar valores baixos não tem quase repercussão (1 para 2, 2 para 4), mas ao se aproximar de 140 e 90 a inclinação fica evidente(16 para 32, 32 para 64, isto de risco absoluto, para qualquer denominador). Nas apresentações originais das meta-análise de 1990 e 2002 apresentam somente eixos verticais exponenciados, que retificam os riscos, a análise de 1995 é a única com riscos reais no eixo vertical, portanto gerando curvas. As coortes pequenas, como Framingham, que tem até trabalhos relativamente recentes, não perceberam este fenômeno matemático contínuo, e achando que não havia risco abaixo de 90 ou 140. Assim, hipertensão foi por muito tempo 160/95 (não tinhas nascido), 160/100 para os britânicos, depois indo para os 140/90.

Mas olha, tenho certeza substancial, o máximo que pode ter talvez um cientista que sempre trabalha com a possibilidade de sua hipótese conceitual ser refutada, de que começa mesmo em 115/75, pelo menos, este será o valor diagnóstico de hipertensão no futuro. Há abundantes evidências de risco CV em PA abaixo de 140/90, dano em órgão-alvo e a prova de conceito, veja meu artigo anexo. Depois de amanhã apresento parte disto que te disse em seminário aqui em Harvard, estou há menos de 48 horas da expulsão dos Estados Unidos, por atentado contra a ciência convencional. Grande abraço, Flávio.

Flávio,

fico orgulhoso de ser o primeiro a lhe fazer esta pergunta. Acertei em cheio, só mesmo você poderia me responder de forma tão completa. Fico convencido, há um ponto de inflexão em 140 mmHg, parece nítido! Baseado nisso, é desejável ser portador de uma pressão mais baixa possível, digamos 115/75 mmHg.

Agora vem a segunda questão: é desejável ter nascido com 115 ao invés de 130 (fato), mas isto garante que usar medicação para reduzir de 130 para 115 produz benefício? O benefício do tratamento da HAS leve é uma hipótese plausível ou um fato?

Se for apenas uma hipótese plausível, deveria ter o mesmo nível de recomendação que 160, ou deveria ser uma conduta mais individualizada de acordo com nosso paciente?

Faz sentido minha reflexão?

Flávio: Luís, bom papo para a noite aqui, aí 2:20, não dormes? Vamos por partes, como diz Jack o estripador.

Reduzir PA de 130 para 115 reduz o risco inequivocamente em quem tem doença cardiovascular, anexo outro artigo meu, já antigo, onde reviso os tradicionais trials de prevenção secundária e em stroke e em insuficiência cardíaca em que se pensava serem devidos aos tais efeitos pleiotrópicos, é tudo PA. Os benefícios apareceram ali porque o risco absoluto era grande. Falta estudo com desfecho primordial em pré-hipertensão, e não teremos, pois o risco absoluto é muito baixo, precisaria muita gente. O risco relativo é matematicamente o mesmo, anexo artigo em que discuto a pré-hipertensão, base para o PREVER prevenção, assunto que abordarei aqui quarta. E não tem curva J, o outro artigo anexado bem recente meu e de Sandra, ali rediscuto o assunto e explico o ACCORD.

Flavio, genial essa sua observação conjunta da falta de interação de hipertensão e benefício do Ramipril no HOPE. Fui no HOPE e conferi que realmente não há interação. Aí alguém poderia dizer, mas isso é efeito pleiotrópico. Daí você traz o ALLHAT negando isso. Concordo, para mim, efeito pleiotrópico é puro marketing da indústria. Vivo dizendo isso. Gostei desse argumento!!

Minha Análise Final

O maior valor de um cientista está nas perguntas que este elabora, mais do que nas respostas. Devo reconhecer que a pergunta de Flávio é brilhante e muito bem embasada: há um limite inferior para o tratamento hipotensor?

Talvez nossa diferença resida na minha opinião de que isso ainda é uma pergunta e Flávio está praticamente convencido da resposta.


Assim é que a ciência se desenvolve, do forte e intenso debate de ideias. Obrigado Flávio!

Guideline ACC/AHA sobre Colesterol: The Good, the Bad and the Ugly

Publicado esta semana, o novo Guideline dos American College of Cardiology e American Heart Associationestá deixando muita gente perturbada. O guideline ferve porque se afasta de condutas tipicamente recomendadas, transgredindo a monótona tradição. Independente do conteúdo apresentado, o documento já é positivo por seu aspecto transgressor, pois no mínimo provoca nossa reflexão.

Quando se fala em guidelines ou diretrizes, alguns chegam a considerar estas recomendações como a voz divina que determina o que nós (humanos) devemos fazer. Certa vez, durante uma interessante troca de ideias científicas, alguém da plateia pediu a palavra dizendo que “não podemos questionar o que está na diretriz (brasileira)”. Na verdade, um guideline deve ser criticado da mesma forma que fazemos com artigos científicos, levando-se em conta o quanto as recomendações foram de fato embasadas em evidências. Há quatro anos, em artigo do JAMARobert Califfanalisou os diversos guidelines do ACC/AHA, concluindo pela necessidade de melhor embasamento científico nestes documentos. De fato, tradicionalmente os guidelines do ACC/AHA são de qualidade técnica inferior a outros modelos existentes.

Neste texto, não apresentaremos de forma didática as recomendações do guideline. Para isso, sugiro a postagem de Eduardo Lapa no Blog Cardiopapers como um ótimo resumo didático.

Faremos aqui uma análise crítica de alguns pontos relevantes do ponto de vista científico, apontando as transgressões positivas deste guideline (the good), assim como seus aspectos negativos (the bad and the ugly)


THE GOOD

Diferente do que normalmente ocorre com os guidelines do ACC/AHA, esta não é uma iniciativa exclusiva destas sociedades de cardiologia. Na verdade, é o resultado de uma parceria com o National Heart, Lung and Blood Institute (NHLBI). Recentemente, o NHLBI decidiu que não fará mais este tipo de guideline, como ocorreu no passado com as recomendações ATP III (colesterol) e o JNC (hipertensão). A partir de agora, o NHLBI passará a delegar estas funções primariamente ao ACC/AHA, porém estará junto com estes órgãos na confecção do documento. Sendo assim, este guideline ACC/AHA ganhou a chancela do NHLBI, assumindo um aspecto mais científico, típico das recomendações que possuem envolvimento governamental. O documento lembra algumas características das recomendações do US Prevention Task Force, no sentido de que o próprio grupo realiza e publica revisões sistemáticas, as quais servem de embasamento para as recomendações. Inclusive é citado na introdução de que o guideline segue o padrão de qualidade do Instituto de Medicina: Standards for Developing Trustworthy Clinical Practice Guidelines.

Abandono do Paradigma da Meta de LDL-Colesterol

Esta representa a principal mudança de paradigma, a qual está provocando certo atordoamento em quem estava acostumado a pensar da forma tradicional. O uso de metas de colesterol é um exemplo de algo que virou tradição, porém nunca foi cientificamente testado. Na verdade, nenhum ensaio clínico de prevenção primária com estatina testou a eficácia de uma conduta baseada em meta.

Vejam como se recomendava até então: se nosso cliente tem um risco Y, ele deve ter um colesterol < X mg/dl (meta). Sendo assim, se o indivíduo não estiver na meta, temos que perseguí-la, terminando quase invariavelmente no uso de estatina. Recentemente o Jornal Nacionalanunciou que os cardiologistas brasileiros agora consideram que o LDL-colesterol ideal é 70 mg/dl (meta). Ou seja, se temos um paciente de alto risco, gostaríamos que ele estivesse na meta, então vamos iniciar o tratamento.  Vivemos o paradigma da meta, embora não haja evidência que dê suporte a este tipo de pensamento. 

O que os ensaios clínicos fizeram foi testar a indicação de estatina com base na característica do indivíduo (presente) e não com base no que gostaríamos que este indivíduo fosse (futuro = meta). 

Vamos pegar o primeiro estudo de prevenção primária com estatina, o WOSCOPS. Este estudo comparou estatina versus placebo em pacientes com LDL-colesterol elevado, em média 190 mg/dl. Conclusão, se o indivíduo tiver colesterol em torno deste valor, se beneficiará da estatina. Sendo assim, a decisão deve partir da característica do indivíduo. Com o passar do tempo, amostras populacionais com valores de colesterol menores do que este foram sendo testadas (AFCAPS, ASCOT …) expandindo-se a indicação para LDL-colesterol de 160 mg/dl, 130 mg/dl, …. Mas nenhum destes estudos testou meta.

Isso parece confuso, mas vejam como faz sentido quando pensamos no tratamento da hipertensão. Como decidimos em hipertensão? Se o indivíduo é hipertenso (PA  140/90 mmHg), vamos tratar sua hipertensão. Vejam que nos baseamos na característica atual do indivíduo e não em uma meta a ser alcançada. 

Quando decidimos o tratamento do colesterol baseado em meta, podemos acabar tratando um grupo de pessoas que nunca foi testado quando à eficácia do tratamento. Principalmente porque as definições de meta das recomendações anteriores são meras especulações e nos levam a tratar um grupo de pessoas que não seriam tratadas com base no pensamento adequado. Por que então não recomendar com base da prova do conceito de benefício das estatinas? 

O abandono de metas representa um ponto de convergência deste guideline com o paradigma da medicina baseada em evidências

Esta discussão tem uma segunda implicação prática: uma vez instituído o tratamento baseado na característica atual do paciente, não há sentido em perseguir uma meta com repetição periódica de exames, aumento de doses, mudanças para estatinas mais potentes ou associações com drogas cientificamente inadequadas - como é o caso do (antes sucesso de marketing) ezetimibe.

Em prevenção primária, o que os ensaios testaram foi estatina versus placebo. Se um paciente de tais características, com tal valor de colesterol, se beneficia da estatina, esta deve ser instituída. Uma vez instituída, o indivíduo desfrutará do benefício. Se o colesterol final é x ou y, isso é uma dado de menor importância. Portanto, o guideline desencoraja a repetição periódica do perfil lipídio como guia para tratamento. Mais um ponto positivo. 

Isso simplifica, democratiza o tratamento deste fator de risco, aumentando a efetividade de sua utilização. Às vezes me dá impressão de que os especialistas tentam complicar tratamentos simples, no intuito de valorizar suas competências de especialista. Tratamento do colesterol deve ser o mais simples e democrático possível, principalmente se estamos falando de um sistema coletivo de saúde. 


THE UGLY

Até que o guideline estava indo bem, quando em um determinado momento passou a seguir um curso inexplicável. Abandonar meta de colesterol fazia sentido, mas por que abandonar o valor basal do colesterol como guia para início da terapia? 

Trocando em miúdos, o guideline diz que se indivíduo for de risco intermediário com base em escores clínicos (> 7,5% de probabilidade de infarto, AVC ou morte em 10 anos), esqueça o colesterol e use estatina (exceção para o indivíduo que tiver LDL-colesterol < 70 mg/dl, aí seria demais). 

Independente de seu risco basal, não há comprovação científica de que um indivíduos com qualquer valor de LDL-colesterol deva ser tratado com estatina. A amostra testada de valores mais baixos (JUPITER) tinha o LDL médio de 105 mg/dl. Mesmo assim, este estudo tem veracidade questionável por seu caráter truncado. 

Além disso, houve uma ampliação da definição de risco intermediário, que agora passa a considerar o limite de 7,5% de risco (ao invés de 10%) e também o desfecho AVC. Isso aumenta em grande número a proporção de pessoas nesta faixa intermediária. Vale salientar que a associação de AVC e benefício da estatina é muito mais tênue que no infarto. 

Não podemos deixar de pensar que neste momento prevaleceu conflitos de interesse de especialistas (ACC/AHA) a favor das estatinas, conflitos estes apontados no próprio guideline


THE GOOD

O guideline corrigiu mais um equívoco cometido por recomendações prévias, colocando o papel de novos biomarcadores no lugar certo. Vamos pegar o exemplo do escore de cálcio coronário, o qual tem valor prognóstico incremental aos modelos preditores clínicos, como o Escore de Framinghanm. Guidelines anteriores sugeriam que se o paciente ficasse em risco intermediário pelo modelo clínico, este deveria ser submetido a um escore de cálcio para melhor definir seu risco. 

Isso nunca fez muito sentido, sendo motivo de uma postagem prévia neste Blog e de uma carta ao editorque publicamos do Journal of the American College of Cardiology. Naqueles textos, argumentávamos que o escore de cálcio não teria valor em pacientes de risco intermediário, pois estes já teriam indicação de medidas preventivas, semelhante ao paciente de risco alto. Esta nossa opinião estava em desacordo com o forte lobismo a favor dos “novos biomarcadores”, que se adotado implicaria na realização destes exames adicionais em 1/3 da população. 

Sugeríamos que o escore de cálcio fosse utilizado quando, depois da avaliação clínica, permanecesse a dúvida quanto adoção de alguma medida preventiva. Seria indicado para condições de excessão, onde haveria um dilema quanto à instituição de estatina. Neste caso, um escore de cálcio alto poderia pender mais a balança para a terapia e um escore baixo faria o contrário.

E aí vem uma boa surpresa. É exatamente isso que o guideline sugere: 

"In selected individuals for whom a decision to initiate statin therapy is otherwise unclear, additional factors may be considered to inform treatment decision making." - aqui "factors" denota os novos biomarcadores, citados na sequência do texto.



THE BAD

Quanto ao uso de novos biomarcadores, enquanto o escore de cálcio tem seu valor incremental demonstrado (estatística-C e análise de reclassificação líquida), proteína C-reativa e espessura médio-intimal de carótidas (embora preditores independentes) não possuem valor incremental aos modelos clínicos. Então, por que usar? 

De forma correta, o guideline contra-indicou o uso clínico da espessura médio-intimal de carótidas. Mas, de forma incorreta, respaldou o uso de proteína C-reativa. Essa última não entendi. Deve ter sido o lobby de Paul Ridker, detentor da patente da proteína C-reativa e que usa o estudo JUPITER para justificar o uso deste biomarcador. Naquele estudo proteína C-reativa foi critério de inclusão,  porém não houve interação entre seu valor e o benefício da estatina. 


THE GOOD, THE BAD AND THE UGLY

Neste famoso western de Sergio Leone, convivem personagens de índoles diferentes. Primeiro Blondie (the good) captura Tuko (the bad) e o entrega à justiça. Até aí Blond agia corretamente. No entanto, após receber o pagamento da justiça, Blondie resolve libertar Tuko, tornando-se seu parceiro em esquemas lucrativos. Nesta parceria, os dois desenvolvem uma relação conflituosa, com momentos de traição, indo assim até o final do filme. 

Fico imaginando que os bastidores deste guidelinese assemelham à história do filme, no que diz respeito à presença dos "the good" e dos "the bad", com suas relações conflituosas. 

Essa saga justifica um documento que não se define em termos de qualidade. Por vezes parece científico e correto, outras vezes parece equivocado e tendencioso. 



THE GOOD, THE BAD AND THE UGLY: um dos melhores temas do cinema de todos os tempos, Ennio Morricone



O Colesterol Politicamente Correto



* Artigo publicado hoje no Jornal A Tarde, por Luis Correia

Está virando politicamente correto criticar o uso de estatina (drogas redutoras de colesterol). Alguns chegam a defender a intrigante ideia de que colesterol elevado não é importante causa de infarto. Um exemplo disto é o superpopular artigo de Dráuzio Varella, “A Agonia do Colesterol”, publicado na Folha de São Paulo, neste 30 de novembro.

Penso que questionar paradigmas vigentes é sempre estimulante, nós evoluímos ao repensar ideias: colesterol elevado como causa de infarto e estatina como protetor contra infarto são mitos? São falsas ideias criadas por razões comerciais (estatinas são as drogas mais vendidas no mundo)? Esta última questão faz com que este questionamento ganhe o tom do politicamente correto. Além disso, o uso de remédios é visto como algo anti-natural; e o natural é sempre politicamente correto.

Já critiquei neste espaço o uso indiscriminado de estatina em pessoas com colesterol normal. Porém agora nos referimos a pessoas com colesterol elevado. O que propõe a medicina baseada em evidências é evitar ideias fantasiosas e adotar condutas de utilidade comprovada. Como ciência diferencia mito de realidade, faremos aqui uma revisão das evidências científicas.

A comprovação da associação epidemiológica entre colesterol e infarto data da década de 50, quando o Estudo Framigham identificou os marcadores de risco para infarto. Estes estudo utilizou metodologia científica de boa qualidade e o melhor modelo epidemológico, o desenho de coorte prospectiva. Além disso, estudos subsequentes mostraram resultados semelhantes, completando o critério de consistência entre trabalhos na confirmação de uma ideia científica. Inclusive, foi o próprio Estudo Framingham que primeiro confirmou a associação de tabagismo, hipertensão arterial e diabetes com infarto. Ao não aceitar as evidências da associação entre colesterol e infarto, estaríamos também questionando estes outros fatores de risco.

Porém, nem toda associação é causal, de fato muitas delas são casuais ou mediadas por fatores de confusão. Sendo assim, a confirmação final de que uma variável associada ao desfecho é de fato um fator causador deste desfecho está em estudos que demonstram redução na incidência do problema (infarto) quando reduzimos a causa (colesterol). Esta confirmação veio 40 anos depois, com o advento das estatinas. Ao demonstrar que a redução do colesterol com estatina (comparada a placebo) reduz a incidência de infarto, essa ligação causal ficou estabelecida por ensaios clínicos de boa qualidade metodológica, com milhares de pacientes e de resultados reprodutíveis. Sendo assim, o colesterol como fator de risco cardiovascular é um bom exemplo de um processo correto de validação científica de uma ideia. Inclusive, como a proposta do colesterol como fator de risco surgiu décadas antes do advento das estatinas, a teoria da conspiração de que o mito do colesterol foi criado para vender estatinas não ganha nem respaldo cronológico.

Ao analisar criticamente evidências, confesso que mantenho um viés de desconfiança da indústria farmacêutica, pois esta frequentemente propõe condutas lucrativas, porém não suficientemente embasadas. No entanto, precisamos reconhecer propostas que, embora lucrativas, sejam clinicamente benéficas. Estatinas reduzem risco de infarto em pessoas com colesterol elevado.

Voltando ao sedutor texto de Dráuzio, a “agonia do colesterol” é um pensamento anti-científico. Devemos usar a ciência para combater condutas fantasiosas (existem muitas por aí) e reconhecer condutas benéficas. Separar o joio do trigo requer uma análise criteriosa das evidências científcas, o que procurei fazer neste artigo, com uma liguagem coloquial.


Dráuzio fala em pensamento mágico. O que ele se esquece é que a diferenciação entre pensamento mágico e realidade é feita por ciência de boa qualidade. Não podemos priorizar o politicamente correto, em detrimento da medicina baseada em evidências. Nem sempre o politicamente corretoé correto.

A Oração do Acaso



Como primeira postagem deste ano novo, decidi escrever sobre o principal fenômeno da natureza: o acaso. Reconheço que pode parecer uma heresia falar de sorte ou azar em um blog científico. Porém essa aparência decorre do fato de que o acaso não recebe do pensamento comum o valor que merece. Há inclusive aqueles que julgam que o acaso inexiste: “nada é por acaso.”

No entanto, os matemáticos já demonstraram de forma irrefutável a existência deste fenômeno. Aliás, nem é preciso ser tão matemático assim. Jogue uma moeda para cima 10.000 vezes. Obviamente, perceberá que a moeda cairá com cara para cima a metade das vezes. Pode repetir esse experimento quantas vezes quiser, o mesmo sempre ocorrerá. Essa é uma simples prova de que não há um fator causal interessado que a moeda caia predominantemente em cara ou coroa. Se não há um fator causal, é tudo aleatório (acaso). E a prova de que o aleatório existe é que podemos predizer quantas vezes a moeda cairá em cara. É só saber a regra do jogo, ou seja, saber as leis de probabilidade. 

O acaso está intimamente relacionado ao pensamento científico. Isto porque a função primordial da ciência é identificar associações causais, entender como os fenômenos acontecem. Neste processo é muito importante que o cientista leve em consideração que muitos fenômenos não possuem causa específica, se dão por obra do aleatório. Sendo assim, fazer ciência é diferenciar acaso de causa. Há coisas que decorrem de uma causa (fumar causa câncer) e há outras que existem por acaso. A utilização de metodologia científica adequada discrimina causa de acaso. Metodologia científica é uma forma de evitar erros de observação decorrentes de vieses ou do acaso. Isso se faz necessário, pois observações carentes de metodologia nos fazem concluir por falsas relações causais. E isto ocorre todo dia, a todo momento quando pensamos intuitivamente.

Por exemplo, quando julgamos que um paciente sobreviveu a uma condição grave devido a uma promessa que fizemos, estamos estabelecendo uma relação causal (promessa → sobrevida). No entanto, quase todo paciente (mesmo grave) tem alguma probabilidade de sobreviver. Na realidade, houve uma coincidência entre o paciente ter (aleatoriamente) sobrevivido e termos feito uma promessa. Mas o que costumamos fazer é uma análise retrospectiva enviesada, pensando que se o paciente sobreviveu, foi porque rezamos. E nos esquecemos (memória seletiva) de todos os outros casos em que promessas foram feitas e o paciente não sobreviveu. 

O leitor neste momento deve estar me julgando cético ao afirmar que promessa não influencia na sobrevida. Mas só estou fazendo esta afirmação pois esta hipótese foi testada cientificamente. Revisão sistemática da Cochrane meta-analisou 10 ensaios clínicos em que 7.046 pacientes críticos foram randomizados para reza intercessória ou não reza: não houve associação entre reza e sobrevida. Essa é a beleza da ciência. Ciência nada mais é do que uma observação cuidadosa da natureza. Não temos o direito de simplesmente acreditar ou não acreditar. O que precisamos fazer é observar se o fenômeno é verdadeiro ou não. E a melhor forma de observar é por meio da metodologia científica, prevenindo vieses e a confusão entre acaso e causa.

Provavelmente a prece tem benefícios psicológicos ou espirituais para quem está rezando (não estou sugerindo que serve para nada), porém não reduz mortalidade. E este conhecimento a respeito dos efeitos da prece é muito importante, pois se houvesse associação causal com sobrevida, a prece deveria fazer parte dos protocolos assistenciais de pacientes críticos, como indicação classe I. Ao saber que não há esta relação causal, não precisamos estruturar nossos serviços para esta conduta, não precisamos montar um time de prece. Isto fica então a gosto do cliente ou da família, que deve rezar se isso os fizer sentir bem.

Neste ponto do texto, percebam que partimos do acaso, passamos pela ciência e chegamos na religião, de forma natural, em uma discussão que aproxima ciência e fé. Porém muitos religiosos preferem distanciar ciência e fé, pois desta forma fica mais fácil criar mitos e crenças de acordo com seus interesses, sem que haja uma filosofia por trás disso tudo. Pensar e procurar entender nosso universo, como ele funciona, não é uma heresia. Estudar cientificamente os efeitos da fé é um ato de respeito a esta prática comum a inúmeras culturas. Esconder-se atrás dos “mistérios da fé” é fugir da reflexão, congelar nosso cérebro e consequentemente nossa alma. Foi isso que quis dizer Pauster: "um pouco de ciência nos afasta de Deus, muito nos aproxima".

Um dos maiores equívocos de nosso pensamento intuitivo é a propensão de não reconhecer o acaso como um dos principais determinantes dos eventos a nossa volta, tal como abordado por autores como Leonard Mlodinow ("O Andar do Bêbado") ou Thomas Gilovich ("How We Know What Isn’t So”). Muitas vezes, inconscientemente, preferimos atribuir nosso destino a falsas relações causais, pois nos sentimos mais em controle quando pensamos entender o porquê das coisas. Porém às vezes não há um porquê, é tudo aleatório. Ou pelo menos uma mistura do aleatório com variáveis causais. Na realidade, o mundo é multivariado, não cartesiano, não determinístico, no sentido de que um fenômeno é provocado por uma multiplicidade de fatores: fatores causais mais o acaso. Nos modelos estatísticos multivariados, sempre há o resíduo, que é a variabilidade não explicada por nossas equações preditoras. Estes resíduos decorrem do acaso

Um dos filmes mais brilhantes de Woody Allen é Match Point, uma apologia ao acaso. A metáfora é o match point do jogo de tênis, quando ganhar ou perder apenas um ponto pode determinar o destino de um jogo. Na primeira cena do filme, a bola bate na extremidade superior da rede, se desloga verticalmente para cima e a imagem congela. A partir deste momento, a bola começaria a descer, mas para que lado da rede? Aí entra o aleatório, determinando o destino daquela jogada. Poderia sera apenas o destino de uma jogada, mas muitas vezes o “efeito borboleta” se faz presente: um fato aparentemente de pequena importância promove grandes consequências, por uma reação em cadeia. O resultado de apenas um ponto em um jogo de tênis pode determinar seu destino final. Isso aconteceu quando uma tal seleção brasileira de voleibol perdeu o jogo quase ganho em uma dessas recentes olimpíadas. A vida é assim, um minuto a mais ou a menos pode determinar que der tempo de pegar aquele trem, no qual conheceremos o amor de nossa vida, poracaso. Um minuto é um pequeno detalhe que pode ter grandes consequências.  A isso se chama de “efeito borboleta”. 



O termo "efeito borboleta" decorre da metáfora de que o deslocamento de ar decorrente do simples bater das asas de uma borboleta pode provocar grandes fenômenos meteorológicos, se o ambiente estiver propício a isto. Neste sentido, o físico quântico Max Born, ganhador do Prêmio Nobel, afirmou que "o acaso é um conceito mais fundamental que a causalidade".

Daí vem nosso insight espiritual, a mensagem que conecta ciência, acaso e fé. Com sua forma onipresente de ser, o acaso assume um caráter divino quando nos damos conta de que esta é a ferramenta com a qual Deus rege o mundo. Isso mesmo, Deus comanda o mundo de forma aleatória. Deus não seria mesquinho para castigar alguém provocando uma doença, ao atribuir uma condição de saúde plena a outra pessoa. Deus não provocaria uma grande terremoto do Haiti de forma proposital. Deus não fará com que o Brasil ganhe a copa do mundo de 2014, em detrimento de outras seleções. Deus nãoé brasileiro. Como bem demonstrado pelo filme filosófico-cômico de Jim Carrey, Almight, Deus ficaria louco se tivesse que decidir por tudo isso. A verdade é que de forma serena, Deus utiliza o acaso como a maneira de "determinar" nosso destino. O acasoé a ferramenta divina.

Sendo assim, neste início de ano, deixamos aqui a Oração do Acaso. Oremos para que em 2014 o acaso esteja ao nosso lado sob a forma de sorte. Em segundo lugar, desejo que saibamos reagir  adequadamente quando o acaso se apresentar sob a forma de azar. Pois muito do nosso destino decorre das nossas reações ao acaso. Finalmente, devemos sempre nos lembrar que fenômenos causais existem e reconhece-los cientificamente, identificando as condutas (médicas ou cotidianas) que interferem em nosso destino. Nosso “destino” depende da interação entre nossas escolhas e o acaso.  

Feliz 2014.

* Devo o título deste texto ao amigo-cientista Bruno Solano, que durante uma discussão filosófica apresentou a ideia. 

* Este texto resume o conteúdo de nossa conferência durante o debate Medicina e Fé, promovido por Padre Bento no Hospital São Rafael. O vídeo desta conferência será publicado em breve neste Blog. 

Carne Vermelha Baseada em Evidências



Meu amigo José Carlos Lima é patologista clínico, responsável pelos laboratórios do Hospital Português, Instituto Cardio-pulmonar e pelo Laboratório LPC. Zé Carlos é um provocador de discussões médico-científicas, está sempre trazendo reflexões críticas sobre paradigmas vigentes. Foi nesse intuito que Zé me entrevistou sobre o consumo de carne vermelha como fator de risco para aterosclerose, a fim de publicar no seu Boletim do Laboratório LPC. Além de desmitificar esta questão, nossa discussão passou por vários conceitos metodológicos importantes. A carne aqui é um bom pretexto para discutirmos níveis de evidências baseados em estudos observacionais. Vejam a entrevista.

Qual a relação entre o consumo de carnes vermelhas e doenças do coração?

Dois grandes estudos avaliaram esta associação, o Health Professionals Study e o Nurses’ Health Study. Estes estudos foram publicados simultaneamente nos Archives of Internal Medicine em 2012, tendo mostrado associação entre a quantidade de carne vermelha consumida e certo aumento de eventos cardiovasculares. No entanto, nem toda associação significa causalidade

Devemos salientar que estes são estudos observacionais, o que significa que o protocolo não controlou o consumo de carne nos grupos a serem comparados. São estudos que apenas comparam quem consome muita carne contra quem consome pouca carne por conta própria. Estas comparações em estudos observacionais são repletas de fatores de confusão, não suficientemente resolvidos pelas complexas análises estatísticas destes trabalhos.  

O que são fatores de confusão?

De acordo com o senso comum, o consumo de carne vermelha é ruim para a saúde. Ao mesmo tempo, este tipo de carne é das mais saborosas. Sendo assim, as pessoas que consomem menos carne são aquelas que, a despeito do sabor sedutor, optam por não consumir em excesso. Em geral, estas pessoas são diferentes das pessoas que não têm a força de vontade para restringir carne. E estas diferenças podem ser as verdadeiras responsáveis pela menor incidência de desfechos cardiovasculares indesejados, como infarto ou acidente vascular cerebral. Estas diferenças são os potenciais fatores de confusão, que podem estar causando uma ilusão do malefício da carne. 

Por exemplo, em geral pessoas que têm o perfil consumidor de carne tendem a ter menos cuidado com a saúde, alimentação é mais desregrada, bebem mais, engordam com mais facilidade, procuram médicos com menos frequência, negligenciam seus medicamentos anti-hipertensivos, etc. Portanto, o consumo de carne poderia ser apenas um marcador de hábitos saudáveis e não um “causador” direto de problemas de saúde. Fica a dúvida.


Então como resolver essa dúvida?

Para isso, são necessários os ensaios clínicos randomizados, onde o consumo de carne seria determinado de acordo com o protocolo do estudo (sorteio), deixando de ser a escolha do indivíduo.  Ao ser uma determinação aleatória, o uso ou não uso de carne não se associa com outras características do indivíduo. Isto anula os efeitos de confusão. Há inúmeros exemplos de ilusões causadas pelos estudos observacionais que são desfeitas por ensaios clínicos randomizados. Um grande exemplo é o uso de vitaminas, que geralmente aparentam ser benéficas na prevenção de câncer ou infarto em estudos observacionais, porém ensaios clínicos mostra ausência de qualquer benefício. 

Há ensaios clínicos testando o benefício do consumo limitado (ou não consumo) de carne vermelha?

Não. Portanto, não podemos afirmar categoricamente que o consumo de carne vermelha deve ser restringido. Por exemplo, há estudos observacionais que mostram associação entre consumo de café e proteção cardiovascular. Porém não há ensaios clínicos. Desta forma, não podemos ficar por aí recomendando consumo de café. O mesmo acontece com consumo moderado de vinho. Não há ensaios clínicos randomizados.

Então você libera totalmente o consumo de carne vermelha para seus clientes? 

Para falar a verdade, do ponto de vista de evidências, esse não é um tópico muito relevante a ser discutido. Minha recomendação geral é que devemos ser moderados em tudo que consumimos, incluindo carne vermelha. 

Mas essa “liberalidade” não poderia aumentar o colesterol das pessoas?

Uma vez conheci um indivíduo que era filho de uma famosa baiana de acarajé em Salvador. Sua dieta era baseada em acarajé, no café, almoço e jantar. O colesterol deste jovem era absurdamente elevado. Este nível de consumo, de fato, aumenta o colesterol. Porém, tirando estes casos extremos, o que chamamos de consumo liberado em geral não chega a afetar substancialmente o colesterol, pois a maioria do colesterol é produzido de forma endógena (pelo organismo). O colesterol depende mais de nossa predisposição do que da nossa dieta.

Há ensaios clínicos randomizados para dieta restritiva em gordura versus dieta mais liberal e, pasmem, a redução de colesterol é mínima. Na melhor das hipóteses, a redução fica em torno de 5 mg/dl. 

Porém a evidência mais importante a este respeito vem de um grande ensaio clínico, o Women’s Health Initiative Dietary Modification Trialque randomizou 48.000 mulheres para intervenção com dieta (hipolipídica e rica em frutas/vegetais) versus controle. Bem, qual foi o resultado? Ausência de redução de eventos cardiovasculares em seguimento de 8 anos. Percebam como o que se fala é muitas vezes dissociado da evidência científica.

É baseado na revisão sistemática de ensaios clínicos, que o US Prevention Task Force classifica a dieta para prevenção cardiovascular como recomendação apenas Grau C (trocando em miúdos, "faça se quiser").  

Portanto, não adianta demonizarmos certas coisas, apenas para causar a ilusão de proteção em nossos clientes. Isso representa uma atitude mais de auto-promoção do que um ato médico embasado em evidências científicas.

Então, qual a mensagem final?

Temos que consumir alimentos de forma moderada e equilibrada, um pouco de tudo. Evitando os extremos, melhoramos nossa qualidade de vida e quem sabe teremos algum benefício para a saúde. Lembremos também que total liberalidade alimentar predispõe a obesidade, mais um motivo para sermos moderados. 

Fora isso, devemos aproveitar a vida.

O Reflexo Óculo-Isquêmico: um Exemplo de Heurística de Normalização



Na profissão médica, tomamos decisões constantemente, exigimos bastante de nossa função cognitiva. Como as decisões médicas são permeadas de incerteza (sistemas complexos), precisamos explorar a fundo as formas corretas de pensar, pois armadilhas de toda ordem pode nos fazer chegar a conclusões equivocadas.

Estes equívocos decorrem do que se chamamos de heurísticas ou erros cognitivos. Estes erros existem porque nosso cérebro não é desenhado (evolutivamente) para sermos médicos ou tomarmos decisões complexas, mas sim para a sobrevivência.

Nesta postagem usarei como exemplo um dos erros cognitivos mais comuns no pensamento médico,  a heurística de normalização.

Por instinto de sobrevivência, é natural que nossa evolução tenha nos levado a querer normalizar tudo que vemos. Por exemplo, se alguém está sangrando, querer interromper o sangramento é um ato instintivo. E neste caso isto é correto.

Por outro lado, em medicina, nem tudo “anormal” deve ser normalizado. Um dos grandes exemplos é a transfusão sanguínea do paciente anêmico e criticamente enfermo, porém estável. Está demonstrado que a normalização da hemoglobina de rotina não traz benefícios clínicos, restando ao paciente desfrutar de seus potenciais malefícios. Ou a perseguição desenfreada e descriminada pelo ritmo sinusal em pacientes com fibrilação atrial crônica, mesmo tendo ensaios clínicos demonstrando que esta conduta não é superior ao controle da frequência cardíaca. Outro exemplo é a recente demonstração de que não há benefício da normalizaçãoda pressão arterial de pacientes com AVC isquêmico (vejam postagem a este respeito no Blog da Residência de Cardiologia do Hospital São Rafael).

Em cardiologia, um dos principais exemplos de heurística de normalização está no tratamento da doença coronariana. Primeiro, se achava (muitos ainda acham) que tudo entupido deveria ser desentupido. 

Há duas décadas, Eric Topol denominou de reflexo óculo-estenótico o hábito de desentupir tudo que está entupido. Este postura questionadora ganhou credibilidade após ensaios clínicos randomizados terem demonstrado que em pacientes estáveis angioplastia coronária não reduz eventos (inicialmente, os estudos COURAGE e BARI-2D). Sendo assim, do ponto de vista científico, se aceita que não devemos desentupir por desentupir (embora na prática muitos ainda façam isso).

Ao se comprovar que o reflexo óculo-isquêmico não tinha sentido, os entusiastas dos procedimento inventaram uma outra ideia: se há isquemia, temos que revascularizar. Essa ideia foi difundida fortemente por lobistas dos procedimentos de revascularização e dos métodos de imagem que testam isquemia. Resolvemos denominar esta conduta de reflexo óculo-isquêmico e nesta postagem vamos demonstrar cientificamente que isso nunca passou de um erro cognitivo, do tipo heurística de normalização.


Análise de Interação

A demonstração de que devemos revascularizar algo que está muito isquêmico viria de ensaios clínicos que demonstrassem interação entre isquemia moderada-severa e efeito benéfico da revascularização. Vale a pena aproveitar essa oportunidade para explicar o que significa estatisticamente este conceito de interação.

Interação pode ser interpretada como modificação de efeito. Quando duas variáveis têm interação entre si, significa que uma modifica o efeito da outra no desfecho. Neste caso, haveria interação se a presença de isquemia miocárdica modificasse o efeito da revascularização no desfecho eventos cardiovasculares. Porém, como vocês perceberão nesta revisão, não importa, com ou sem isquemia, revascularização não reduz desfechos maiores.

O tipo de infecção (bacteriana ou viral) possui interação com o benefício do antibiótico na cura de pneumonia. Se for viral, o antibiótico não vai funcionar, mas se for bacteriana, o antibiótico vai funcionar. Ou seja, ser infecção bacteriana modifica o efeito antibiótico de neutro para benéfico. Este é um exemplo de interação qualitativa, que muda o caráter do efeito da intervenção. 

Podemos ter também interação quantitativa, quando o que muda é a intensidade do efeito. Por exemplo, Neymar pode jogar excelentemente na seleção brasileira e apenas bem no Barcelona. Ou seja, jogar na seleção modifica o efeito de jogo de Neymar no sucesso do time. Modifica de um efeito moderado no Barcelona para um efeito de grande magnitude na seleção brasileira. Haveria então interação quantitativa entre o time e o jogo de Neymar ...

Usualmente, vemos testes de interação nas análises de subgrupo dos ensaios clínicos. O ensaio clínico tem um resultado geral e os autores avaliam se determinados subgrupos modificam esse resultado ou não. Se modificar, o valor de P da interação será significativo (P < 0.05). Observem que estas análises de subgrupo geralmente trazem o P for interaction.

Vamos aos estudos que testaram interação entre isquemia e beneficio da revascularização.


Estudo COURAGE

O mais citado ensaio clínico neste cenário é o COURAGE, o qual comparou de forma randomizada e por intenção de tratar a conduta inicial de intervenção coronária com stent versus controle, sendo que ambos os grupos foram submetidos a tratamento clínico otimizado. Este estudo foi negativo quanto ao seu objetivo primário, evidenciando idêntica incidência de morte ou infarto do miocárdio nos dois grupos.

Recente subestudo do COURAGE testou a interação estatística entre isquemia moderada-acentuada e o efeito da intervenção coronária. Isquemia moderada-severa foi definida como aquela presente em pelo menos três das seis paredes ventriculares (anterior, lateral, inferior, posterior, septal e apical). De acordo com esta classificação, 30% dos pacientes possuíam isquemia moderada-severa. Nesta análise, o tratamento intervencionista não beneficiou nem o grupo sem isquemia moderada-acentuada (19% versus 19% de morte/infarto, respectivamente), nem o grupo com isquemia moderada-acentauda (24% versus21%, respectivamente). Estatisticamente, não houve interação (P = 0,65) entre a presença de isquemia e o efeito da revascularização miocárdica percutânea.

Estudo BARI-2D

O estudo BARI-2D comparou de forma randomizada a estratégia de revascularização versus não revascularização em pacientes diabéticos com tratamento clínico otimizado. A revascularização poderia ser percutânea ou cirúrgica, a depender da decisão médica. À semelhança do COURAGE, o estudo BARI-2D não demonstrou redução de desfechos maiores (morte, infarto e acidente vascular cerebral) com a estratégia de revascularização.

Recentemente, foi publicado o subestudodo BARI 2D que testou interação entre isquemia e benefício da revascularização. Neste estudo, 1.505 pacientes (64% da amostra) foram submetidos a cintilografia miocárdica. Foi calculado o percentual de miocárdio isquêmico de acordo com análise de 17 segmentos. Não houve interação entre o percentual de miocárdio isquêmico e efeito do tratamento nos eventos cardiovasculares (P = 0,44). Ou seja, independente da carga isquêmica, não há redução de desfechos maiores com a revascularização.

Estudo STICH

O estudo STICH randomizou 1.202 pacientes com miocardiopatia isquêmica e fração de ejeção do ventrículo esquerdo ≤ 35% para revascularização cirúrgica ou tratamento clínico.12Sendo assim, o STICH testa a mesma hipótese do COURAGE e do BARI-2D, porém em uma população diferente, caracterizada por pacientes com grave disfunção sistólica do ventrículo esquerdo. Além disso, o tratamento de revascularização foi necessariamente cirúrgico, diferente dos demais trabalhos. O STICH não demonstrou redução de mortalidade com o tratamento cirúrgico, expandindo a validade externa do aprendizado proveniente do COURAGE e BARI-2D. 

Em relação à interação com isquemia miocárdica, no presente ano foi publicado um subestudo com 399 pacientes do STICH que tinham teste isquêmico realizado (eco-estresse ou cintilografia). Este trabalho demonstrou ausência de benefício da revascularização, independente da presença de isquemia (P da interação = 0,64).

Estudo FAME-II

O estudo FAME-II incluiu pacientes com lesões coronárias associadas a fractional flow reserve (FFR) < 0,80, ou seja, funcionalmente significativas. Estes pacientes foram randomizados para intervenção coronárias versus controle, sendo que todos os dois grupos receberam tratamento clínico otimizado. A incidência de morte ou infarto foi idêntica nos dois grupos, resultado semelhante ao obtido pelo COURAGE ou BARI-2D. Diferente dos ensaios clínico prévios, o FAME-II incluiu necessidade de revascularização como parte do desfecho composto primário, o que sozinho foi responsável pelo benefício obtido neste desfecho. Sendo assim, esta é mais uma evidência de que a presença de isquemia em exame complementar (FFR) não garante redução de desfechos clínicos maiores.

Recentemente foi publicado no JAMA a metaanálise “Percutaneous Coronary InterventionOutcomes in Patients With Stable Obstructive Coronary Artery Disease andMyocardial Ischemia.” Esta meta-análise incluiu estudos em que todos os pacientes tinham isquemia; ou no caso de apenas parte dos pacientes terem isquemia, os autores dos estudos passaram os dados individuais, de forma que só entraram pacientes com isquemia na meta-análise. Resultado: em uma meta-análise em que todos tinha isquemia, o efeito sumarizado da revascularização em desfechos é nulo.



Imagem de Isquemia Miocárdica: Marcador ou Fator de Risco?

O termo fator de risco denota uma variável que causa incremento no risco do paciente. Diferentemente, um marcador de risco se associa positivamente com risco, porém não é nesta variável que está a origem do risco. Não há dúvida de que isquemia miocárdica faz parte da fisiopatologia da doença coronária e serve de mediador causal de desfechos clínicos, tais como arritmia ou disfunção ventricular. No entanto, o que devemos discutir é se a detecção de isquemia em exames complementares deve ser relacionada prioritariamente ao conceito de fatorou marcador de risco.

A ideia de que isquemia miocárdica crônica deve ser tratada com procedimentos invasivos decorre do erro cognitivo de concluir causalidade a partir de uma simples associação. A presença de causalidade depende de uma série de critérios científicos, organizados por Bredford Hill. Analisaremos os três principais critérios, como forma de avaliar se isquemia é fator de risco cardiovascular: plausibilidade, associação independente e reversibilidade.

Quanto à plausibilidade, eventos coronários agudos são causados por instabilização da placa aterosclerótica. Sabe-se que isquemia miocárdica é determinada pelo grau de obstrução coronária e não do quanto vulnerável à instabilidade é a placa. Estudos angiográficos demonstram que boa parte dos infartos decorrem de placas não obstrutivas, que não causariam isquemia. Sendo assim, há uma dissociação fisiopatológica entre a presença de isquemia e risco de instabilização de placa, tornando pouco plausível que isquemia esteja diretamente associada a incidência de eventos coronários maiores. Consideremos um paciente com múltiplas placas não obstrutivas (< 50% de estenose) no leito coronário, acompanhadas de uma única placa obstrutiva (> 70% de estenose) que cause isquemia. Um eventual implante de stent nesta placa obstrutiva reduzirá a isquemia, porém o paciente continuará vulnerável ao infarto decorrente das outras placas que não causam isquemia.

Neste mês foi publicado um subestudo doCOURAGE demonstrando que a presença de isquemia na cintilografia nãoé preditor independente de risco após ajuste para anatomia coronária e função ventricular. A ausência de associação independente entre isquemia residual e risco cardiovascular sugere que esta relação é mediada por outras variáveis de risco que são simultaneamente associadas ao preditor e ao desfecho, ao que se chama de variáveis de confusão. Isto é mais uma sugestão de que isquemia não é o principal fator de risco da determinação do prognóstico.

Por fim, reversibilidade é o critério mais importante de causalidade. Este ocorre quando o tratamento da condição promove redução de risco do paciente. Por exemplo, tratamento do LDL-colesterol promove redução de infarto; redução de pressão arterial promove redução de acidente vascular cerebral. Sendo assim, elevação de colesterol e pressão arterial são de fato fatores de risco para eventos cardiovasculares. Por outro lado, como vimos acima, o tratamento da isquemia com procedimentos invasivos não reduz risco de infarto ou morte cardiovascular. Não é reversibilidade,  então isquemia não tem relação causal com prognóstico.

Portanto, as evidências apontam que, na predição de evento aterotrombótico coronariano,  isquemia miocárdica estável deve ser interpretada como marcador de risco e não como fator de risco a ser tratado com procedimentos de revascularização.

Percebam então que todas as evidências dizem as mesma coisa. Isquemia não determina que devemos revascularizar. Então por que as pessoas dizem "vamos fazer uma cintilografia para ver se tem isquemia e decidir se faremos angioplastia?" Isto decorre de uma combinação de conflito de interesses, heurística de normalização e confusão entre fator e marcador de risco.


Mudança para o Paradigma Clínico

Diante do exposto, o verdadeiro norteador da necessidade de revascularização deve ser o quadro clínico. Mais do que exames que comprovem isquemia, o quadro clínico representa a verdadeira avaliação funcional do paciente. Se a isquemia está interferindo negativamente no cotidiano do indivíduo, devido à presença de sintomas, a revascularização pode trazer benefício. Este benefício está comprovado pelo estudo COURAGE, que demonstrou melhor controle de sintomas quando o paciente é revascularizado.

Estatística americana mostra que apenas metade das intervenções coronárias percutâneas eletivas são classificadas como claramente apropriadas, sendo que a maioria dos casos inapropriados decorre da realização de procedimentos em pacientes assintomáticos. Isto parece ser mediado em grande parte pelo fenômeno que denominamos reflexo óculo-isquêmico.Este reflexo deve ser corrigido por uma prática médica centrada no paciente e embasada em evidências.

Ademais, em uma era que devemos evitar o desperdício de recursos com procedimentos fúteis, as melhores evidências disponíveis suportam a idéia de que para pacientes com isquemia crônica, menos pode ser mais (less is more). 




* Esta postagem é uma versão do Ponto de Vista in press nos Arquivos Brasileiros de Cardiologia e da Letter to the Editor in press no Circulation, sob o título The Oculo-ischemic Reflex. Ambos escritos em parceria por Luis Correia, Márcia Noya e José Augusto Barreto Filho. 

* Esta portagem teve os seguintes objetivos didáticos: alertar para armadilhas mentais sob a forma de heurística, definir o fenômeno estatístico de interação, exercitar o pensamento diferencial entre marcador e fator de risco, aguçar o senso clínico da tomada de decisão.

O Politicamente Correto e as Recomendações de Hábitos de Vida



Nós médicos, em especial cardiologistas, vivemos recomendando exercício físico e dieta saudável (pobre em gordura saturada, ricas em frutas, vegetais, peixes) para prevenção cardiovascular. No entanto, poucos param para pensar no nível de evidências a respeito destas recomendações. Independente do nível de evidência, soa bem, é politicamente correto falar em hábitos de vida saudáveis, mesmo que o médico não os obedeça pessoalmente ou que em alguns casos a recomendação deixe o cliente mais frustrado do que protegido contra um infarto.

Nesta postagem, faremos uma revisão dos níveis de evidência destas recomendações, o que nos levará a uma análise crítica de seu impacto global.

Vale salientar que se tenho um conflito de interesse pessoal, este é a favor de atividade física e alimentação adequada, quem me conhece sabe disso. No entanto, meu aparente entusiasmo por estes hábitos se baseia mais na qualidade de vida que estes me proporcionam, do que na convicção de que estes fazem bem ao meu coração.

No meu caso, os hábitos me agradam, me servem de lazer, me tornam mais sociável. Porém imaginem uma pessoa que não gosta de fazer exercício. Por exemplo, um cientista amigo nosso, inteligência privilegiada, blogueiro, há alguns anos me falou que não gosta de se exercitar, não gosta mesmo. Será que como cardiologista devo dizer que ele perderá a oportunidade de reduzir seu risco cardiovascular se não se exercitar? Onde está a evidência disso?

A verdade é que isto não está definitivamente demonstrado. A maioria das evidências se resume a estudos observacionais e a história está repleta de exemplos indicando que estudos observacionais possuem grande possibilidade de errarem quanto ao impacto de hábitos de vida. Nestes estudos, aparentes benefícios são normalmente mediados por fatores de confusão que se associam aos hábitos. Estudos observacionais demonstram que chocolate faz bem ao coração, que café e vinho reduzem mortalidade geral e cardiovascular, que uso de suplementos vitamínicos reduzem câncer e doença cardiovascular e que terapia de reposição hormonal reduz risco de doença cardiovascular. Nos dois últimos casos, temos ensaios clínicos que contradizem estas observações, mostrando que estes efeitos não são verdadeiros, haviam sido mediados por fatores de confusão. Nos três primeiros casos, permanece a grande dúvida.

Considerando o potencial para fatores de confusão, é muito possível que estudos randomizados venham a contradizer os observacionais. Foi exatamente o que aconteceu com a idéia de prescrição de exercício em pacientes com insuficiência cardíaca. Ao contrário da expectativa, o ensaio clínico HF-ACTION não demonstrou benefício de programas de atividade física. 

Em prevenção primária, não há ensaio clínico randomizado avaliando se exercício reduz risco cardiovascular. Todos são estudos observacionais, repletos de fatores de confusão, pois quem se exercita é muito diferente do que aqueles que não se exercitam. É certo que o grupo que se exercita tem um perfil de saúde melhor do que os sedentários. Pode ser exatamente esse perfil que os faz (ou os permite) se exercitarem. E não o contrário. 

Vale salientar que os estudos observacionais utilizam de análise multivariada a fim de ajustar para estes fatores. Porém, sabe-se que sempre fica efeito de confusão residual. Esta solução estatística não é suficiente. Neste caso, seria essencial o método intervencionista randomizado, para anular os fatores de confusão. Quando randomizamos, os grupos tornam-se idênticos, não há mais confusão. Infelizmente, não há este desenho de estudo avaliando o impacto da atividade física em desfechos cardiovasculares. 

Portanto, não sabemos: exercício pode ser bom (como se espera), neutro ou ruim (inesperado, mas foi o caso da terapia de reposição hormonal; assim como da vitamina E aumentando risco de câncer de próstata).

No entanto, médicos ficam por aí superestimando o benefício destas medidas, tal como ouvi no rádio um dia desses: “se você se exercitar, reduzirá seu risco de infarto em 90%”. Puxa vida, nunca vi um tratamento que praticamente anule o risco.


US Prevention Task Force

Na semana passada, o US Prevention Task Forcepublicou as indicações sobre dieta e exercício para prevenção cardiovascular, definindo-as como grau de recomendação C. O Task Force utiliza o Sistema GRADE de recomendação, já comentado neste Blog. Só para lembrar, graus A e B recomendam a conduta, grau C é usado quando a conduta não é recomendada em geral, mas individualmente pode ser considerada, enquanto grau D é contra-indicação. Ou seja, o Task Force não contra-indica, porém chama atenção de que estas recomendações não são obrigatórias, podendo ser recomendadas a depender do caso.

Esse baixo nível de recomendação é justificado pela excelente revisão sistemática feita pelo Task Force: não existe ensaio clínico em exercício e, para desfechos clínicos, existe apenas um ensaio clínico em dieta saudável. Este é o Women’s Health Initiative, que randomizou 48.000 mulheres para aconselhamento intenso sobre dieta versusconduta padrão, não demonstrando tendência alguma a prevenção de desfechos cardiovasculares.

O restante dos ensaios clínicos avaliaram desfechos substitutos, como medida de colesterol, pressão arterial e adiposidade. A revisão demonstra que há melhora estatisticamente significante destes desfechos, porém de mínima magnitude, sem relevância clínica. Por exemplo, a redução do LDL-colesterol com medidas de hábitos de vida é da ordem de 5 mg/dl.

Neste contexto, aproveito para analisar o Lyon Diet Heart Study, um ensaio clínico randomizado que sugeriu ser a dieta do mediterrâneo capaz de prevenir reinfarto, com redução absoluta do risco de infarto de 16% (NNT = 6), um efeito impressionante, nunca alcançado por uma terapia farmacológica. Este é mais um exemplo da falta de poder estatístico fazendo com que o acaso promova resultados impressionantes em estudos pequenos. Este estudo tinha apenas 400 pacientes e nem mesmo cita o cálculo do poder estatístico. Além disso, este foi um estudo truncado, agravando ainda mais o risco (quase certo) deste inverossímil resultado ter sido obra do acaso. É um bom exemplo de um ensaio clínico cuja informação tem alta probabilidade de ser falsa.

Baseado nestes argumentos, o grau de recomendação C significa o seguinte: se for conveniente, recomende; do contrário, não encha o saco de seu paciente. 

Pessoalmente, eu faço exercício pois me é conveniente; se não fosse, eu não faria. Quanto à dieta, deve ser sugerido um padrão saudável, porém sem radicalismo ou sem a demonização de certos alimentos que fazer parte de nossa cultura do lazer. Acarajé, não devemos comer todo dia, até porque é muito calórica. Mas no domingo, não há problema. Se a pessoa tem colesterol elevado, deve usar estatina, isso sim. Parece óbvio o que estou falando, porém muitas vezes perdemos a perspectiva da evidência e sustentamos excessivamente nossa recomendação neste tipo de medida.

Que mal faria sermos politicamente corretos e enaltecermos (de forma falsa) o benefício dos hábitos de vida no consultório e na imprensa?

O Task Force traz esta reflexão:

Potential Harms: Harms may include the lost opportunity to provide other services with a greater health effect.

Em nome do politicamente correto, é comum a conduta de primeiro tentar medidas de hábitos de vida, em detrimento de terapias com eficácia comprovada. Ou seja, “se você ajustar os hábitos de vida, não será necessário o uso de remédio por enquanto (estatina, anti-hipertensivo).” Ora, seria trocar um tratamento cujo benefício clínico é largamente comprovado (e de grande magnitude em alguns casos), por outro cujo benefício clínico não está comprovado. E essa cultura prevalece no consciente coletivo, de forma que o paciente usualmente prefere tentar primeiro resolver o problema de forma mais natural. 

Natural é desenvolvermos doença cardiovascular na medida que a envelhecemos. Se não queremos esse natural, temos que usar medidas mais agressivas do ponto de vista preventivo, mesmo que soem como não anti-naturais.Se há condutas preventivas comprovadas, estas devem ser adotadas para quem precisa, e não ficar a mercê do politicamente correto.

Usualmente falo contra a medicalização da sociedade. Veja que nesse momento o discurso parece diferente. Tentar manter o mesmo discurso neste momento soaria como politicamente correto, mas o que importa é o benefício para o paciente. Quando a droga é benéfica, deve sim ser utilizada. 

Perda de Peso

Essa discussão pode ser ampliada para o problema da obesidade. Claro que é melhor não ser obeso e a recomendação de perda de peso deve ser feita nos consultórios médicos. No entanto, sabemos que as medidas dietéticas e farmacológicas para perda de peso são pouco eficazes (ensaios clínicos) e muito pouco efetivas (mundo real) em relação à magnitude da perda ponderal. Em crianças, educação alimentar pode remodelar definitivamente o biótipo da pessoa, ter o foco no peso é muito importante. Porém, são poucos os gordinhos que (sem cirurgia bariátrica, cujo impacto em desfechos clínico ainda precisa ser testado) conseguem se tornar definitivamente magros. Ou melhor, alguma dieta maluca até consegue isso temporariamente, porém a maioria volta ao seu estado natural tempos depois. 

Reconheço esse discurso como niilista, mas é assim mesmo. Essas pessoas passam a vida se martirizando, sentindo-se culpadas, inferiores. Os amigos e parentes passam a vida censurando essas pessoas. Obesidade não é bom. No entanto, não há demonstração clínica de que a perda de peso reduza eventos clínicos cardiovasculares.

Em outubro de 2012, resultados preliminares do ensaio clínico Look AHEAD foram anunciados na página do NIH, patrocinador do trabalho. Trata-se de uma ensaio clínico que randomizou 5.000 diabéticos obesos para programa intenso de dieta e exercício versus terapia padrão. Não houve redução de eventos cardiovasculares. Além disso, o impacto da perda de peso no controle do diabetes foi modesto.

Se fala tanto no problema epidemiológico da obesidade, porém a mortalidade cardiovascular está progressivamente diminuindo no Brasil e no mundo ocidental. Isto porque maior impacto está no controle do colesterol e da pressão arterial.

Observem bem, não estou defendendo a obesidade. A recomendação de perda de peso deve existir.  Porém deve existir na proporção da evidência que a suporta e não baseada na impressão visual ao ver uma pessoa acima do peso. Precisamos contextualizar o caso, quando se trata de uma pessoa que sempre foi acima do peso. Precisamos mudar o foco para qualidade de vida. E qualidade de vida depende de auto-estima. Portanto, se esta pessoa dormir bem (não tiver apnéia do sono), tiver colesterol controlado (com droga ou sem droga) e pressão normal, deixe ela ser feliz. Não diga “obesidade é uma doença”. Obesidade não é doença, é fator de risco.E como fator de risco é mediada por outros, que podem ser controlados. Se estas coisas estiverem bem, não precisamos demonizar o biotipo da pessoa.

O fato de uma fator ser associado a risco não é condição suficiente para que seu controle reduza o risco. Isso tem que ser demonstrado.

Medidas de hábitos de vida e perda de peso devem existir no diálogo com os pacientes, porém de forma inteligente e contextualizada.

Pensar no nível de evidência que suporta nossas recomendações pode trazer mais empatia ao diálogo com nossos pacientes. Temos quer ser mais enfáticos no controle do colesterol e da pressão arterial e na recomendação contra do tabagismo. Já nas recomendações sem comprovação de benefício, estas devem se basear mais na qualidade de vida que elas proporcionam. E se uma conduta traz qualidade de vida, isso depende muito do estilo e crença de nosso paciente.

No raciocínio medico, o politicamente correto serve de marketing pessoal. Um marketing medíocre.

Meta-Realidade: revascularização cirúrgica é melhor do que percutânea


Depois de um feriado inundado por uma festa acéfala, na qual Lepo Lepo é a melhor música (convido-os a reler nossa portagem do carnaval de 2012, um link irônico entre axé e medicina),  precisamos colocar nosso cérebro para funcionar novamente. Sendo assim, nada melhor do que discutir uma meta-análise.

Na semana passada, foi publicado no JAMA Internal Medicine a revisão sistemática dos ensaios clínicos randomizados que compararam cirurgia de revascularização miocárdica versus intervenção coronária percutânea (“angioplastia”). A meta-análise (compilação estatística dos dados) evidenciou que a cirrugia é superior à angioplastia no que diz respeito à prevenção de morte, infarto e controle de sintomas. 

A conclusão foi clara e objetiva:“In patients with multivessel coronary disease, compared with
PCI, CABG leads to an unequivocal reduction in long-term mortality, myocardial
infarctions and repeat revascularizations.”

Nesta postagem, discutiremos a translação deste achado científico para a prática clínica. Reforçaremos o raciocínico clínico baseado em evidências, no qual partimos do conceito provado cientificamente e em seguida consideramos a individualidade do paciente no processo de decisão.

Mas antes disso, vamos aproveitar para abordar aspectos metodológicos de meta-análises. 

Meta-análise: Heterogeneidade

Usualmente, o que mais se valoriza na leitura de meta-análises é a estimativa sumária, resultante da compilação dos diferentes trabalhos. Esta estimativa é o diamante que aparece no gráfico conhecido como forest plot (veja abaixo). Porém, tão importante (ou talvez mais importate) que o diamante, é a análise de heterogeneidade.

Imaginem se fizermos um experimento que mostra um certo resultado. Podemos nos perguntar, esse resultado é verdadeiro? A melhor forma de avaliar essa veracidade seria repetir o experimento várias vezes e ver se o mesmo resultado se repete. Mas isso não ocorre, quem faz um ensaio clínico só faz uma vez e publica. O que faz uma meta-análise é simular esta repetição de experimentos, utilizando os estudos que existem na literatura. Hipoteticamente, ao realizar uma meta-análise, estamos repetindo o experimento várias vezes. E nesta repetição, avaliamos heterogeneidade entre os estudos, vendo se o resultado se repete nos diferentes experimentos. Se os experimentos se confirmam entre si, ficamos mais certos de que aquele resultado não decorreu do acaso.

Desta forma, um parâmetro importante no resultado de uma meta-análise é a medida de heterogeneidade,representada por I2, o qual indica o percentual da variação do resultado entre os estudos que ultrapassa o efeito do acaso. 

Explicando melhor, estudos diferentes nunca terão resultados idênticos, sempre haverá alguma diferença. Estas diferenças resultam de variação aleatória (acaso) + diferenças verdadeiras. Se as diferenças são só pelo acaso, elas vão até um certo ponto. Além de um certo ponto, o que há de diferença pode ser devido a discordância real entre os estudos. O I2 é o percentual da variação entre os estudos que decorre de diferenças reais, de discordâncias verdadeiras. Interessante notar é que quanto maior o tamanho amostral dos estudos, mais fácil detectar heteregeneidade, pois sendo estudos mais precisos, o efeito do acaso se reduz e eventuais diferenças tendem a ser mais reais. 

Pois bem, na meta-análise em questão I2 = 0%, ou seja, os estudos não apresentam heterogeneidade alguma quanto ao impacto dos tratamentos no desfecho. Não há discordância real entre os estudos, todas as diferenças são decorrentes do acaso. Visualmente (gráfico), dos 6 estudos, 4 estão dizendo a que cirurgia é melhor e 2 mostram resultados semelhantes entre os dois tratamentos. Porém observem que estes 2 estudos distoantes apresentam grandes intervalos de confiança (imprecisos), podendo esta discordância ser decorrente do acaso. E o I2 estima que toda a discordância decorreu do acaso. 

Assim, interpretamos que a análise da totalidade das evidências reforça o conceito de que pacientes operados apresentam menor mortalidade do que pacientes submetidos a angioplastia.

Quando há muita heterogeneidade torna-se questionável a combinação do resultado de estudos, pois considera-se que devem ter sido diferenças metodológicas ou do tipo de população representada ou do tipo de tratamento empregado que levou àquelas discordâncias entre os trabalhos. Seria como combinar coisas diferentes, que não devem ser combinadas: mixing apples and oranges. 

A esta altura vocês devem estar se perguntando o que é muita heterogeneidade. Não há um número mágico, mas se considera que idealmente o I2 deve ser < 40% para que os estudos sejam compilados. Entre 40% e 60% seria aceitável e I2 > 60% já torna a compilação problemática. 

Outra questão que devemos observar é o tipo de diferença entre os estudos, se qualitativas ou quantitativas. Na primeira, os estudos de fato discordam em relação à direção do efeito. Na segunda, os estudos podem dizer a mesma coisa (há redução de mortalidade), o que difere é o grau de redução. 

Meta-análise: Estimativa Sumária

Uma vez analisado o parâmetro de heterogeneidade, partimos para a estimativa sumária, que é a medida que resulta da compilação entre os estudos. Esta não é a simples média dos resultado dos estudos. Na verdade, é como uma média ponderada. Ou seja, quanto mais preciso é o estudo, mais peso este terá no resultado da meta-análise. Estudos maiores tendem a ter mais influência no resultado final do que estudos pequenos. Estudos com estreitos intervalos de confiança terão mais influência do que estudos menos precisos. Observem no forest plot abaixo que a estimativa pontual do resultado de cada estudo é representado por um quadrado. Vejam que este quadrado varia de tamanho, pois este tamanho significa o peso que cada estudo teve na estimativa sumária.



Compilando os dados de diferentes estudos (simula a repetição dos experimentos) teremos uma infomação científica mais precisa. Ou seja, se repetimos o experimento várias vezes, saberemos mais a respeito da questão do que na análise de apenas um experimento. Por este motivo, o intervalo de confiança da medida sumária (o diamante do gráfico) é sempre mais estreito do que o intervalo de confiança dos trabalhos individuais. Por isso é mais provável que a significância estatística seja alçancada quando temos a compilação dos resultados, pois os intervalos de confiança ficam mais estreitos.

Sobre o diamante, o comprimento dele representa o intervalo de confiança, enquanto a medida pontual (no caso, do risco relativo) é representada pelo centro do diamante

Por exemplo, no estudo FREEDOM houve redução da mortalidade com cirurgia em relação a angioplastia e isso foi motivo de uma postagem neste Blog. Mesmo sendo a diferença estatisticamente significante naquele estudo, não podemos garantir que este achado não decorreu do acaso. E quando pensamos que a análise isolada de morte foi um desfecho secundário naquele estudo, a possibilidade do acaso fica superior ao demonstrado pelo valor de P. O que a meta-análise nos traz é a repetição do experimento quanto a este resultado. Ou seja, na medida em que todos os estudos estão falando a mesma coisa (redução de mortalidade com cirurgia), ficamos mais seguros que no FREEDOM este achado representou a verdade. 

É por isso que resultados positivos em desfechos secundários são mais confiáveis em meta-análises do que em estudos primários. Na medida em que o resultado se repete nos diferentes estudos, fica menor aquele nosso receio de que o resultado positivo decorreu do acaso.

Aqui estamos na situação ideal, a compilação de dados de estudos com resultados homogêneos.  Diferente desta situação, na postagem Meta-Ilusão, criticamos uma meta-análise que compilou resultados de estudos heteronêneos. Naquele exemplo, foram vários estudos pequenos e homogêneos + um grande estudo que sozinho mostrava o Dabigatran como causador de infarto. O resultado final da meta-análise foi dirigido por este grande estudo que tinha mais peso na estimativa sumária. Ou seja, aquilo não foi exatamente uma meta-análise, mas sim a repetição do resultado de um grande estudo. Não foi uma boa situação para compilar os dados, pois havia muita heterogeneidade. 

Mas se a decisão for por compilar dados heterogêneos, deve se utilizar um método estatístico que previne excessiva influência do estudo que distoa da maioria. É o modelo randômico (random-effect), o qual reduz o peso de estudos que distoam, mesmo que estes sejam estudos maiores. No entanto, na meta-análise do Dabigatran os autores não usaram este método. Eles usaram erradamente o modelo fixo (fixed-effect), o mesmo que foi usado (corretamente) na meta-análise da presente postagem. Resumindo, quando há heterogeneidade, deve ser usado o modelo randômico e quando não há heterogeneidade, deve-se usar o modelo fixo. Assim fica explicado o uso adequado do método estatístico. 

Voltando à meta-análise do Dabigaran, quando recalculamos a estimativa sumária pelo método randômico, a associação de Dabigatran com infarto desapareceu. Na época, em co-autoria com Antônio Alberto Lopes, publicamos esse novo cálculo neste Blog e posteriormente no JAMA Internal Medicine.

Outra questão que devemos observar é que estamos aqui com uma meta-análise de grandes estudos. Isso representa um nível de evidência melhor do que meta-análises de pequenos estudos, que geralmente são realizadas antes da publicação de um grande ensaio clínico. Neste segundo caso, há uma probabilidade de 30% do resultado da meta-análise estar errada, de acordo com um artigo que comparou estes resultados com os ensaios clínicos grandes que surgiram posteriormente. Enquanto uma revisão sistemática de grandes estudos de fase III representa uma forte evidência, uma revisão sistemática de pequenos estudos deve ser vista como geradora de hipóteses. 

Por fim, a qualidade da conclusão da meta-análise depende da qualidade metodológica dos estudos individuais. No presente caso, temos uma revisão apenas de ensaios clínicos randomizados, de boa qualidade, incluindo o Syntax e o FREEDOM, ambos discutidos previamente neste Blog. 

Meta-análise: Análise de Sensibilidade

Por fim, aproveitaremos esta meta-análise para abordar um terceiro aspecto metodológico, que é a análise de sensibilidade. Essa análise avalia o quanto sensível é o resultado a certas características dos estudos. É uma análise de subgrupo, mas não subgrupo de pacientes, mas subgrupo de estudos, divididos de acordo com certas características. Vejam na tabela abaixo, que os estudos são divididos naqueles que só incluíram diabéticos ou incluíram qualquer tipo de paciente. Valor de P da heterogeneidade entre os dois grupos = 0.80, mostrando que o resultado é o mesmo em estudo de diabéticos ou em estudo que incluem diabéticos e não diabéticos. Na postagem do FREEDOM, argumentamos que o resultado a favor da cirurgia provavalmente não se limitava a diabéticos, que foram os pacientes incluídos neste estudo. Pelo princípio da complacência, o resultado seria o mesmo em um não diabético que tivesse a mesma gravidade angiográfica. Na verdade, incluir diabéticos foi apenas uma forma de selecionar pacientes graves angiograficamente. O FREEDOM ia além do FREEDOM, e essa nossa visão ficou confirmada pela análise de sensibilidade aqui presente. Além disso, os autores fizeram análise de sensibilidade em relação ao tipo de stent e mostraram que não importa, o resultado é o mesmo. 

Análise de sensibilidade é a análise de subgrupo de meta-análises. 


Desta forma, revisamos três aspectos da meta-análises: análise de heterogeneidade, estimativa sumária (diamante) e análise de sensibilidade.

Após esta breve revisão, vamos ao raciocínio clínico.

Cirurgia versus Angioplastia: A Decisão

Fato baseado em evidências: cirurgia é melhor que angioplastia na redução de mortalidade, infarto e controle de sintomas. O que isso quer dizer na prática clínica? Cirurgia será sempre a melhor escolha? Este é um bom exemplo para demonstrar que medicina baseada em evidência não é copiar a conclusão de um trabalho científico (cirurgia em todos). O processo mental deve partir do conhecimento científico (qual o melhor tratamento, o quanto este é melhor, qual o preço a ser pago pelo melhor tratamento), que será o norte de nosso raciocínio. A partir daí, vamos avaliar as particularidades do paciente e julgar se este é o paciente que devemos pagar o “preço” de um tratamento mais agressivo para desfrutar de sua superioridade. Muitas variáveis devem influenciar nessa decisão. 

Em primeiro lugar, devemos avaliar a magnitude do benefício a ser desfrutado. Para isto, precisamos partir do geral ao específico. A estimativa sumária do risco relativo da cirurgia para mortalidade é 0.73, o que implica em 27% de redução relativa do risco. Sabemos que a redução relativa obtida com tratamentos em geral tende a ser constante em diferentes tipos de pacientes. Porém, esta mesma redução relativa de 27% resultará em grande redução absoluta em um paciente de alto risco ou uma pequena redução em um paciente de baixo risco. Se a mortalidade do paciente é 20% sem cirurgia, redução de 27% equivale a 5% de redução absoluta (NNT = 20, grande impacto); mas se a mortalidade do paciente for estimada em 5%, redução de 27% equivale a  apenas 1.4% de redução (NNT = 71, pequeno impacto) - redução absoluta do risco = redução relativa x risco basal do paciente. Os trabalhos normalmente descrevem o risco relativo, pois este tende a ser constante em diferentes populações, tem boa validade externa. Mas o verdadeiro impacto na vida do paciente é a redução absoluta do risco, a qual varia com seu risco basal. Para um paciente pouco grave, o benefício deste tratamento mais agressivo é pífio, não vale a pena. Exatamente por isso que os trabalhos selecionaram pacientes mais graves, quase sempre triarteriais. Neste grupo de pacientes, o NNT da cirurgia foi 37. São nesses que a cirurgia pode valer pena. 

(Para revisão dos conceitos abordados nos parágrafos acima, sugiro as postagens "Pensamento Relativo" e "A Magia do NNT").

Neste momento entra a segunda questão. O “preço” que será pago por este benefício. Imaginem um muito idoso de alto risco cirúrgico. Este terá uma cirurgia muito sofrida, com risco de complicações e até sequelas. Mesmo que venha a reduzir sua mortalidade, deve-se avaliar se queremos pagar esse preço com um procedimento de tamanha agressividade. Sim, nem sempre queremos pagar o “preço” da redução de mortalidade. Sabem porque? Porque saber que cirurgia reduz mortalidade não é significa salvar a vida de todo paciente cirúrgico e deixar morrer todo paciente com angioplastia. Não é algo dicotômico assim. Como explicamos na postagem do NNT, precisaremos tratar com cirurgia um grande número de pacientes para que 1 deles tenha a vida salva por ter feito cirurgia ao invés de angioplastia. Se NNT da cirurgia versus angioplastia para prevenir uma morte é 37 (grande impacto), isto quer dizer que 36 de 37 pacientes não se beneficiarão desta redução de morte, mas pagarão o “preço” da cirurgia. 

Desta forma, medicina baseada em evidência não é seguir sempre o resultado de um ensaio clínico. Devemos computar o quanto a cirurgia é melhor e saber caso a caso se vale a pena pagar o “preço” da cirrugia. Em pacientes de baixo risco cirúrgico, vale a pena, mas na medida em que o risco cirúrgico vai aumentando, essa convicção pela cirurgia vai diminuindo. Nesta análise entram variáveis do risco basal, do risco cirúrgico e também as preferências, os valores de nosso paciente. É algo complexo, que mistura o pensamento lógico com o pensamento intuitivo. No final do processo o lado direito do cérebro (intuitivo) deve contribuir com o lado esquerdo (racional). É a união da arte médica com a evidência científica, cada um como sua função específica.

É comum o equívoco de que medicina baseada em evidências representa uma tirania de seguir sempre o resultado de um estudo. Daí quando o resultado vai de encontro a certos interesses (ou entusiasmos), alguns começam a combater bons estudos com argumentos pífios. Mas este é o argumento errado. O argumento certo a favor da angioplastia não é aquela balela de sempre: críticas à amostra estudada, crítica ao stent utilizado, etc. O argumento certo a favor da angioplastia (a despeito da cirurgia ser melhor) é o raciocínio que pondera a magnitude do benefício desfrutado com a cirurgia e o “preço” a ser pago por este procedimento mais agressivo. A grande vantagem da angioplastia é sua “simplicidade”. Por vezes queremos desfrutar desta vantagem. 

Por fim, devemos lembrar que para redução de morte ou infarto, angioplastia não é melhor que tratamento clínico. Portanto, na ausência de escolha pela cirurgia, o tratamento clínico torna-se uma opção bastante razoável. A presença de sintomas significativos ou instabilidade do paciente tende à escolha da intervenção percutânea, do contrário, tratamento clínico é uma boa opção.

A consistência de resultados entre diferentes trabalhos reforça o paradigma científico: é incontestável, cirurgia é melhor do que angioplastia em pacientes triarteriais. A partir disso, como médicos pensantes, devemos avaliar nosso paciente e fazer a melhor escolha, considerando suas características clínicas e suas preferências pessoais. Essa é a racionalidade da medicina baseada em evidências. 

Dr. Lyra, liderança, ciência e ética.

José Wilker: morte natural ou anomalia evitável?


O ator José Wilker morre subitamente, aos 66 anos, do que provavelmente tenha isso um infarto acompanhado de fibrilação ventricular. Um fato triste, um grande ator em plena fase produtiva. Sentiremos falta. Acompanhando o fato, surge espontaneamente a visão de que algo melhor deveria ter sido feito para prevenir sua morte, ele não deveria ter morrido. No pensamento comum, a morte de José Wilker, tão jovem (mesmo?), é uma anomalia. 

Será mesmo? O quanto este acontecimento é anormal?

Um exemplo deste tipo de pensamento foi a reportagem da Revista Istoé que se seguiu a sua morte, trazendo uma revisão das estratégias preventivas do infarto e sinalizando que provavelmente José Wilker não fez exames cardiológicos suficientemente capazes para prevenir seu desfecho fatal. 

Este tipo de colocação resulta da forma de pensamento intuitivo caracterizado pela dicotomia da causalidade. Esta forma comum de pensar toma corpo em detrimento do pensamento probabilístico, estatístico, científico.

Enquanto o pensamento probabilístico infere que uma medida de prevenção reduz em alguma magnitude a probabilidade de morte cardíaca, o pensamento dicotômico interpreta o mundo como um interruptor que a gente liga ou desliga de acordo com nossas ações. Inconscientemente, nossa mente funciona assim: se a prevenção correta fosse feita, Wilker não morreria, enquanto a culpa da morte dele está em alguma falha na forma de prevenção. É a procura de um nexo causal para todo fato marcante, a procura de um bode expiatório. Encontrar uma explicação causal para tudo nos deixa com uma falsa sensação de controle, nos traz um certo conforto cognitivo. 

Porém, se pensamos de forma menos cartesiana, entenderemos que os eventos da natureza decorrem de uma multiplicidade de causas, que interagem entre si de forma complexa. Isto torna impossível predizer quando e como um fenômeno acontecerá. Podemos apenas predizer a probabilidade do ocorrido. Em outras palavras, todo José Wilker têm um probabilidade de morte cardíaca que vai aumentando a cada ano.  E aos 66 anos, mesmo sem muitos fatores de risco, sua probabilidade fica no nível intermediário, em torno de 10% em 10 anos. Bem, ele pode, casualmente, ter caído nestes 10%, mesmo que tenha feito tudo certo. Por isso, antes de encontrar um bode expiatório, devemos refletir se o que ocorreu estava dentro do previsto, se isso não foi  um fenômeno natural. 

Uma alternativa boa para impedir casos como este seria voltar ao início do século passado, quando a média de expectativa de vida não passava de 40 anos. Naquela época era bom, pois não dava tempo de termos morte súbita cardíaca. Nem dava tempo da visão de leitura piorar ou dos dentes começarem a dar problema. Aquilo é que era vida. Agora que vivemos muito mais, temos que aprender a lidar com certos ocorridos de forma natural. Volta e meia, a despeito da evolução nas verdadeiras estratégias de prevenção (controle de fatores de risco), alguém morre subitamente. Coisa estranha ou coisa natural?

Daí entra um outro viés cognitivo típico de nossa mente não estatística. A supervalorização de fenômenos raros. Fenômenas raros devem ser interpretados como exceções, como obra do acaso, decorrente daquela probabilidade de 10% de evento coronário em período de 10 anos. O raro não deve nortear as regras. No entanto, nós supervalorizamos o raro, pois as coisas incomuns marcam mais do que o comum. O comum fica banalizado, o raro supervalorizado, mesmo que estatisticamente o comum seja muito mais importante.

E aí vem o melhor. Considerando a morte de José Wilker uma anomalia que deveria ter sido evitada, precisamos rever nossa estratégia preventiva. Daí a Revista Istoé, munida da opinião de “especialistas”, sugere que assintomáticos devem realizar exames ainda mais sensíveis, para diagnosticar doenças ocultas, uma recomendação em prol do overdiagnosis, distorção tão comentada neste blog (postagens Papai Noel e George Bush). 

José Wilker morreu de coração porque viveu até os 66 anos. Era assintomático e controlava bem seus fatores de risco, fazia o que deveria ter feito e não precisava de pesquisa de doença coronária. Porém prevenção não é impedimento total do evento indesejado. Wilker poderia não ter doença coronária obstrutiva e o que ocorreu foi uma instabilidade de placa anteriormente sem significado anatômico ou funcional (nada a fazer além do controle de fatores de risco). Ele poderia ter uma placa obstrutiva, porém sabemos que procedimentos nesta placa não reduz mortalidade (nada a fazer). Ou ele poderia ser um dos raros de assintomáticos com doença coronária de gravidade extrema, cujo procedimento de revascularização reduziria sua mortalidade. Porém, para cada caso raro deste tipo, há o prejuízo de tantos que sofrem overdiagnosis com a conduta do rastreamento excessivo da doença, gerando nestes indivíduos procedimentos desnecessários, que causam desconforto, sequelas e até morte. O overdiagnosis se define como um diagnóstico correto, porém  o potencial malefício é maior do que o potencial benefício do diagnóstico. Este é o pensamento probabilístico. 

Nossa mente não estatística trabalha com memória seletiva. Nunca esqueceremos o raro dia em que encontrarmos um caso que se beneficiou de um rastreamento. Porém, em nossa mente crente, esqueceremos do assintomático que morreu na cirurgia cardíaca ou dos muitos que fizeram exames invasivos normais ou procedimentos de revascularização desnecessários. 

Observem como nosso cognitivo nos trai pelo somatório de vários viéses: o pensamento anti-estatístico, tropismo por causalidade, supervalorização do raro e memória seletiva. Haja armadilhas mentais!

Ao ter humildade para reconhecer nossa limitação em predizer  e prevenir fenômenos de forma determinística, nos aproximamos de um raciocínio médico racional, aumentando assim a probabilidade de alcançarmos os tão falados princípios da não malefiência e da beneficência. 

O Pensamento Probabilístico em Prognósticos Futebolísticos e Médicos



Prognosticar é prever o futuro. Prever o futuro da Seleção Brasileira na Copa do Mundo, prever o risco (futuro) de um indivíduo se tornar doente ou de um doente evoluir desfavoravelmente. Prognosticar é prever o futuro sem ter uma bola de cristal, o que faz disso um desafio repleto de incertezas. Prognosticar é fazer julgamento com base em incerteza, o que torna essencial a presença do pensamento probabilístico. 

O problema é que intuitivamente nosso pensamento não é probabilístico, temos uma tendência natural a pensar com base em uma falsa certeza. Comumente nos comportamos como se tivéssemos a bola de cristal, assumimos um pensamento simplório e dicotômico. Fazemos isso no futebol, na medicina e em várias áreas da nossa vida.

No início do século passado, William Osler, o pai da medicina interna, afirmou que “medicina é a arte da incerteza”. Quase um século depois, profissionais médicos ainda não incorporaram este conceito e insistem em fazer afirmações e tomar condutas presunçosas. Presunçosas pois presumem certeza em seu comportamento, consciente ou inconscientemente. Osler, na sua genialidade, completou sua frase, dando a solução para a incerteza médica: “medicina é a arte da incerteza e a ciência da probabilidade”. Ou seja, precisamos pensar de forma probabilística, desta forma reconhecemos a incerteza de nossas afirmações. 



O Pensamento Probabilístico

Muitas são as situações cotidianas as quais evidenciam que nosso pensamento não é naturalmente probabilístico. Um exemplo é o que esperamos de previsões meteorológicas. Estas previsões são muitas vezes ridicularizadas, injustamente. Imagine que a previsão foi um dia de chuva, mas fez um belo dia de sol. Errou? Não, pois a leitura correta não é “vai chover” (embora nos telejornais a ideia passada seja essa). Observem nos bons sites ou aplicativos que quando aparece um ícone que indica chuva na previsão, comumente o percentual numérico é de 40%, 50% ou 60%. A leitura correta é que há uma razoável probabilidade de chuva. Esta probabilidade reconhece a incerteza desta que é uma afirmação prognóstica. 

Antes de iniciar esta Copa do Mundo, o Brasil foi tido como favorito para vencer. Ao pensamos em favorito, imaginamos, vai ganhar! Isso é um pensamento dicotômico, simplório e incorreto. Na verdade, ser favorito não significa que vai ganhar. Nate Silver, famoso estatístico americano, criou um modelo multivariado para predizer o risco do Brasil ser campeão. De fato, o Brasil é o país com maior probabilidade de ser campeão, calculada em 47%, seguido da Argentina 13% e Alemanha 11%. Porém observem que, mesmo sendo favorito, é mais provável que o Brasil não seja campeão (53%). Portanto, caros colegas, se perdermos, isso não será nada de anormal. Mesmo sendo favorito e jogando no próprio país. Porém uma derrota geralmente vem com a indignação de algo que não deveria ter acontecido. É a falta do pensamento probabilístico. 

Mais grotesco ainda foi nossa certeza de que venceríamos a final da Copa do Mundo de 1998. Tínhamos tanta certeza de que venceríamos a Seleção Francesa (dentro da França), que ao perder, foi necessário encontrar uma explicação, um nexo causal para a derrota: Ronaldo teve convulsão ou o Brasil vendeu o jogo à FIFA. Algo de estranho aconteceu naquele jogo. Isso é o tipo de pensamento primário, perpetuado até hoje pelos especialistas (brasileiros). Em um jogo entram dois times e um sai derrotado. Este foi o Brasil. Aquela seleção não chegava a ser espetacular, estava jogando dentro da França, com um time que tinha Zidane. Desta forma, na melhor das hipóteses, o Brasil tinha 50% de probabilidade de vencer. Perdeu. Foi uma derrota mais do que normal, não precisa de convulsão como explicação. 

Até aí tudo bem, pois estamos falando de um esporte, cujo folclore é enriquecedor. Porém fico perplexo ao ver o mesmo tipo de pensamento primário na medicina. Aliás, esse pensamento se torna até mais comum, quando lidamos com a típica presunção dos profissionais médicos. O presunçoso não gosta de lidar com probabilidade, com incerteza. Em decisões sobre tratamento, diagnóstico ou prognóstico, violamos o pensamento probabilístico, pois nossa autoridade é desafiada pelo reconhecimento da incerteza.   

Ao fazer um prognóstico “sombrio”, mesmo que temperado por palavras eufemísticas, nossa verdadeira conotação é dicotômica, ao ponto de “milagres” assumirem o papel causal quando o desfecho é favorável. Assim se criam os milagres, aqueles mesmos que andam pendurados nos tetos das igrejas ou são usados como “evidências” para o reconhecimento de santos. Milagres são criados (pelo menos em sua vasta maioria) pela falta de percepção de que, mesmo pouco provável, a recuperação do paciente era possível, tinha uma probabilidade de acontecer. 

Quando falamos em um paciente de alto risco para infarto, isso quer dizer uma probabilidade de 20% de infarto nos próximos 10 anos. A probabilidade não ter o evento é muito maior do que a de ter o evento.  Mas usualmente a palavra alto risco traz uma conotação de inexorável e iminente. Tudo um exagero, como se de fato tivéssemos a tal bola de cristal. Da mesma forma, quando um indivíduo de baixo risco desenvolve um problema, isso não é um erro de predição. Baixo risco de infarto é definido como um risco menor que 10%, não é um risco inexistente. 

No entanto, ficamos (erradamente) inconformados com os “erros” dos modelos prognósticos, assim como ficamos inconformados se chover ao invés de fazer o sol da previsão, ou se o Brasil não for campeão apesar de ter sido o favorito. Por isso que bons modelos preditores passam a ser ridicularizados como se fossem modelos ruins. A partir desta ridicularização, criam-se soluções mágicas (e lucrativas) para melhorar o poder preditor destes modelos.  

Vejam o caso da predição de risco cardiovascular primário. Escores de risco, como o Framingham, apresentam uma área abaixo da curva ROC satisfatória, em torno de 70% ou 80%. Mas nunca serão perfeitos, pois são modelos que tentam prever o futuro sem uma bola de cristal. Mas o inconformismo com a incerteza faz com que muitos rotulem estes escores de risco como inacurados, propondo que exames complexos sejam realizados adicionalmente. A sugestão de que o escore de cálcio seja realizados em todos os pacientes de risco intermediário é um dos maiores exemplos do pensamento dicotômico. A maioria dessas pessoas classificadas como de risco intermediário são de fato de risco intermediário (inclusive a calibração dos escores clínicos é melhor em pacientes de risco intermediário). Mas não aceitamos trabalhar com a definição de intermediário (o que se aproximaria do pensamento probabilístico), ficamos inconformados em classificar alguém assim, como se esta classificação estivesse errada. Precisamos reclassificar estas pessoas. Daí surge a proposta de realizar escore de cálcio em todos os pacientes de risco intermediário. Esse é o maior exemplo da não aceitação da incerteza inerente à realidade prognóstica. A faixa intermediária (realista) é inaceitável. Entra aí o escore de cálcio sendo propagado por reportagens televisivas como os salvadores da pátria, como uma bola de cristal a determinar quem terá um infarto. É assim? Claro que não, o escore de cálcio incrementa a área abaixo da curva ROC em apenas 5 a 10%. Muitos pacientes reclassificados para alto risco não vão ter infarto e alguns reclassificados para baixo risco terão infarto. Ou seja, há também reclassificações erradas. A incerteza permanece!!! Isto foi motivo de postagem prévia neste Blog, publicada também sob a forma de correspondência no Journal of American College of Cardiology, onde procuramos redefinir em que situação o escore de cálcio será útil. 

Este tipo de equívoco de pensamento é inerente a predições prognósticas, em futebol e medicina. A grande evolução prognóstica não será proveniente de novos biomarcadores mágicos, mas sim da incorporação da incerteza ao raciocínio clínico.  

Vejam o uso de estatina em um paciente de “alto risco’' para infarto, com colesterol elevado. Pensamos de forma dicotômica, ou seja, se prescrevermos estatina, o paciente será protegido contra esse desfecho, se não prescrevermos (coitado), ele terminará em um infarto. É assim? Claro que não, lembrem-se do paradigma do número necessário a tratar (NNT). Neste caso, o NNT é de 30 (prevenção primária). Ou seja, precisamos prescrever estatina a 30 pacientes para que 1 tenha um infarto prevenido. Ou seja, a probabilidade do tratamento beneficiar o seu paciente é 3% (1/30). O paciente tem que dar sorte de ser um que teria o infarto (nem todos terão infarto) e que a estatina previna este infarto que estava por vir (nem todos os infartos conseguem ser prevenidos). Esta perspectiva de probabilidade nos permite tomar melhores decisões. Neste caso, a regra é o uso da estatina, eu prescrevo. Porém se houver algum fator contrário ao uso da droga, alguma contra-indicação, efeito colateral importante ou desejo do paciente, não seria um absurdo ponderar e não insistir na prescrição. O pensamento não científico, dicotômico, faz com que tratemos pacientes com "receitas de bolo", enquanto o pensamento científico propõe a individualização com base em conhecimento das probabilidades de benefício e malefício. 

Probabilidade Condicional

A esta altura da Copa, depois de Brasil 0 x 0 México no segundo jogo, a probabilidade inicialmente calculada por Nate Silver (47% do Brasil ser o campeão), já mudou. Antes achávamos que o Brasil  era favorito, mas depois de compararmos seu desempenho com os de outras grandes seleções, como Holanda e Alemanha, talvez ele não seja mais o favorito. Isso vai mudando de acordo como as coisas vão ocorrendo. Esse tipo de estimativa da probabilidade, condicionada aos acontecimentos prévios mais recentes, será de grande utilidade quando incorporada ao pensamento médico. 

Imaginem um paciente internado com infarto. No momento da admissão, podemos usar modelos probabilísticos (Escore TIMI, Escore GRACE) para calcular o risco de morte durante o internamento. Imaginem que no momento da admissão o paciente foi classificado como alto risco de morte. Porém, se o paciente ficar estável, a cada dia que permanece vivo, sua probabilidade de morte vai reduzindo. O conceito é o seguinte: a probabilidade de morte no segundo dia, dentre os pacientes que sobreviveram ao primeiro dia, já é menor. Houve uma seleção natural, sendo que os sobreviventes do primeiro dia já são um grupo menos propício a não morrer. A probabilidade de morte no terceiro dia, dentre os pacientes que sobreviveram ao segundo dia, é menor ainda. E assim por diante. 

Esse é o conceito de hazard, um risco condicionado ao acontecimento anterior. Ao passo que risco  não leva em consideração o que ocorreu antes. Em estudos prospectivos, de coorte, o hazardé calculado assim: o programa de computador divide o tempo em vários pequenos períodos (separados por eventos subsequentes) e vai calculando a probabilidade de morrer em cada um desses períodos. Essas probabilidades são multiplicadas. Ou seja, imaginem um internamento de 3 dias: o hazard de morte = hazard do primeiro dia x hazard do segundo dia em se considerando os sobreviventes ao primeiro dia x hazard do terceiro dia considerando o sobreviventes do primeiro e segundo dia. Percebam que isso é diferente de risco, que é calculado apenas pela probabilidade do paciente morrer ao longo desses 3 dias, sem considerar que os sobreviventes dos primeiros dias são menos vulneráveis.  

Há uma grande utilidade deste tipo de pensamento. Imaginem um paciente que desenvolve fibrilação atrial permanente. No dia 1 da fibrilação atrial, podemos calcular o CHADS e estimar o risco anual de embolia, o que influenciará na decisão por anticoagulação. Agora imaginem um paciente igual a esse, que chega com documentação de fibrilação atrial há 10 anos, sem anticoagulação e nunca teve um AVC. Percebam como o risco de AVC calculado para este paciente será diferente do hazard de ter um AVC. No cálculo do hazard, considermos: passados 10 anos sem AVC, qual a probabilidade deste paciente ter um AVC? Esta é uma situação em que o hazard vai reduzindo com o tempo, na medida em que os pacientes que tiveram AVC são excluídos dessa pergunta. Esse é um paciente menos propício a ter um AVC do que os pacientes em geral. É útil identificar situações como esta, em que o hazard vai reduzindo. Se recebermos um paciente de 85 anos, com fibrilação atrial, que o médico anterior vinha acompanhando sem anticoagulação e nunca teve uma AVC ao longo de 10 anos, devemos agora, só porque somos uma segunda opinião, calcular o CHADS e prescrever anticoagulante? A resposta é não, pois o tempo já selecionou este paciente com alguém menos vulnerável à complicação embólica. Além disso, agora aos 85 anos, o risco do sangramento não é pequeno. Tranquilamente, pensando no hazard, respeitamos o histórico do paciente e podemos manter a conduta sem anticoagulação. 

Há situações em que o harzard vai aumentando com o tempo. Por exemplo, o hazard de morrer por qualquer causa vai crescendo com o tempo, na medida em que envelhecemos, mesmo que não tenhamos morrido até agora. Assim como o hazard de desenvolver um câncer ou um evento coronário, pois estes são fatores muito associados a idade. E há outras situações em que o hazardé constante. Por exemplo, qual o risco de pegar uma meningite no ano 2016. Isso não aumenta, nem diminui com o tempo.  

O Julgamento do Especialista

O especialista tende a não utilizar de probabilidade, pois percebe o reconhecimento da incerteza como um fator antagônico à sua autoridade. Isto ocorre no futebol, onde as mais diversas opiniões são omitidas pela cabeça de cada comentarista esportivo. É como se o conteúdo importasse menos  do que a forma da mensagem. De fato, no campo de entretenimento é muito mais interessante ouvir a opinião de um ex-craque (mesmo que errada), do que utilizar um modelo probabilístico. E não é diferente com médicos, que insistem em utilizar seus julgamentos subjetivos, em detrimento de ferramentas como escore probabilísticos. Em diversas áreas profissionais, o julgamento de especialistas foi comparado com modelos matemáticos de predição e os modelos mecânicos ganham: modelo matemáticos determinam sucesso de uma safra de vinho melhor que o provador especializado, assim como escores de risco predizem melhor mortalidade em síndromes coronarianas agudas do que a opinião de cardiologistas experientes. Por que? Porque (1) nossa mente não funciona estatisticamente, (2) supervalorizamos o efeito de variáveis de pouco poder preditivo, mas que nos impressionarem subjetivamente, (3) pensamos de forma univariada ao invés de multivariada (se é diabético, vai ter estenose do stent; se é o Brasil, vai ganhar; se é árabe tentando entrar nos Estados Unidos, é terrorista - vide postagem 1 e 2 neste blog sobre pensamento univariado versus multivariado), (4) não ajustamos mentalmente nossa experiência para variáveis de confusão que permeiam os fenômenos cotidianos. O bom especialista é o que sabe reconhecer a limitação de sua primeira impressão, recorre ao modelos preditores imunes a estas fatores e reconhecem a incerteza ao trazer a resposta sob a forma de probabilidade. O mal especialista é o que tenta validar sua primeira impressão, procurando seletivamente argumentos, ao que se chama de viés de confirmação.

A Evolução Filosófica

A cada dia, a cada hora, surgem inúmeras publicações sobre novos marcadores de risco nas diversas situações médicas. É uma busca incessante do marcador ideal, aquele que vai predizer com perfeição o desfecho do paciente. Porém a grande evolução na área de marcadores prognósticos estará na evolução do pensamento dicotômico para um pensamento probabilístico, baseado em modelos multivariados. Isto em nada diminui a importância do médico, esse continuará pensando e usando sua intuição em suas decisões. Porém usando uma sequência lógica e hierárquica. Primeiro, para determinar o risco de um paciente, devemos usar de modelos prognósticos validados. Sabendo o risco, podemos estimar a magnitude de uma potencial intervenção na redução daquele risco. Sabendo a magnitude do benefício, agora podemos usar nosso julgamento subjetivo. Quero oferecer este benefício ao paciente, considerando os riscos e custos do tratamento? Ou seja, primeiro houve a inferência matemática, seguida de uma inferência subjetiva que envolve sensibilidade, ponderação e compartilhamento da decisão com o paciente. 

Filosoficamente, devemos aprender a conviver com incerteza, pois grande parte dos desfechos de nossa vida são aleatórios. A foto abaixo foi minha filha que tirou hoje. Vejam como o céu está incerto, isso no mesmo dia, no mesmo momento. De um lado, o céu indica que vai chover, do outro sugere que vai fazer um dia lindo. Estamos incertos do que acontecerá na próxima hora. Por que então queremos certeza na previsão meteorológica dos próximos dias ou na previsão da evolução clínica de um paciente? 




O caminho é voltar atrás e ouvir as palavras sábias de Willian Osler, proferidas há um século. Reconhecendo incertezas e aceitando o uso de probabilidades, teremos mais serenidade com os desfechos de nossos pacientes e tomaremos decisões mais ponderadas. 

Se no início era 47% a probabilidade do Brasil vencer esta Copa, acho que agora está em 30%. Talvez ainda sejamos favoritos, mas a probabilidade de perder é maior do que de ganhar. O pensamento probabilístico nos permitirá reagir melhor ao resultado da Copa. Seja ele qual for. Até uma eventual vitória ficará mais interessante de comemorar, em se considerando o quanto esta era incerta.

O vexame do Brasil foi estatisticamente significante ?



O estatístico americano Nate Silver criou um modelo preditor que estimou em 65% a probabilidade do Brasil ter ganhado o jogo contra a Alemanha. Foi este resultado que postei no facebook ontem, no intuito de aumentar nosso otimismo horas antes do pontapé inicial. Para criar o modelo, Nate Silver utilizou o banco de dados ELO, que possui informações de confrontos entre seleções desde o século XIX, aliado ao fato de que Brasil estava jogando em casa. Tal como discutimos na última postagem deste blog (pensamento probabilístico), não teria sido muito surpresa o Brasil perder aquele jogo, pois restava 35% de probabilidade da Alemanha sair vitoriosa. A surpresa mesmo veio do vexatório 7 x 1 sofrido pelo Brasil. E por este motivo pergunto se este absurdo resultado foi estatisticamente significante. 

O resultado final do placar sugere que a Seleção Alemã é imensamente superior à Brasileira. Mas a Alemanha é tão melhor assim que o Brasil ou este placar foi por acaso? De acordo com o modelo de Nate Silver, a Alemanha ganharia do Brasil por 6 gols de diferença em apenas 1 de 900 jogos, indicando que a probabilidade deste resultado era de 0.11% (valor de P = 0.0011). 

O que significa valor de P? Significa a probabilidade da diferença observada aparecer, caso a hipótese nula (Brasil = Alemanha) seja verdadeira. Ou seja, se os dois times fossem mais ou menos equivalentes (como mostra o histórico representado pelo modelo preditor), qual a probabilidade aleatória (azar) deste resultado extremo se fazer presente? 

Em sua entrevista ontem, Felipão deu sua versão do ocorrido, falando algo assim: “O time vinha bem, atacando, quando aos 21 minutos [na verdade foi 11 minutos] veio o primeiro gol de escanteio, causando um apagão no Brasil, permitindo que a Alemanha fizesse mais 4 gols em 10 minutos. Depois de 5 gols de diferença, fica difícil reverter o resultado." Observem que sua explicação tem uma conotação de acaso, um azar que durou 10 minutos, causando um desastre impossível de reverter. Parreira, por sua vez, disse que a taça “escapou”, usando mais uma palavra de apologia ao acaso.

Escrevo esta postagem enquanto assisto ao monótono 0 x 0 de Argentina e Holanda. Acaba de entrar um reporter da ESPN dizendo que Felipão e Parreira deram outra entrevista hoje, na qual  disseram que fariam tudo igual se tivessem uma segunda vez. Continuam sugerindo que foi tudo por acaso.

A função primordial da ciência é diferenciar acaso de causa, escolher uma entre estas duas possibilidades: azar do Brazil ou superioridade imensa da Alemanha. Vamos então ao teste de hipótese estatística: se os dois times tivessem qualidade semelhante (hipótese nula), a probabilidade deste resultado ocorrer seria tão baixa (0.11%) que acabamos por concluir que os times são diferentes. Rejeitamos a hipótese nula do acaso e ficamos com a hipótese alternativa da causa: a Alemanha é muito melhor que o Brasil. 

Estatisticamente, perder da Alemanha poderia ser aceito como azar se fosse por 1 ou 2 gols de diferença, pois esta probabilidade seria em torno de 35% (P = 0.35). O P de uma derrota normal não era estatisticamente significante (> 0.05). Neste caso sim, Felipão poderia ter atribuído sua derrota ao azar. Mas com um P = 0.011, é desafiar a inteligência do brasileiro. 

Confirmado que a relação foi causal, precisamos discutir qual foi a causa. Ao escolher sua explicação para o ocorrido, Felipão contou uma história tão inverossímil, que demonstrou sua total ignorância sobre probabilidade. Estou querendo demais de sua inteligência? Nem tanto, segundo a ESPN, os técnicos europeus dos dias atuais trabalham com estatística o tempo inteiro. Por que o técnico da Holanda val Gaal trocou os goleiros para a disputa de pênaltis? Não foi simplesmente pela altura de Krul, havia dados estatísticos de que ele pegava muito mais pênaltis. Vocês observaram que o técnico da Holanda anota tudo durante o jogo? Sem estatística não há salvação.

A ausência de inteligência estatística (ou de qualquer inteligência) por parte do técnico foi a causa do ocorrido. A verdade é que Felipão foi um técnico sem nenhuma capacidade estratégica e que pouco trabalhou. Todos viram, o Brasil não treinava, não havia nenhuma tática adaptada a cada jogo, a escalação era sempre ruim. 

Mas um resultado evidente como este precisa de uma causa mais especifica do que a minha explicação. Com a palavra, o brilhante Tostão:

"A entrada de Bernard foi uma decisão desastrosa, prepotente, porque mesmo se Neymar estivesse presente, o Brasil teria que reforçar o meio-campo, principal qualidade da Alemanha."

Tostão não é só ex-jogador de futebol e comentarista esportivo, Tostão também é médico. Um médico de inteligência diferenciada, de pensamento estatístico. Em contrate, a prática de nossa medicina às vezes se parece mais com Felipão do que Tostão. Médicos, com a "prepotência" citada por Tostão ao descrever Felipão, às vezes acreditam no que querem acreditar. Interpretamos desfechos casuais como causais quando não pensamos cientificamente. Muitas vezes, utilizamos condutas sem eficácia comprovada (ou ineficazes) e usamos exemplos de desfechos favoráveis como argumentos pró-conduta, desprezando os casos de desfecho desfavorável. Ou desprezamos informações científicas que deveriam nos nortear.  É comum violarmos a estatística em prol de uma interpretação enviesada do mundo clínico a nossa volta. 

Os técnicos da Alemanha, Holanda, Chile são técnicos baseados em evidências. Felipão e Parreira são técnicos baseados em crenças. Crenças provenientes de dogmas (Fred) ou de conflitos de interesse. 

O Programa de Saúde da Família no British Medical Journal



Nestes dias de baixa auto-estima para o brasileiro, nada como olhar para o que realmente importa e se deparar com algo a se orgulhar. Publicado no British Medical Journal um elegante artigo do Instituto de Saúde Coletiva da UFBA, mostrando associação entre o Programa de Saúde da Família e menor mortalidade cardiovascular no Brasil. Os autores assim concluem:

“Comprehensive and community based primary health care programmes, such as the FHP in Brazil, acting through cardiovascular disease prevention, care, and follow-up can contribute to decreased cardiovascular disease morbidity and mortality in a developing country such as Brazil.”

Estudando 30% dos municípios brasileiros, os autores demonstram 33% de redução de mortalidade (taxa de mortalidade padronizada para idade) por doenças cerebrovasculares e 45% de redução por doenças cardíacas entre os anos 2000 e 2009. Em paralelo, houve aumento de 227% da cobertura pelo Programa de Saúde da Família (PSF) nesses municípios.


Associação entre PSF e Mortalidade Cardiovascular

Embora no mesmo período tenha havido queda de mortalidade e aumento de PSF, de antemão, isto não é garantia de que foi o PSF que causou a redução de mortalidade. Duas coisas ocorrerem em paralelo não garante que uma esteja causando a outra. Por exemplo, observou-se também que houve melhoria das condições sociais neste período, com redução de 40% no número de indivíduos vivendo em condições sanitárias inadequadas e aumento de 37% da renda per capita. Será que não foi esta melhoria social que causou a redução de mortalidade?

Para testar a associação entre mortalidade e PSF, os autores compararam a mortalidade entre cidades com cobertura do PSF consolidada, intermediária, incipiente e ausência de PSF, sendo este último o grupo controle. Isto funcionou como um experimento, onde se compara o efeito de diferentes doses de PSF com um grupo controle sem PSF. Foi observado que quanto mais PSF, menor a mortalidade cardiovascular, com um padrão de relação dose-resposta, o que é sugestivo de causalidade.

Mesmo assim, podem existir fatores de confusão intermediando essa relação, pois as cidades com mais PSF poderiam ter melhores condições sociais. Para um ajuste pleno de variáveis de confusão, seria necessário um desenho que randomizasse cidades para diferentes doses de PSF,  o que faria com que as cidades com mais PSF fossem idênticas às cidades com menos PSF pelo efeito da randomização. Este desenho é denominado randomização em cluster, no sentido de que não é o indivíduo a ser randomizado, mas sim um conjunto de pessoas (cidades). No entanto, do ponto de vista político e social, isso se aproxima do impraticável. Desta forma, teremos que ficar com a evidência observacional, que compara cidades diferentes.

Sendo o dado não randomizado sujeito a fatores de confusão, os autores fizeram ajuste estatístico para variáveis relacionas ao aspecto social, como percentual da população abaixo da linha de pobreza, com condições sanitárias inadequadas, renda per capita, analfabetismo. Também ajustaram para a infra-estrutura de saúde oferecida pelo município, representado pelo número de leitos hospitalares na cidade, número de aparelhos de tomografia e ultrassom. Após ajuste para estes potenciais confundidores, permaneceu a significância estatística da associação de PSF com menor mortalidade cardiovascular!!! Agora assim, a evidência começa a sugerir que PSF e menor mortalidade possuem uma associação direta.

Embora a análise multivariada reforce a associação, devemos ter em mente que esta não é suficiente para garantir que não haja interferência de outros fatores confundidores na mortalidade. Mas considerando a plausibilidade da hipótese, me parece um nível de evidência razoável a favor do PSF. Digamos assim que o conceito teórico de que PSF predispõe a menor mortalidade é fortemente sugerido por esta evidência.


O SPF reduziu mortalidade cardiovascular no Brasil?

Observem que esta pergunta não é respondida pela evidência acima descrita. Uma coisa é demonstrar a propriedade do PSF de proteger pessoas contra mortalidade cardiovascular, outra coisa é garantir que o PSF de fato exerceu o efeito de reduzir mortalidade no Brasil. São perguntas diferentes. 

A mortalidade cardiovascular no Brasil tem caído progressivamente nas últimas décadas. Pode ser que o PSF tenha surgido em 2000 e apenas presenciou essa queda que já vinha ocorrendo, não sendo o verdadeiro responsável. 

O teste desta hipótese estaria em avaliar se a associação negativa entre mortalidade cardiovascular e tempo (queda de mortalidade com o tempo) foi modificada pela presença ou ausência do PSF. Seria uma análise de interação, avaliando o efeito modificador do PSF na associação entre mortalidade e tempo. Esta análise demonstraria que cidades com PSF apresentariam uma queda de mortalidade ao longo desses 10 anos mais importante do que cidades sem PSF. Diferente da análises apresentada, o desfecho seria a queda de mortalidade (curva) e não apenas a mortalidade em um dado período, como feito na análise que comparou as cidades com diferentes coberturas do PSF.

Melhor ainda se a análise se estendesse para antes de 2000. Neste caso, cidades seriam observadas antes e depois do PSF. Seria demonstrado um ponto de inflexão, onde a queda que já vinha ocorrendo na mortalidade ficaria mais vertiginosa após o advento do PSF. E isso não ocorreria nas cidades sem PSF. 

Estes tipos de análise não foram descritas no estudo, portanto não podemos considerar que o estudo mostra o efeito do PSF na progressiva queda de mortalidade cardiovascular no Brasil. Pode ser feita essa inferência na forma de discussão, mas não representa uma comprovação.

Por fim, devemos lembrar que apenas 30% das cidades brasileiras foram estudadas. E estas foram as cidades que ofereciam estatística suficiente para a análise. As demais não tinham os registros necessários. Isso pode ser um marcador de organização do sistema público na cidade. Ou seja, as cidades que ficaram de fora (70% do Brasil) podem ter uma realidade bem inferior às estudadas. Portanto o trabalho não é um retrato do Brasil, nem pretendeu ser. 

Este estudo testa e comprova o conceito teórico de que PSF tem propriedade de reduzir mortalidade, mas não traz as análises que comprovariam que a redução de mortalidade observada nestas cidades nos últimas 10 anos decorreu do PSF.


Atenção Primária ou PSF ?

O título do trabalho menciona "atenção primária” e não PSF. Acho que esta foi a melhor escolha, pois conhecendo as condições de assistência primária do serviço público, provavelmente este estudo está comparando ter atenção primária razoável (PSF) versus ter atenção primária precária. Se as cidades usadas como “controle" tivessem uma atenção primária razoável, o estudo estaria testando o PSF como uma forma inovadora e melhor de fazer atenção primária. Embora eu não tenha estes dados a respeito das cidades controle, acredito que não seja o caso. É possível que as cidades sem PSF  apresentem em média um sistema de atenção primária cuja precariedade se aproxima mais de um placebo.

Sendo assim, vejo este estudo como uma comprovação de que fazer atenção primária (o básico) faz grande diferença e não como uma apologia a um programa específico do Brasil.


Conclusões

Acho que a conclusão dos autores do trabalho foi bastante adequada, pois eles dizem que "adotar um programa de atenção primária podecontribuir para reduzir mortalidade cardiovascular”. O trabalho não testa, nem afirma que contribuiu. Não é um retrato fiel do que aconteceu no Brasil, é muito mais um teste da hipótese de que ter atenção primária é melhor do que não ter, do ponto de vista de saúde cardiovascular.

Interpretações que extrapolam estas conclusões devem ser evitadas: primeiro, o Brasil não descobriu a pólvora com um método especial de atenção primária; segundo, a partir desse estudo não podemos afirmar que a redução de mortalidade cardiovascular entre 2000 e 2009 decorreu do PSF.

Nessa época em que médicos falam tão mal do sistema público de saúde de nosso país, é de se orgulhar que nosso programa de atenção primária tenha seu benefício teórico demonstrado por um elegante estudo baiano e publicado na principal revista médica de um país cujo sistema de saúde pública é um padrão mundial.

Mesmo assim, devemos evitar o ufanismo. Na verdade, adotar um programa de atenção primária é o mínimo que um país deve fazer, é o básico, é a obrigação. Não sendo um mérito especial, espero que este trabalho não seja usado politicamente nesta época de eleição. Até porque o PSF foi criado por um governo e ampliado por outro. 

O Movimento da Ruas e a Medicina Baseada em Evidências



Nessa época de indignação que vinha adormecida há muito tempo, foi bonito ver a manifestação dos médicos ontem pelo país a fora. Cobramos melhores condições de trabalho e mostramos que não é com soluções fictícias que se resolverá o problema da saúde no Brasil. As soluções apresentadas pela presidente deste país evidenciam claramente a desordem que habita a mente presidencial, as virtuais propostas representam mais coisa de marqueteiro do que de estadista. De fato, Dilma está longe de ser um estadista e esse momento requer um desses. De médicos cubanos a “20.000 unidades de atendimento médico” essas são as soluções até então apresentadas.

Qual a relação da medicina baseada em evidências com esse momento que o país está vivendo? Além de ir às ruas para exigir condições melhores de trabalho, talvez os médicos possam usar esse momento para refletir se a responsabilidade está toda nos governantes ou se tem alguma que seja nossa também. Ou somos apenas vítimas?

É aí que entra a medicina baseada em evidências, pois além de propor que decisões médicas sejam baseadas em análise científica voltada para eficácia e segurança, o pensamento vai ao encontro da racionalização dos gastos médicos. Deveríamos pensar de forma sistemática em eficácia, efetividade e eficiência (custo-efetividade). Perceberíamos que a melhoria não depende apenas do governo, mas também de como nós, médicos, “administramos” os recursos oferecidos. Senti falta de algunscartazes com esse tom de amadurecimento em relação a nossas próprias responsabilidades. Desta forma, seguindo o estilo presidencial, apresentarei cinco propostas baseadas em evidências, que representam um pouco que podemos fazer por um sistema de saúde mais eficiente.

1.  Utilizar do princípio mais básico da medicina baseada em evidências:uma conduta terapêutica deve ser instituída como rotina quando houver comprovação científica de seu benefício (exceção às situações de plausibilidade extrema). Neste quesito, devemos evitar o fanatismo por condutas nãodemonstradas e, de forma responsável, implementar rotinas com base no demonstrado. Assim, economizaríamos bilhões na medida em que coisas como Xigrisnão seriam implementadas antes da hora. Cada especialista pode rapidamente identificar os inúmeros exemplos de procedimentos de alto custo que foram utilizados por muito tempo apenas para depois entendermos que aquilo de nada valia. Isso é rotina na prática médica, trazendo prejuízos financeiros, clínicos (quando a conduta na verdade é maléfica) e científicos (criação de falsos paradigmas, difíceis de derrubar retroativamente).

2.  Evitar a cultura de exames inapropriados. Grande parte dos exames que solicitamos não vão ajudar o raciocínio diagnóstico (atrapalham), nem muito menos melhoram o desfecho do paciente. No entanto, vivemos e propagamos a cultura dos exames, a cultura do check-up. Vejam o caso do teste ergométrico, em que os médicos reclamam tanto o pagamento de míseros 50 reais pelos planos de saúde. Estudo realizado por nosso grupo (tese de Antônio Marconi, de Petrolina) mostrou que 85% das solicitações de testes ergométricos para pesquisa de doença coronária em sua região são inapropriadas, ou seja, testes realizados em pacientes assintomáticos ou com baixa probabilidade pré-teste. Essa amostra tinha tanto pacientes do SUS, como de convênio. Ora, se a gente banaliza tanto um exame, nossa remuneração fica banalizada também, claro. Um exame que praticamente todo adulto faz anualmente, precisa ser muito barato mesmo. Por que não sentamos na mesa e negociamos? “Vou pedir menos exame desnecessário e você aumenta o valor do exame.” Isso sem falar na peregrinação que um paciente do SUS tem que fazer quando um médico “caneta” a solicitação inapropriada de um teste ergométrico. Peregrinação esta que muitas vezes termina em uma clínica popular, com o paciente pagando (desnecessariamente) pelo exame, pois o SUS não tem (nem nunca terá) condição de fazer tanto teste, em tanta gente. Vai até de encontro ao Ato Médico, pois não tem médico para fazer teste em 100% dos adultos brasileiros. Vai acabar tendo que importar médico de cuba mesmo. Estão vendo a incoerência?

3.  Evitar overdiagnosise overtreatment: muitos dos exames desnecessários acabam sendo positivos (verdadeiramente), mas isso não significa que haja necessidade de tratamento. Angioplastia está indicada em paciente assintomático com entupimento de 75% de uma de suas artérias? Depois de um PSA (contra-indicado como exame de triagem), vem a biópsia, que muitas vezes dá positiva para uma adenocarcinoma localizado, em paciente assintomático. Quase sempre resulta em prostatectomia. Estamos no caminho certo ao diagnosticar e tratar pseudo-doenças? Isso merece uma reflexão.

4.   Pensar em custo-efetividade: mesmo terapias de comprovada eficácia, devem ser analisados sob o crivo da magnitude de seu benefício. Utilizemos o paradigma do NNT. Benefícios verdadeiros, porém de baixo impacto, pouco mudam a vida do paciente. E às vezes são de alto custo. Mesuremos o benefício e avaliemos o custo deste benefício. Há terapias de alto custo (novidades), cujo impacto devem ser analisado na razão de seu benefício. Sejamos responsáveis ao propor que o SUS passe a oferecer stents farmacológicos. Vela a pena mesmo? Onde chegaremos? Precisamos entender melhor o pensamento de custo-efetividade.

5. Propagar o desenvolvimento do pensamento científico: esta deve ser ferramenta crucial para o médico. Nos livra do lobby da indústria farmacêutica, de interesses pessoais, da excessiva hierarquia de conhecimento, a qual inibe o desenvolvimento de nossa forma de pensar. Ciência se desenvolve com base no debate informal, troca de idéias. Em nossos congressos, pouco discutimos ideias, pouco reavaliamos nossos paradigmas. Nos limitamos a repetir o que é dito tradicionalmente, repetir o texto de guidelines. Assim não há risco de discordância, porém corremos o risco de estagnação. Ciência é democracia.

Temos poder de modificar e melhorar a qualidade da saúde pública. E também da saúde  complementar, por que não? Embora nosso aprimoramento não seja suficientepara resolver as questões, este é necessário. Sem a racionalização da medicina, as mudanças reivindicadas não serão resolutivas. Há exemplos de países desenvolvidos com medicina socializada, que aplicam os recursos de forma muito mais racional do que nosso pobre país. Precisamos mudar nossa cultura. Devemos exigir desse governo mediano, como fizemos ontem. Mas podemos também oferecer nossa contra-partida. 

Beta-Bloqueador no Infarto: um santo sem milagre


Paradigmas médicos mudam com frequência? Embora prevalente, esta é uma ideia equivocada, pois não são os verdadeiros paradigmas que normalmente mudam. O que muda são as ideias criadas sem embasamento em alto nível de evidência. Foi isso que aconteceu com o religioso uso de beta-bloqueador em pacientes infartados. 

Essa discussão está em voga nestas últimas semanas devido à recente publicação de uma revisão sistemática e meta-análise pelo American Journal Medicine,sobre o efeito do uso de beta-bloqueador no infarto do miocárdio com supradesnível do ST. Este artigo questiona o benefício desta classe de drogas nesta circunstância, mostrando que não há redução de mortalidade com o uso de beta-bloqueador na era da reperfusão. Por outro lado, na era pré-reperfusão, uma análise de sensibilidade (subgrupos de artigos) mostra redução de mortalidade.

A ausência de benefício na era reperfusão já estava bem demonstrada desde 2005 pelo gigante (45.000 pacientes) ensaio clínico randomizado COMMITT, que não mostrou qualquer redução do desfecho mortalidade com uso de beta-bloqueador. No entanto, o resultado deste estudo não ficou bem sedimentado, pois uma análise de desfecho secundária confundiu a mensagem negativa daquele trabalho: havia redução de mortalidade por arritmia e aumento de mortalidade por choque cardiogênico.  E mais ou menos assim foi concluído (leiam o resumo do artigo). Daí as pessoas passaram a evitar beta-bloqueador precoce em pacientes com disfunção, porém manter em pacientes sem disfunção. Esse é um bom exemplo do uso de desfechos secundários ou análises de subgrupo (em detrimento da análise principal), no intuito de confundir a mensagem negativa de um trabalho. Não precisávamos dessa meta-análise para interromper o uso do tratamento. 

Percebo que o nome meta-análise funciona como mágica, sensibilizando as pessoas como se fosse a voz de Deus (não é). Por isso que agora (só agora) as pessoas de fato acordaram para esta ausência de benefício na era da reperfusão.

Mas onde acho mais educativo focar nossa discussão é na era pré-reperfusão, pois foi lá que surgiu a ideia de beta-bloqueadores como drogas quase obrigatórias no uso de curto e longo prazo (a vida toda) em pacientes que sofreram infarto com supradesnível do ST (na época denominado infarto com Q). Foi naquela época que, por algum motivo, ocorreu o fenômeno de sedimentação intensa de uma ideia. E quando este fenômeno ocorre, a ideia se torna uma verdade absoluta e ninguém se pergunta de onde ela veio exatamente. A frase “está demonstrada redução de mortalidade” vira um mantra inquestionável. 

Isso que ocorreu com o uso de beta-bloqueador, a partir da publicação do grande ensaio clínico ISIS-1 em 1986, ano em que eu ainda estudava para o vestibular de medicina. Desde então, fui treinado ouvindo o mantra, a ponto de nunca ter me dado ao trabalho de ler o ISIS-1. Mas dessa vez tive a curiosidade de fazer o que deveria ter feito no final dos anos 80, quando já cursava medicina.

Nos primeiros minutos de leitura do ISIS-1, fiquei pasmo. Percebi que aquele foi um estudo negativo, e não positivo!! Exatamente, o mantra da diferença de mortalidade não alcançou significância estatística, não rejeitou a hipótese nula (P = 0.07). E isto não tem grande potencial de ter sido erro tipo II (não detectar uma diferença verdadeira por falta de poder estatístico), pois aquele foi um estudo muito grande, de 16.000 pacientes, suficiente para encontrar reduções de risco não muito grandes.

E a surpresa não para por aí. O ISIS-1 é um ensaio clínico aberto, não há placebo, fazendo com que todos, pacientes e equipe médica estivessem cientes do grupo de alocação. O autor do ISIS-1 se defende contra um potencial viés de aferição decorrente do caráter aberto, argumentando que morte é um desfecho muito objetivo. Pouco provável também que efeito placebo reduza mortalidade, de fato. Porém o autor não menciona o potencial viés de desempenho que pode ocorrer em estudos abertos, quando o tratamento experimental traz consigo maior atenção ou entusiasmo da equipe médica. Pacientes randomizados para beta-bloqueador podem ter experimentado melhor qualidade assistencial durante a fase aguda do infarto, visto que eram submetidos a um protocolo original (uso venoso, seguido de uso oral), que requeria melhor atenção de uma entusiasmada equipe médica; diferente dos pacientes do outro grupo, que eram randomizados para fazer o usual e pouco se diferenciavam de um paciente qualquer. 

Esse tipo de viés tem sido relatado neste blog em exemplos de estudos que geraram falsas ideias, tal como os hipotermia na parada cardíaca e beta-bloqueador no pré-operatório de cirurgia não cardíaca. No caso do beta-bloqueador, autores interessados em não cegar o estudo utilizam o argumento de que o isso seria dificultado pelo efeito bradicardizante da droga. De fato, alguém poderia desconfiar que uma pessoa estivesse usando beta-bloqueador, porém desconfiar é diferente de saber. É a certeza coletiva da participação no grupo experimental que promove o viés de desempenho.

No ISIS-1, dois desfechos morte receberam o mesmo grau de importância, não sendo mencionado qual dos dois foi o desfecho primário. Assim, consideramos que tratam-se de desfechos co-primários: mortalidade vascular nos primeiros 7 dias e mortalidade no follow-up prolongado (média de 20 meses). No primeiro caso, foi observado menor mortalidade no grupo do atenolol, com uma valor de P = 0.04. Porém ao longo do seguimento tardio, essa significância estatística se perdeu, gerando o valor de P = 0.07. Como interpretar isso? A redução de mortalidade hospitalar não se mantém, será que o tratamento apenas adia o óbito? Talvez. Por fim, devemos salientar que quando temos dois desfechos primários, a definição de significância estatística deve ser ajustada para o fenômeno estatístico dos múltiplos testes, o qual faz com duas tentativas (dois desfechos) torna-se mais provável que a sorte (acaso) se faça presente na demonstração de um benefício. Sendo assim, o valor de P deveria ter sofrido o denominado ajuste de Bonferroni, ou seja, multiplicado pelo número de comparações. Ou seja, esse P = 0.04, a rigor deveria ser P = 0.08. 

Um ano antes da publicação do ISIS-1, havia sido publicado no European Heart Journal um estudo suíço de nome MIAMI, o qual randomizou 8.600 pacientes para metoprolol e placebo, em um desenho duplo-cego, placebo controlado. Qual foi o resultado? P = 0.29, ou seja, estudo negativo, beta-bloquedor não reduz mortalidade. Desta forma, entra o viés de desempenho do aberto ISIS-1, como explicação para aquele resultado. 

Às vezes um estudo aberto representa um pesadelo, daquele tipo que somos acordados de um sonho no qual estamos nús no meio de uma multidão. Um estudo aberto é como um estudo nú, sem proteção quanto a este tipo de viés. 

Agora percebam o que aconteceu: em seguida ao estudo de boa qualidade  e negativo (MIAMI), publica-se o ISIS-1, estudo de qualidade inferior, cujo resultado positivo apagou o resultado do primeiro. Uma clara demonstração de que a aceitação de uma evidência é mais influenciada pelo entusiasmo gerado por seu resultado do que pela qualidade do trabalho que gerou a evidência.

Fico a me perguntar onde estavam os pensadores da época? Porque essa é uma terapia com indicação classe I nos guidelines? Por que este é um dos itens de performance measures (qualidade assistencial) do tratamento de infarto?

Na meta-análise do American Journal of Medicine observa-se interação entre os estudos da fase pré-reperfusão (redução de mortalidade com beta-bloqueador) e os estudos da fase reperfusão (ausência de redução de mortalidade). Isto tem sido interpretado como beta-bloqueador sendo benéfico em pacientes não reperfundidos. Esse é um equívoco. Esta meta-análise demonstra claramente que na era pré-reperfusão os estudos eram na sua maioria categorizados em alto risco de viés, o que era menos frequente na era pós-reperfusão. E houve interação entre benefício demonstrado e risco de viés. Ou seja, estudos classificados como alto risco de viés sugeriam benefício, enquanto os estudos de baixo risco de viés eram negativos. 

Isso é exatamente o que foi caracterizado na meta-análise do Lancet sobre o efeito clínico da  homeopatia. Estudos de alto risco de viés foram positivos, enquanto estudos de baixo risco de viés foram negativos. O problema é que as pessoas escolhem os estudos a ser citados com base no interesse que têm pelo resultado e não na qualidade do trabalho. 

Enfim, beta-bloqueador nunca reduziu mortalidade no infarto. A mensagem é simples assim.

Mas e se reduzisse? Se o estudo ISIS-1 fosse duplo-cego e o benefício demonstrado fosse estatisticamente significante? Poderíamos dizer "beta-bloqueador reduz mortalidade no infarto”, mas esta informação não seria suficiente. Precisaríamos saber o quanto de mortalidade é reduzida (impacto). Precisamos calcular o NNT. 

O grupo beta-bloqueador teve 3.9% de mortalidade nos primeiros 7 dias, comparado a 4.6% de mortalidade no grupo controle. Assim, a redução absoluta do risco foi 0.7% (4.6 - 3.9). E ao dividir 100 / 0.7, chegamos a um NNT de 143. Isso mesmo, precisaríamos tratar 143 pacientes com beta-bloqueador para prevenir uma morte. Um benefício que (mesmo falando em morte) deve ser caracterizado como modesto. Vejam nosso post sobre NNT.

Puxa, algo muito duvidoso e de benefício potencial modesto. Por que tanta valorização a esse tratamento ao longo das últimas 4 décadas? Precisamos refletir, tem algo de errado em nossas construções de paradigmas. 

A explicação está na mentalidade do médico ativo, aquele fenômeno mental que nos impulsiona a utilizar terapias diversas, mesmo sem evidências, pois essa impressão de que estamos tratando ativamente o paciente nos traz conforto cognitivo. Aliado a isso, nossa heurística de normalização nos induz a pensar que controlando parâmetros (frequência cardíaca), garantimos benefício. Por fim, nossa mente cartesiana nos faz acreditar em demasia na plausibilidade biológica. Quer convencer alguém de que algo funciona? É só descrever o (teórico) mecanismo de funcionamento. Uma boa explicação do mecanismo convence a maioria das pessoas, pois nosso pensamento intuitivo é mecanicista.

Lembro-me da sensação de semi-deus ao administrar beta-bloqueador venoso em pacientes com infarto e ver aquela frequência cardíaca reduzindo. 

Beta-bloqueadores são drogas especialmente atraentes, pois possuem características que se encaixam perfeitamente nestes erros cognitivos. Nós vemos o controle da frequência cardíaca, ativando nossa heurística de normalização. Segundo, tem um racional teórico bastante lógico, a redução do duplo produto. No entanto, não funcionam para reduzir risco de pacientes cirúrgicos, não funcionam para reduzir mortalidade de infartados e são drogas de segunda linha (benefício menor) no tratamento da hipertensão. Sobra seu valor em pacientes com insuficiência cardíaca sistólica, às vezes até supervalorizado quando percebemos introdução precoce da droga em pacientes ainda descompensados, como se fosse uma pílula mágica, de ação imediata. 


E assim, é derrubado mais um mito que nunca deveria ter sido criado, deixando em seu rastro o provável prejuízo clínico que alguns pacientes podem ter experimentado e o prejuízo científico de termos ficado na escuridão da Caverna de Platão por tanto tempo, sem o interesse em procurar saber de onde veio essa ideia: no ISIS-1.

Café Científico com Péricles Esteves - Medicina Baseada em FÉvidência


Nas primeiras horas da manhã de hoje, recebi o usual email de Dr. Péricles, me corrigindo de erros que normalmente cometo nos posts. Aproveitando a oportunidade, o provoquei como parte da geração que vivenciou a santificação do beta-bloqueador no cenário do infarto do miocárdio.
Compartilho aqui sua resposta, em seu estilo sempre particular.

LC,

Obrigado por me lembrar que eu sou de outra época. Tinha esquecido. Ou não (Gilberto Gil)!

A capacidade de analisar um estudo naquela época era enviesada. Não se falava em Medicina Baseada em Evidências. Valia mais a revista, o autor e a instituição. Pesou mais o ISIS-1 que o MIAMI ! A Indústria, em paralelo e sem a devida vigilância, divulgava intensamente o que era de seu interesse. E a imensa maioria dos cardiologistas considerava um ato de fé seguir o que seria um novo paradigma. 

Os tempos mudaram, embora a Indústria continue mais ativa ainda!

Minha última informação, antes da aposentadoria, era só indicar betabloqueadores se o IAMCSST fosse sem reperfusão, o COMMIT era a última palavra, e disfunção sistólica presente justificava. 
Permanece assim? Sem reperfusão em tempo hábil, ainda é maioria, mesmo hoje? Era de 50% nos grandes centros e 25% no global. Ou mudou?

Para mim sua visão crítica é irretocável e bastante didática. Envereda até para um entendimento filosófico da ciência médica. Me faz continuar meditando sobre "o que foi, o que é e o que será" a cardiologia (e todo o resto). 

Esqueci de dizer que existe uma nova corrente de médicos ativos, que praticam um meio-termo, a Fé e a Evidência. Adotaram a Medicina Baseada em Fevidências !?!?!

PARADIGM-HF: o entusiasmo é proporcional à evidência?



No início desta semana, foi apresentado no Congresso Europeu de Cardiologia e simultaneamente publicado no New England Journal of Medicine o ensaio clínico PARADIGM-HF. A comunidade cardiológica tem considerado esta a mais importante notícia das últimas duas décadas quando se trata de insuficiência cardíaca. O entusiasmo a respeito deste estudo se deve ao fato de que, pela primeira vez em 20 anos, um tratamento mostra redução adicional de mortalidade em pacientes com insuficiência cardíaca. 

OPARADIGM-HF testa uma droga denominada LCZ696. Este que se parece nome de uma engenhosa molécula, na verdade é a combinação do velho valsartan com uma nova droga denominada sacubritil. Este sacubritil inibe a ação do neprilysin. O neprilysin age degradando boas moléculas, como peptídeo natriurético e bradicinina. Quando inibimos o neprilysin, aumentamos a concentração dessas boas moléculas, que têm ação vasodilatadora e natriurética. 

Antes do nos definirmos entusiasmados com o LCZ696, precisamos analisar o trabalho e determinar o nível de evidência em que este se encaixa. Determinado o nível de evidência, discutiremos a força de recomendação deste tratamento. O entusiasmo deve ser diretamente proporcional ao nível de evidência e força de recomendação. 

Começando pelo nível de evidência, este depende de três fatores: veracidade, relevância e aplicabilidade da informação.

Adianto que o grande diferencial desta postagem estará na análise de aplicabilidade. Mas antes de chegar lá, temos que passar por veracidade e relevância. 

VERACIDADE

Como sabermos, dois fatores podem interferir na veracidade da evidência: erros sistemáticos (vies) e de erros aleatórios (acaso). 

Em análise sistematizada, percebemos que o estudo tem baixo risco de viés: randomizado (evita viés de confusão), duplo-cego (evita viés de desempenho e viés de aferição do desfecho), análise por intenção de tratar (preserva a homogeneidade da randomização), pequena perda de follow-up. 

Quanto ao erro aleatório, este é um estudo com adequado poder estatístico e sem situações que reduziriam confiabilidade do valor de P: as conclusões positivas são baseadas em desfecho primário e em toda a amostra do estudo (em vez de desfechos secundário ou análise de subgrupo). 

Resta uma preocupação, que poderia reduzir a precisão dos achados: este foi um estudo truncado, o que predispõe a superestimava do benefício ou simulação de um falso efeito da droga. Salientamos, no entanto, que neste caso o truncamento não foi crítico. Já mencionamos neste Blog que quando mais de 500 desfechos são alcançados pelo estudo, o truncamento não implica em superestimativa do efeito do tratamento. Quando o PARADIGM-HF foi interrompido, todos os pacientes já tinham sido incluídos, apenas o follow-up teve uma redução de tempo. Assim, o estudo alcançou 2.031desfechos, o que preserva sua veracidade a deleito do truncamento.

Sendo assim, este estudo tem validade interna, ou seja, o que observamos aqui não é resultado de ilusões causadas por viés ou acaso. É verdadeiro.

RELEVÂNCIA (IMPACTO)

Agora o próximo passo é avaliar o quanto este (verdadeiro) benefício é relevante. Quando ao tipo de desfecho, este foi o combinado de morte cardiovascular e internamento, ou seja, os dois mais importantes desfechos em insuficiência cardíaca. Na próxima postagem, usarei o PARADIGM-HF como exercício para analisar detalhadamente a medida pontual de impacto e sua precisão. Mas nesse momento quero ser mais prático e vou direto ao NNT: 21 pacientes precisam ser tratados para prevenir um desfecho primário (morte ou internamento) e 30 pacientes precisam ser tratados para prevenir uma morte. O que se observa é um tratamento de bom impacto na redução dos desfechos. 

Assim, o estudo é intrinsecamente verdadeiro e de resultado relevante. Vamos então pensar na aplicabilidade.


APLICABILIDADE

Agora, de posse da informação científica, precisamos olhar para nossa realidade e avaliar o quanto aplicável é a conclusão do trabalho. É a transição da validade interna do estudo (veracidade) para a validade externa de suas conclusões. 

Neste tópico, apresento o importante conceito de evidência científica indireta. Uma evidência pode ser indireta em relação a dois principais aspectos: tipo de paciente e forma de aplicar o tratamento. 

O princípio da complacênciadetermina que evidências verdadeiras podem ser extrapoladas para populações ou formas de aplicação diferentes, desde que não haja uma grande razão para se acreditar que a extrapolação não dará certo. Por exemplo, quando usamos inibidor da ECA e beta-bloqueador na criança com insuficiência cardíaca, estamos extrapolando o conhecimento de grandes ensaios clínicos realizados em adultos. Fazemos isso pois não há uma grande razão para acreditar que o resultado será diferente. 

Observem que quando usamos o princípio da complacência, estamos adotando uma evidência indireta, pois esta não foi testada exatamente em quem faremos ou como faremos. Este princípio se baseia no fato de que interação (modificação de efeito de acordo com população ou circunstância) é um fenômeno raro.  O mundo funciona assim. 

No entanto, precisamos salientar que apesar de podermos extrapolar em certas situações, devemos reconhecer que quanto mais indireto é o trabalho em relação à nossa realidade, menor o nível de evidência. Ou seja, indirectenessé um dos critérios na definição do nível de evidência.Na medida em que trabalho vai se tornando mais indireto, mais se distancia da garantia de reprodutibilidade eo nível de evidência vai caindo. 

Por exemplo, parece adequado aplicar beta-bloqueador em um idoso de 80 anos com insuficiência cardíaca, mesmo que os trabalhos clássicos tenham 65 anos como média de idade. Porém, na medida em que a idade vai aumentando, mais indireta fica a evidência e mais dúvida nós temos da aplicabilidade. Será que o paciente de 100 anos com insuficiência cardíaca deve usar beta-bloqueador?

Vamos agora avaliar o quanto a evidência do PARADIGM-HF é indireta em relação à nossa realidade. Como falei, duas são as formas de um dado ser indireto: tipo de paciente e forma de aplicar o tratamento. 

Primeiro, vejamos tipo de paciente. Este é o primeiro grande teste do sacubritil, não só quanto à eficácia, mas também quanto à segurança e tolerabilidade. No entanto, este estudo tem uma peculiaridade, que é uma fase de run-in, ou seja, antes de serem randomizados, os dois tratamentos foram testados e só entraram no estudo os pacientes que toleraram o tratamento. Portanto só vemos aqui o resultado de pacientes selecionados para tolerarem a droga, o que reduz a validade externa do estudo quanto à segurança. E também quanto à eficácia, pois no princípio de intenção de tratar, má tolerância reduz eficácia. Ou seja, não estamos vendo o resultado testado em uma amostra que de fato representa a população. É uma amostra selecionada. Interessante notar que essa fase de run-in não é habitual em ensaios clínicos de fase III.

Desta forma, quando formos aplicar este benefício em nossos pacientes, teremos dúvida se o resultado seria o mesmo. Será que nosso próximo paciente não corresponde a um daqueles que nem entraram no estudo, pois não se dariam bem com a droga? 

Observem que isso não compromete a veracidade do estudo quanto ao tipo de paciente estudado  (baixo risco de viés), mas a superseleção pode ter distanciado o paciente do estudo do nosso paciente. Esta fase de run-in tornou a evidência indireta quanto ao tipo de paciente.

Quando observamos a tabela de características clínicas, vemos que são pacientes predominantemente em classe funcional II, com pressão sistólica de média de 120 mmHg. Ou seja, são pacientes compensados, estáveis, sem tendência a hipotensão, capazes de suportar os 320 mg de valsartan. Mas uma vez, é um amostra selecionada para que a terapia não gere problemas. Temos que ficar cientes disso. 

Mas é no segundo modo de evidência indireta que está o maior problema deste estudo:aplicação da terapia. Quando surge uma nova intervenção candidata a incrementar um tratamento padrão, esta nova terapia deve ser comparada a um grupo controle (sem a terapia), sendo queo grupo intervenção e controle devem fazer o mesmo tratamento padrão otimizado. Ou seja, o correto écomparar intervenção + tratamento padrão ideal versus tratamento padrão ideal. 

O que fez o PARADIGM-HF? Estranhamente, o tratamento padrão do grupo sacubritil foi melhor do que o tratamento padrão do grupo controle. Ou seja, na amostra o estudo, o grupo sacubritil objetivou um bloqueio do sistema angiotensina-aldosterona em dose máxima (valsartan 320 mg/dia), comparado ao grupo controle, que utilizou metade da dose máxima de enalapril (20 mg/dia, de forma fixa). 

Os autores mencionaram que usaram valsartan no grupo sacubritil (ao invés de IECA), pois a associação de inibidores do neprylisin com IECA causaria muito angioedema. Deram duas referência que suportariam esta afirmação: os estudos OCTAVE e OVERTURE, que testaram omapatrilato, um desses inibidores. Tive o cuidado de olhar estes estudos e nenhum deles testou associação do omapatrilato com IECA, apenas compararam os dois. E por falar nisso, a frequência de edema foi inferior a 5%. Portanto, me parece que inventaram uma justificativa para usar tratamento padrão diferente nos dois grupos. Mas mesmo que usassem drogas diferentes, que pelo menos usassem doses equivalentes. Porque usar dose máxima de valsartan do grupo sacubritil versus metade da dose de enalapril no grupo controle? A coisa fica tão confusa que pode passar desapercebida. Se pensarmos com calma, usaram drogas diferentes, pois assim o uso de doses diferentes ficaria menos evidente. 

Não importa que 20 mg/dia é a dose média de enalapril de estudos prévios (como foi mencionado pelos autores), o que importa é na amostra que está testando um a hipótese em questão, o grupo intervenção foi melhor tratado do que o grupo controle. Isso fica confirmado pela pressão sistólica mais baixa no grupo intervenção. 

Portanto, há duas possibilidades para explicar a redução de mortalidade no grupo do sacubritil: (1) a droga de fato reduz mortalidade; (2) a droga não tem efeito e o que estamos vendo é o benefício de um bloqueio mais efetivo do SRAA. Ficará sempre esta dúvida. 

MECANICISTA versus PRAGMÁTICO

Um estudo pode ser mecanicista ou pragmático. No primeiro caso, deseja-se demonstrar um conceito, por exemplo, sacubritil reduz mortalidade? No segundo caso, não importa o conceito, só precisamos saber o resultado prático: LCZ696 é melhor que enalapril 20 mg/dia?

Em um estudo mecanicista, o que acaba de ser discutido deve ser considerado um viés, ou seja, algo que falseia o resultado. Podemos optar por este caminho e invalidar estes trabalho.

Ou podemos interpretar o estudo como pragmático. Neste caso, esse problema não é um viés, é um problema de aplicabilidade. Um estudo pragmático não está analisando o mecanismo, está apenas testando a hipótese de que o LCZ 696 (sacubritil + Valsartan máximo) é superior a enalapril meia boca. E isso ficou demonstrado neste estudo, com baixo risco de vies.  

Acreditando na veracidade deste pragmatismo, precisamos analisar o quanto a comparação aqui realizada é indireta em relação a nossa realidade. Parece-me pelo menos moderadamente indireta, pois meus pacientes de CF II, PAS = 120 mmHg e boa função renal estão usando dose máxima de IECA e não metade da dose. Sendo assim, eu não tenho certeza de que o tal LCZ será melhor que o IECA de meu paciente. 

E se meu paciente estiver com uma dose mais baixa de enalapril, mas está evoluindo muito bem nos últimos anos, devo trocar pelo valsartan dose máxima + sacubritil? E se este paciente meu for um dos que seriam excluídos na fase de run-in, pois não tolerariam a hipotensão do LCZ696?

De acordo com o princípio da complacência, evidência indireta pode ser aplicada, porém quanto mais indireta, menor o nível de evidência. Sem a análise de aplicabilidade, classificaríamos o nível de evidência deste estudo pragmático como alto. Porém, após considerar o caráter indireto deste trabalho, devemos reduzir o nível de evidência para moderado.

Não temos aqui a evidência de melhor qualidade, o que torna menor sua influência em nossa conduta. A partir deste diagnóstico, discutiremos o nível de recomendação do LCZ696.

NÍVEL DE RECOMENDAÇÃO

Como recomendar um moderado nível de evidência? Neste momento, entra a utilidade do que é proposto pelo critério GRADE: definir a recomendação em forte ou fraca. A recomendação forte é a que deve ser feita em todos os paciente possíveis. Por exemplo, uso de IECA na insuficiência cardíaca. A recomendação fraca é a que deve ser ponderada caso a caso. 

Portanto, baseado no moderado nível de evidência, a recomendação para usar o LCZ696 no lugar de IECA deve ser fraca. Ou seja, devemos ponderar as peculiaridades de nosso paciente, se este é um virgem de tratamento, se é um paciente que está se dando muito bem com o esquema tradicional, além de questão logísticas como custo da nova droga. 

E para quem ficou incomodado com minha fraca recomendação, é só pensar probabilisticamente. O que significa um NNT de 21 para redução de morte? Significa que ao trocar o IECA por LCZ696 nosso paciente tem apenas 5% (1/21) de probabilidade de se beneficiar. Nossos bons tratamentos não são panacéias, portanto antes de entrar com tanto entusiasmo, precisamos ponderar os aspectos aqui discutidos. 

O entusiasmo com o PARADIGM-HF está exagerado.
Viewing all 225 articles
Browse latest View live