Freqüentemente, artigos originais sobre pesquisas concluídas podem ser uma fonte mais realista de respostas para questões restritas do que artigos de revisão e palestras. Acredita-se que a leitura de periódicos e artigos deva ser limitada àqueles que sejam verdadeiramente relevantes para a prática cotidiana ou para a pesquisa científica atual. Uma proporção significativa de publicações que apresentam os resultados da investigação sobre uma nova intervenção contém informação que não é utilizável. Conhecer um nome familiar e conhecido e uma instituição respeitada permite avançar...


Compartilhe seu trabalho nas redes sociais

Se este trabalho não combina com você, no final da página há uma lista de trabalhos semelhantes. Você também pode usar o botão de pesquisa


Outros trabalhos semelhantes que podem lhe interessar.vshm>

20915. Análise do mercado de serviços médicos 3,1MB
Análise de informações teóricas sobre a prática de criação e aplicação de PPP, as características e benefícios deste modelo para a sociedade; análise de material teórico do conceito de modelagem de negócios; determinação das características econômicas dos serviços médicos; conduzir análises do setor;
4601. ANÁLISE DAS ATIVIDADES DAS ENFERMEIRAS GUARDA DO DEPARTAMENTO TERAPÊUTICO 60,63KB
A relevância prática se deve ao fato de que a tese pode servir para automatizar o trabalho do enfermeiro vigilante na manutenção da documentação para registro de medicamentos e movimentação de pacientes; dispensar medicamentos ao paciente; gerar e imprimir encaminhamentos de pesquisa para cada paciente; manter uma folha de temperatura, etc.
11969. Análise da relação custo-benefício do uso de sistemas de informação médica 16,93 KB
Um modelo foi desenvolvido e algoritmos para análise da eficiência econômica dos sistemas de informação médica MIS são descritos. Foi desenvolvido um modelo de ferramenta de software para analisar o custo-benefício do uso de MIS em uma instituição médica.Ferramenta de software para analisar o custo-benefício do uso de sistemas de informação médica. A finalidade operacional do PS é a sua utilização por economista, perito e chefe de unidade de saúde na análise da componente económica da actividade de uma instituição médica...
18273. Análise do estatuto jurídico do Presidente da República do Cazaquistão do ponto de vista dos critérios geralmente aceites do Estado de direito e do princípio da separação de poderes 73,64KB
A essência da abordagem do Presidente era que o país deveria desenvolver-se de uma forma natural e evolutiva. Regra presidencial - prevista na Constituição do estado, trata-se da cessação das atividades das instituições de autogoverno de uma determinada entidade administrativa regional e da implementação da gestão desta última através de pessoas autorizadas nomeadas pelo chefe de estado - o presidente e pessoas que lhe são responsáveis; previsto na Constituição, a atribuição ao chefe de Estado - o presidente - de poderes de emergência à escala global...
13186. Projetando um sistema de informação para registro de publicações científicas no ambiente Adobe Dreamweaver 2,29MB
A automação para qualquer organização é realizada através do projeto e posterior criação e implantação de um sistema unificado de processamento de informações do sistema de informação corporativa, que também inclui os correspondentes recursos organizacionais, humanos, técnicos, financeiros, etc. típico de muitas empresas. Como os sistemas de informação são projetados para coletar, armazenar e processar informações, a base de qualquer um deles é o ambiente de armazenamento e...
15989. Aplicação da nanotecnologia nas áreas médicas 80,04KB
Decorre da história que a humanidade sempre buscou o progresso e desde a antiguidade busca formas de tratar doenças e prolongar a vida. Podemos dizer que o desenvolvimento da nanotecnologia no século XXI mudará a vida da humanidade mais do que o desenvolvimento da escrita, da máquina a vapor ou da eletricidade. O físico suíço Albert Einstein publicou um artigo no qual provou que o tamanho de uma molécula de açúcar é de aproximadamente 1 nanômetro. O futurista americano Erk Drexler, pioneiro da nanotecnologia molecular, publicou...
6178. A HIGIENE É A DISCIPLINA PREVENTIVA BÁSICA DA MEDICINA 409,78KB
O termo “higiene” vem da palavra grega hygieinos, que significa “portador de saúde” (Slide nº 1). De acordo com a mitologia grega antiga, o deus da cura Asclépio (nos antigos mitos romanos - Esculápio) tinha uma filha, Hígia, que ajudava o pai em seus negócios.
5069. O papel das ideias jurídicas de Avicena no desenvolvimento da medicina 31,86KB
Ibn Sina defendeu um estado ideal cuja população deveria consistir de governantes, produtores e tropas, e todos deveriam fazer um trabalho útil. Os méritos são especialmente grandes...
17864. Tendências e Problemas no Desenvolvimento do Sistema e Mercado de Seguro Médico nos EUA 75,24KB
Conceito e classificação do seguro de saúde: seguro de saúde obrigatório e voluntário. Sistemas de seguro saúde em países estrangeiros. Análise do mercado de seguros de saúde nos Estados Unidos. Características e características do mercado de seguros saúde nos Estados Unidos.
20590. Capital próprio de um banco comercial do ponto de vista da sua constituição 326,53KB
O Comité de Supervisão de Basileia, que tentou mudar radicalmente o sistema de avaliação da adequação do capital próprio de um banco, é de particular relevância para o problema da gestão do capital próprio de um banco e para as questões da sua regulamentação. Apesar da participação insignificante no passivo total dos bancos, o capital próprio continua a ser a base da fiabilidade e estabilidade do banco, a base das atividades do banco e a sua almofada de segurança. Recentemente, as questões bancárias relacionadas com o capital próprio do banco têm atraído especial atenção...

A avaliação do nível de evidência é a principal ferramenta de trabalho na medicina baseada em evidências (Fig. 3.1). Portanto, o mecanismo mais importante que permite ao médico navegar pela enorme quantidade de dados médicos publicados é o sistema de classificação para avaliar pesquisas científicas. No entanto, até à data não existe uma escala geralmente aceite para avaliar o grau de evidência.

Pode haver diversas categorias de evidências para um estudo – de 3 a 7. Um número menor corresponde a menos evidências. Existem também três categorias de evidências de pesquisa.

Arroz. 3.1. Pirâmide de publicações médicas

As recomendações práticas para diagnóstico e tratamento podem basear-se tanto em dados de investigação como na sua extrapolação. Levando isso em consideração, as recomendações são divididas em 3 a 5 níveis, geralmente designados por letras latinas - A, B, C, D, E.

A - a evidência é convincente: há fortes evidências a favor da utilização deste método;

B – força relativa das evidências: há evidências suficientes para recomendar a proposta;

C - não há evidências suficientes: as evidências disponíveis são insuficientes para fazer uma recomendação, mas as recomendações podem ser feitas levando em consideração outras circunstâncias;

D - evidências negativas suficientes: há evidências suficientes para desaconselhar o uso deste método em determinada situação;

E - Forte evidência negativa: Existem evidências suficientemente convincentes para excluir este método das recomendações.

Na maioria dos países da Europa Ocidental e no Canadá, existem três níveis de evidência - A, B, C. As recomendações do nível A baseiam-se nos resultados de estudos classificados como evidência de categoria I e, portanto, têm o mais alto nível de fiabilidade. A confiabilidade das recomendações de nível B também é bastante elevada, uma vez que são formuladas utilizando materiais de estudos de categoria II ou extrapolações de estudos de evidências de categoria I. As recomendações de nível C baseiam-se em estudos não controlados e consenso de especialistas (evidência de categoria III) ou contêm extrapolações de recomendações de categoria I e II.

Um dos mais abrangentes é o Oxford Centre for Evidence-based Medicine Levels of Evidence, publicado em maio de 2001 (o original é apresentado no Apêndice 1). Utiliza os seguintes critérios para a confiabilidade das informações médicas:

Alta confiabilidade – as informações são baseadas nos resultados de diversos estudos clínicos independentes com resultados consistentes, resumidos em revisões sistemáticas;

Confiabilidade moderada – as informações são baseadas nos resultados de diversos estudos clínicos independentes com objetivos semelhantes;

Confiabilidade limitada - as informações são baseadas nos resultados de um estudo clínico;

Não há evidências científicas rigorosas (nenhum ensaio clínico foi realizado) - a afirmação é baseada na opinião de especialistas.

É bastante óbvio que é difícil não apenas para um médico praticante, mas também para um pesquisador, utilizar essas recomendações na prática cotidiana.

A Agência dos EUA para Políticas e Pesquisa em Saúde propôs uma escala mais simples, com os seguintes níveis de evidência em ordem decrescente de força:

I a - metanálise de ECRs;

I b - pelo menos um ECR;

II a - estudo controlado bem organizado e sem randomização;

II b - pelo menos um estudo quase-experimental bem delineado;

III – estudos não experimentais;

IV - relatório de comitê de especialistas ou parecer e/ou experiência clínica de especialistas idôneos.

Neste último caso, o papel principal é desempenhado pelo factor subjetivo, nomeadamente a experiência pessoal do médico e a opinião de especialistas, cuja escolha pode ser tendenciosa. A Scottish Intercollegiate Medical Network também desenvolveu um sistema para avaliar o nível de evidência, com base nos elementos discutidos acima:

A - no nível I a, I b;

B - nos níveis II a, II b, III;

C - no nível IV (somente se não houver A e B).

O movimento “Medicina Baseada em Evidências” propôs uma escala de avaliação do nível de confiabilidade do conhecimento, levando em consideração, em primeiro lugar, o esquema de obtenção de conhecimentos relevantes (Tabela 3.1).

Tabela 3.1. Níveis de confiabilidade do conhecimento para terapia (de acordo com a revista Critical Care Medicine (1995), 23, N l, 395 pp.). São utilizadas três gradações de confiabilidade (A, B, C) e cinco níveis com sinais I, I-, II, II-, III, IV, V)

Gradação

Revisão de alta qualidade disponível

revisão de alta qualidade

O caso em que o limite inferior do intervalo de confiança para o efeito do tratamento excede o benefício clinicamente significativo:

Os resultados da pesquisa são uniformes

Os resultados do estudo são heterogêneos (I-)

Ensaios randomizados com baixas taxas de erro Tipo I e Tipo II (I)

O caso em que o limite inferior do intervalo de confiança para o efeito do tratamento é inferior ao benefício clinicamente significativo, mas a estimativa pontual é superior:

Os resultados da pesquisa são homogêneos (11+);

Os resultados da pesquisa são heterogêneos (II-)

Ensaios randomizados com altos níveis de erros tipo I e tipo II (II)

Estudos de coorte simultâneos não randomizados (III)

Estudos de coorte histórica não randomizados (IV)

Série de casos (V)

Embora, segundo os autores, esta escala seja mais compreensível para o profissional médio, ela exige que o usuário tenha um conhecimento bastante bom do desenho do estudo. Os autores da escala pedem que seja considerada um compromisso, duramente conquistado, mas que ao mesmo tempo coloca uma barreira aos “princípios fisiológicos” e ao “raciocínio clínico” que não são sustentados pela experiência. Os autores acreditam que ela deve ser utilizada até que surjam condições na medicina para a utilização de uma escala mais objetiva.

Para os profissionais que têm uma compreensão muito básica da epidemiologia clínica e das estatísticas, pode ser bastante aceitável avaliar a fiabilidade das evidências provenientes de diversas fontes, de acordo com as recomendações do Conselho Sueco para a Metodologia de Avaliação nos Cuidados de Saúde. Segundo eles, a fiabilidade diminui nos a seguinte ordem:

Ensaio clínico randomizado controlado;

Ensaio clínico não randomizado com controle concorrente;

Ensaio clínico não randomizado com controle histórico;

Estudo de coorte;

. "controle de caso";

Ensaio clínico cruzado;

Resultados da observação.

Revisões sistematizadas

O aumento no número e na qualidade dos resultados da pesquisa clínica nos últimos 10 anos desempenhou um papel importante na tomada de decisões práticas na prática clínica diária. É muito difícil para um médico praticante compreender o fluxo contínuo e crescente de informações; revisões sistemáticas sobre vários problemas de prevenção, diagnóstico e tratamento de uma ampla gama de doenças fornecem assistência significativa nisso. A principal vantagem da revisão é a integração de informações de vários estudos, o que permite obter um quadro objetivo do efeito clínico da intervenção analisada em comparação com um ensaio clínico separado. As revisões sistemáticas são um dos componentes mais importantes da medicina baseada em evidências.

Os resultados dos estudos individuais, mesmo com um grande número de pacientes, refletem em grande parte a eficácia da intervenção numa amostra limitada de pacientes, que é determinada pelos critérios de inclusão e exclusão, bem como pelos seus indicadores clínicos e demográficos. Portanto, deve-se ter muito cuidado ao extrapolar as conclusões tiradas dos resultados de um estudo específico para toda a população de pacientes. Em estudos envolvendo um pequeno número de pacientes, o papel dos fatores aleatórios aumenta, o que pode levar a resultados incorretos.

As características dos atributos de uma revisão sistemática (uma descrição clara dos princípios e critérios de seleção de estudos para incluir métodos de análise e padrões de qualidade de pesquisa) podem reduzir significativamente o risco de viés, bem como obter uma amostra mais ampla de pacientes.

Primeiramente, os estudos são selecionados para uma revisão sistemática de acordo com uma questão clínica específica. O principal objetivo de uma revisão sistemática é obter respostas às seguintes questões de uma forma que um profissional possa compreender.

1. A intervenção em análise é realmente eficaz?

2. Quão eficaz é a intervenção que está a ser analisada em comparação com o placebo, a terapia “tradicional” ou em comparação com outras intervenções semelhantes atualmente utilizadas para uma patologia específica?

3. Quão segura é a intervenção que está sendo analisada, inclusive quando comparada com intervenções já utilizadas?

4. A utilização da intervenção analisada é justificada num determinado paciente, tendo em conta a relação benefício (eficácia)/risco (segurança)?

5. É possível substituir a intervenção em análise por uma intervenção já utilizada e quais as consequências dessa substituição?

Os resultados das revisões sistemáticas, via de regra, estão repletos não apenas de números, mas de terminologias e abreviações especiais que são difíceis de serem compreendidas e interpretadas corretamente por um médico praticante. Os termos e abreviações mais utilizados na medicina baseada em evidências são apresentados no apêndice; atualmente, a maioria deles é utilizada não apenas na literatura médica especializada, mas também durante apresentações em congressos e simpósios nacionais.

Um dos conceitos mais importantes é o indicador NNT (o número necessário para tratar; abreviatura russa NNTBI ou NNT - o número de pacientes que precisam ser tratados com um determinado método durante um determinado tempo para obter um determinado efeito ou prevenir um resultado desfavorável em um paciente). A vantagem deste indicador é a possibilidade de sua utilização na prática clínica real de um médico comum. Além disso, com diversas intervenções que levaram à

mesmo resultado para uma doença, o conhecimento do valor NNT permite escolher as táticas de tratamento ideais para um determinado paciente (Tabela 3.2).

Tabela 3.2. O efeito dos inibidores da ECA na mortalidade em ECRs na prevenção e tratamento da ICC

Observação. E - enalapril; K - captopril; R - ramipril; T - trandalopril; Z - Zofenopril

O NNT sempre pressupõe a existência de um grupo de comparação (grupo de referência), no qual os pacientes recebem placebo ou algum outro tratamento ou não recebem nenhum. O NNT pode variar dentro do mesmo estudo dependendo do critério escolhido para avaliar a eficácia da intervenção (na maioria das vezes estes são parâmetros “substitutos” adotados para uma doença específica).

O significado oposto é o indicador “o número de pacientes que precisam ser tratados com um determinado método por um determinado tempo para que a intervenção possa prejudicar um paciente”. Este indicador é de particular importância na avaliação da viabilidade de uma intervenção preventiva. O conhecimento deste indicador e do NNLBI permite avaliar o grau de risco da intervenção num determinado paciente.

O NNT para um determinado tipo de intervenção (na maioria das vezes tratamento) é o recíproco da redução absoluta do risco

intervenção. Vejamos isso com um exemplo específico. Como resultado do estudo, foi demonstrado que em decorrência do tratamento com o medicamento X, o risco de desenvolver uma das complicações características da doença analisada diminuiu de 0,5 para 0,3, o risco relativo foi de 0,20, a redução do risco relativo foi de 0,80, e a redução do risco absoluto - 0,20. Portanto, o NNT é 1: 0,20 = 5. Do ponto de vista prático, isso significa que o médico precisa tratar X 5 pacientes com o medicamento para evitar o desenvolvimento de uma complicação em um paciente.

O valor do indicador NNT é significativamente influenciado pelo grau de redução absoluta do risco. A simplicidade de cálculo do indicador NNT permite que seja amplamente utilizado como principal indicador digital da eficácia (ou potencial dano) do tipo de intervenção em análise. A principal vantagem do NNT é que pode ser utilizado por qualquer médico em relação às condições de sua prática.

Neste sentido, torna-se muito importante compreender as possibilidades e limites da utilização do indicador NNT na prática clínica real.

Características do indicador:

Estritamente específico para um determinado tipo de intervenção e numa determinada categoria de pacientes;

Descreve a diferença nos resultados clinicamente importantes entre os grupos de intervenção e controle;

Uma pontuação baixa (cerca de 1) significa que um resultado favorável é observado em quase todos os pacientes que recebem tratamento e apenas em uma pequena parte dos pacientes do grupo de comparação;

Na prática, um indicador igual a um é extremamente raro, mesmo na investigação de antibióticos;

O valor absoluto do indicador não é um critério para decidir se uma intervenção é apropriada, mas reflecte a probabilidade de alcançar um efeito positivo. Assim, na insuficiência cardíaca, a eficácia de várias intervenções terapêuticas, incluindo as oficialmente recomendadas, varia de 20 a mais de 100, mas todas elas são utilizadas nesta categoria de pacientes porque são consideradas eficazes, muitas vezes simultaneamente (por exemplo, uma combinação de inibidores da ECA com β-bloqueadores e espironolactona).

Limitações para utilização do indicador:

Só pode ser usado corretamente dentro do intervalo de confiança de 95% (o que significa que em 9 entre 10 casos o valor verdadeiro do NNT está dentro deste intervalo) para a amostra em estudo;

Na ausência de valores de intervalo de confiança, mesmo na presença de valores baixos do indicador, não se pode excluir a ausência de efeito benéfico da intervenção devido ao valor discreto do NNT;

É possível comparar os valores do NNT apenas para as mesmas doenças, pois seus desfechos clínicos podem ser diferentes. Assim, as consequências da prevenção da formação de trombos no acidente vascular cerebral e nas hemorróidas são diferentes;

As comparações diretas dos valores do NNT só são permitidas se forem calculadas para diferentes intervenções para a mesma doença, da mesma gravidade e para o mesmo desfecho;

Os valores do indicador podem mudar para um tipo de intervenção em um determinado grupo de pacientes dependendo do nível de risco inicial (baixo, intermediário ou alto) da mesma. Além disso, não existe um padrão entre o grau de risco e a eficácia da intervenção. Assim, uma doença grave pode ser mais fácil de tratar do que a mesma doença de gravidade leve ou moderada e vice-versa. Em última análise, tudo é determinado pela própria doença e pelo seu prognóstico de vida e incapacidade;

A determinação do NNT envolve a avaliação do efeito de uma intervenção sobre um resultado durante um período de tempo especificado (na maioria das vezes a duração média de um ECR). Portanto, a comparação dos indicadores NNT para diversas intervenções, mas para a mesma patologia, só é válida se a eficácia das intervenções for avaliada no mesmo período de tempo. É impossível comparar a eficácia do tratamento com um tipo de intervenção durante 1 ano, outro durante 3 anos e um terceiro durante 5 anos.

Diferenças no NNT para intervenções terapêuticas e preventivas:

Numa intervenção de tratamento, todos os grupos de comparação são tratados, pelo que a questão principal é determinar e comparar a eficácia das diferentes intervenções;

Na prevenção, é importante determinar se uma intervenção preventiva irá prevenir um resultado adverso de forma mais eficaz do que nenhuma intervenção;

O tratamento e as intervenções preventivas devem ponderar a relação risco-benefício de cada intervenção possível;

Com intervenções preventivas, existe a possibilidade de ocorrência de eventos adversos em alguns indivíduos sem obtenção de qualquer efeito benéfico;

O indicador NNT permite organizar os tipos de intervenções comparadas em ordem decrescente ou crescente, o que simplifica a escolha da opção de tratamento. Porém, na tomada de decisão final, é necessário levar em consideração fatores como o custo do tratamento, a patologia concomitante clinicamente significativa e as características do paciente, uma vez que influenciam significativamente a adesão do paciente à terapia. Ao avaliar a eficácia de uma intervenção por parte de médicos e pacientes, é necessário dar preferência a estes últimos, uma vez que a avaliação do médico é sempre menos sensível que a avaliação do paciente;

As intervenções preventivas muitas vezes não afectam a maioria da população, excepto as que estão em risco. O valor NNT para intervenções preventivas indica a sua eficácia na população, mas é menos aplicável a cada caso específico;

O indicador NNT para prevenção deve ser sempre utilizado simultaneamente com o indicador NNTI (o número de pacientes no grupo experimental comparado com o grupo controle necessário para identificar um resultado adverso adicional). Também é necessária uma avaliação do risco inicial individual. uma vez que no seu nível inicialmente baixo não há viabilidade de intervenção preventiva.

O princípio de cálculo do indicador NNT permite avaliar a segurança das intervenções. O número de pacientes nos quais ocorre um evento adverso durante a intervenção por paciente é calculado da mesma forma que o NNT. Porém, nos casos em que a frequência de eventos adversos é baixa, é impossível determinar um intervalo de confiança estatisticamente significativo; torna-se incerto. Neste caso, o dano da intervenção tem apenas uma estimativa pontual. Eventos adversos graves em

Os ECRs são identificados pelo número de desistências devido à intervenção. A falta de informações sobre efeitos colaterais e taxas de abandono devido a eventos adversos em revisões sistemáticas e ECRs reduz significativamente o seu valor.

As revisões sistemáticas também podem considerar outros efeitos do tratamento que não se enquadram nas expectativas convencionais dos efeitos desejáveis ​​e indesejáveis ​​de uma intervenção. Por exemplo. reduzindo o risco de desenvolver tumores intestinais com o uso prolongado de ácido acetilsalicílico para prevenção primária e secundária de complicações cardiovasculares.

O princípio de cálculo do indicador NNT na ausência dele na publicação

O risco de desenvolver um desfecho (probabilidade) é expresso em relação à amostra total de um determinado tamanho, por exemplo, quando 15 casos de um desfecho são observados em uma amostra de 100 pessoas, o risco desse desfecho é de 0,15. Nesse caso, a chance de tal resultado na amostra é calculada como o número de resultados desenvolvidos em relação ao número de resultados não desenvolvidos (por exemplo, 15 a 85 ou 0,17). A razão de probabilidades é então calculada simplesmente como as probabilidades de um resultado no grupo de tratamento divididas pelas probabilidades desse resultado no grupo de comparação. Portanto, se uma revisão sistemática fornecer apenas o odds ratio, mas nenhum valor de NNT, este último indicador poderá ser calculado a partir da tabela. 3.3. Para fazer isso, selecione a coluna com a razão de chances mais próxima do valor publicado e a linha com a taxa de resultado mais próxima do valor esperado e, em seguida, encontre o valor NNT correspondente em sua interseção. O lado esquerdo mostra valores de odds ratio menores que 1,0. Isto significa que nas intervenções preventivas onde o resultado é a ocorrência da doença, recidiva, complicações ou agravamento da doença, o resultado de interesse é menos comum no grupo de tratamento do que no grupo de comparação. No lado direito da figura, valores de odds ratio superiores a 1,0 significam que o resultado de interesse é mais comum no grupo de tratamento, o que é típico de estudos que examinam a eficácia das intervenções de tratamento (onde o resultado é recuperação completa, remissão , ausência de complicações ou estabilização da doença).

A tabela permite determinar como diferentes frequências do resultado afetam o valor NNT em uma determinada proporção de chances.

Tabela 3.3. Cálculo do NNT com base na razão de chances

Ao extrapolar dados de uma revisão sistemática, os médicos devem primeiro avaliar até que ponto estes se adequam ao grupo de pacientes para os quais a intervenção foi considerada benéfica. Não há dúvida de que a experiência pessoal do médico e os padrões de tratamento existentes devem ser levados em consideração na tomada de decisão final. As percepções da eficácia dos medicamentos podem mudar à medida que mais dados se tornam disponíveis após a conclusão de grandes ensaios clínicos randomizados. Novos dados emergem e os resultados da revisão sistemática mudam. Portanto, no trabalho prático é necessário utilizar o mais recente deles. A chave é que as revisões sistemáticas podem fornecer informações objetivas que permitem aos pacientes e aos médicos prever a eficácia e as possíveis consequências de uma intervenção específica antes do início do tratamento.

Para intervenções preventivas, o NNT é calculado pela fórmula:

Para intervenções terapêuticas, o NNT é calculado pela fórmula:

As revisões sistemáticas são divididas em qualitativas e quantitativas. Estes últimos distinguem-se pela utilização de métodos estatísticos especiais para resumir os resultados (meta-análise)

Arroz. 3.2. Interação entre revisões sistemáticas e metanálises

vários estudos para tirar conclusões sobre a eficácia de uma intervenção ou método de diagnóstico. Muitas vezes, uma revisão sistemática realizada utilizando métodos estatísticos também é chamada de meta-análise, mas isso não é totalmente correto. A relação deles é apresentada na Fig. 3.2.

Meta-análise

Um tipo de revisão sistemática é uma meta-análise. A meta-análise é frequentemente considerada o mais alto nível de evidência e torna-se a base para a seleção das intervenções terapêuticas, preventivas e diagnósticas mais eficazes. A meta-análise, que surgiu no final da década de 1980, é hoje um dos métodos mais populares e em rápido desenvolvimento para integrar sistematicamente os resultados de estudos científicos individuais. Por exemplo, no Reino Unido, até 50% de todos os tratamentos utilizados actualmente para doenças internas baseiam-se nos resultados de ensaios clínicos aleatorizados (ECR), bem como em meta-análises correspondentes. Hoje, uma meta-análise é “uma combinação dos resultados de diferentes estudos, consistindo em um componente qualitativo (por exemplo, o uso de critérios de inclusão pré-determinados na análise como completude dos dados, ausência de falhas óbvias no design do estudo e

etc.) e uma componente quantitativa (processamento estatístico dos dados disponíveis).” Ao mesmo tempo, I. Chalmers e D.G. Altman na monografia “Revisões Sistemáticas” caracteriza a meta-análise como “uma revisão sistemática quantitativa da literatura ou uma síntese quantitativa de dados primários para obter estatísticas resumidas”.

O objetivo de uma meta-análise é avaliar a eficácia da intervenção em estudo e identificar, examinar e explicar a heterogeneidade ou heterogeneidade nos resultados do estudo e nos subgrupos de pacientes. Deve fornecer estimativas pontuais e intervalares (intervalo de confiança de 95%) do efeito combinado da intervenção.

Conforme mencionado acima, mais de 2,5 milhões de artigos médicos são publicados anualmente no mundo, sem contar os materiais de inúmeras conferências e livros nacionais e internacionais. Naturalmente que nesta situação existe uma grande necessidade de análise e síntese da informação disponível. Sua análise, semelhante a uma revisão de literatura para um periódico ou dissertação, é puramente descritiva e subjetiva, embora seja pré-requisito para a realização de uma meta-análise após a atualização de um determinado problema. A principal desvantagem desta abordagem é que ela não utiliza técnicas estritamente científicas e matemáticas. Tudo isso leva ao surgimento do chamado erro β (erro tipo II - uma falsa afirmação de que não há diferença na eficácia dos tratamentos comparados quando na verdade são diferentes) devido a resultados conflitantes de estudos e números insuficientes de pacientes neles. Existem muitos exemplos de discrepâncias entre os resultados de uma revisão descritiva da literatura e sua meta-análise (publicação da conclusão do ganhador do Prêmio Nobel Professor L. Pauling sobre a redução da incidência de resfriados como resultado do uso de ácido ascórbico ácido, a eficácia dos antioxidantes na prevenção da patologia cardiovascular, a viabilidade de prevenir distúrbios do ritmo com lidocaína no período agudo infarto do miocárdio, a possibilidade de reduzir o risco de patologia cardiovascular em mulheres no contexto da terapia de reposição hormonal). Nenhum desses achados foi posteriormente confirmado pelos resultados das meta-análises correspondentes. Ao mesmo tempo, uma meta-análise cumulativa de 33 estudos clínicos poderia ter tornado a prática de administração

estreptoquinase no infarto agudo do miocárdio.

No entanto, também existem contra-exemplos. Uma delas é a discussão em meados da década de 1990 do século passado sobre a viabilidade e segurança do uso de antagonistas do cálcio na hipertensão arterial. Duas meta-análises mostraram um efeito negativo no risco de enfarte do miocárdio, mas grandes estudos subsequentes ALLHAT e ASCOT refutaram completamente estas preocupações, bem como uma nova meta-análise de BPTLC.

Em geral, a meta-análise permite determinar com mais precisão do que os resultados de um único ensaio clínico as categorias de pacientes nos quais os resultados são aplicáveis.

Com base nos resultados da meta-análise, muitas vezes não são apenas tomadas decisões de tratamento e diagnóstico, mas também decisões de gestão (por exemplo, a implantação de unidades especializadas em AVC, que reduzem o risco de mortalidade e incapacidade grave em mais de um terço). Curiosamente, nenhum dos mais de 10 ensaios clínicos randomizados demonstrou os benefícios de unidades especializadas.

Metanálises constantemente atualizadas podem reduzir significativamente o tempo entre uma descoberta científica e a implementação generalizada dos seus resultados na prática de saúde. Como exemplo, podemos citar os resultados de uma meta-análise sobre o uso de β-bloqueadores na hipertensão arterial, que estreitou significativamente as indicações para seu uso nesta categoria de pacientes.

Existem duas abordagens principais para a realização de meta-análise: a reanálise estatística de estudos individuais com base em dados primários sobre os pacientes incluídos neles, e uma abordagem alternativa baseada no resumo dos resultados de estudos publicados sobre um tópico específico.

As principais vantagens da meta-análise são a possibilidade de aumentar o poder estatístico do estudo e a fiabilidade da avaliação do efeito da intervenção em análise, o custo relativamente baixo e a eficiência da sua implementação.

De acordo com as recomendações da The Cochrane Collaboration. Preparar, manter e divulgar revisões sistemáticas dos efeitos dos cuidados de saúde” (The Cochrane Collaboration, UK, 1995) para analisar a qualidade da meta-análise realizada, é necessário analisar o seguinte.

Quão específico e claramente definido é o seu propósito (ver introdução).

O objetivo da metanálise deve ser específico e enquadrado na forma de uma questão clínica bem formulada. Isto permite-nos definir claramente a população e as características clínicas e demográficas da população de pacientes à qual os seus resultados podem ser aplicados. A formulação do propósito de uma meta-análise determina a estratégia para selecionar estudos originais e desenvolver critérios para inclusão de dados relevantes. O objectivo mais típico de uma meta-análise é responder à questão de saber se a intervenção em análise produz mais benefícios do que danos em comparação com outras intervenções, incluindo placebos.

Quão abrangentes e claramente descritas são as táticas de busca de publicações relevantes e se não são tendenciosas (ver materiais e métodos).

O primeiro passo é reduzir ao máximo o risco de viés por incluir apenas estudos com resultados positivos.

A metodologia de busca de publicações sobre o tema meta-análise é bastante complexa e inclui quatro etapas principais:

Pesquisar no maior número possível de bases de dados eletrônicas (como MEDLINE, Medscape. EMBASE, Science Citation Index), títulos e textos de publicações utilizando palavras-chave;

Análise de referências bibliográficas em artigos e livros sobre o tema de interesse, podendo conter links para publicações perdidas na primeira etapa;

Consultas a empresas farmacêuticas que produzem medicamentos cuja eficácia é avaliada numa meta-análise. Deve ser dada especial atenção à obtenção de resultados não publicados da sua própria investigação, os chamados Dados em arquivo;

Contactos pessoais com especialistas e especialistas de referência na área do tema da meta-análise, que permitirão identificar estudos até então desconhecidos e obter esclarecimentos sobre as vantagens e desvantagens dos desenhos de estudo incluídos na meta-análise.

Outra regra para seleção de estudos para inclusão em uma meta-análise: se vários estudos foram realizados com a participação de um grupo,

estudos em uma população de pacientes, então a meta-análise utiliza os dados desta última.

Pesquisar e identificar todas as publicações relevantes para o tópico da meta-análise é uma síntese da digitalização manual lenta e trabalhosa de todos os periódicos e coleções que podem conter publicações relacionadas à meta-análise com uma digitalização mais produtiva por computador de bases de dados bibliográficas eletrônicas. No entanto, mesmo esta combinação revela cerca de 65% de todas as publicações sobre o problema da meta-análise. Existem formas específicas de avaliar a integridade da identificação e inclusão de estudos em uma meta-análise para reduzir a probabilidade de viés de publicação devido à publicação predominante de resultados de estudos não negativos. Para avaliar qualitativamente a presença desse erro sistemático, construa um gráfico de dispersão em forma de funil dos resultados de estudos individuais em coordenadas (tamanho do efeito, tamanho da amostra). Quando os estudos são totalmente identificados, este diagrama é simétrico.

Descrição e validade dos critérios de inclusão e exclusão de estudos individuais para metanálise (ver Materiais e Métodos).

A determinação dos critérios de inclusão e exclusão de estudos de uma metanálise depende da identificação inicial de desfechos prognosticamente significativos, típicos da patologia em estudo.

Considera-se que a qualidade de uma metanálise depende das características dos estudos selecionados:

O princípio de seleção dos seus participantes (população geral ou nosologia específica);

Local (clínica universitária, hospital geral ou clínica especializada);

Duração (deve ser comparável e suficiente para analisar o impacto da intervenção nos resultados);

Características dos pacientes incluídos no estudo (comparabilidade das características clínicas e demográficas);

Critérios diagnósticos da doença objeto de pesquisa na meta-análise;

Dosagem, frequência de uso, via de administração, horário de início e duração de uso do medicamento (ou método de tratamento);

Tratamento complementar e presença de doenças concomitantes nos pacientes incluídos no estudo;

Desvios do protocolo do estudo, dos desfechos clínicos estudados e dos critérios para sua avaliação (comparabilidade dos métodos diagnósticos utilizados);

A presença nos materiais de estudo de valores absolutos que caracterizam os pacientes nele incluídos e os desfechos clínicos adequados à patologia em estudo.

O número de pacientes incluídos no estudo desempenha um papel importante, mas não decisivo, na sua seleção para meta-análise. O número necessário de pacientes depende da prevalência da patologia em estudo e dos desfechos selecionados.

Os seguintes estudos e publicações não estão incluídos na meta-análise:

Não atender aos critérios de inclusão;

Em que não há dados sobre os desfechos clínicos estudados em todos os pacientes;

Quando a intervenção a ser avaliada na meta-análise não tiver sido pré-especificada e descrita detalhadamente na seção Métodos;

Que contêm diferentes tipos de intervenções (dosagem do medicamento, frequência e via de administração, momento de início e duração do tratamento);

Que não fornecem uma definição clara dos termos resultado “favorável” e “desfavorável”.

Disponibilidade de avaliação da qualidade de estudos individuais incluídos na meta-análise (ver Materiais e Métodos).

A avaliação da qualidade dos estudos é realizada por todos os autores da meta-análise. Pode ser avaliado objetivamente por um especialista independente e por um sistema de pontuação de avaliação de qualidade.

Estudos com medidas de resultados claramente definidas e um grande número de pacientes recebem pontos máximos. Mais pontos devem ser atribuídos a estudos que atendam às recomendações da The Cochrane Collaboration. Preparar, manter e divulgar revisões sistemáticas dos efeitos dos cuidados de saúde”, analisadas neste capítulo. As pontuações de todos os parâmetros são somadas, divididas pelo total máximo possível e multiplicadas por 100%. A avaliação global da qualidade metodológica de cada análise

estudo lisado pode variar de 0 a 100%. Os autores de qualquer meta-análise devem determinar antecipadamente o número mínimo de pontos abaixo do qual a qualidade metodológica do estudo é considerada insatisfatória e insuficiente para sua inclusão na meta-análise.

Disponibilidade de descrição da metodologia de extração de dados de estudos originais (publicações).

Quais métodos (Mantel-Haenszel para um modelo de efeitos fixos; DerSimonian e Laird para um modelo de efeitos aleatórios ou análise de regressão logística realizada levando em consideração fatores prognósticos para a análise de dados de estudos observacionais) e programas estatísticos para processamento dos dados obtidos são utilizados , quão válidos e aceitáveis ​​são para este estudo (ver materiais e métodos).

Os resultados de uma meta-análise podem ser apresentados tanto relativos (odds ratio, risco relativo, redução do risco relativo, etc.) quanto absolutos (redução absoluta do risco, número de pacientes que precisam ser tratados com um determinado método por um determinado tempo a fim de alcançar um certo efeito favorável ou prevenir um certo resultado adverso em um paciente e outros) indicadores. A experiência mostra que os indicadores absolutos são mais compreensíveis para os profissionais.

A descrição dos métodos estatísticos utilizados deve ser suficiente para reproduzir esta meta-análise ou realizar outra.

Os resultados mais confiáveis ​​​​são considerados os resultados de uma meta-análise baseada em dados primários sobre cada paciente incluído no estudo original, mas esta tarefa é difícil de realizar devido ao “fechamento” das informações, bem como do material e do tempo custos. Estes últimos são comparáveis ​​ao estudo original. Mas é justamente essa abordagem que reduz a probabilidade de erros associados à possível imprecisão dos dados agregados dos estudos originais, e permite determinar o tempo antes do desenvolvimento de um determinado desfecho clínico dependendo do tratamento realizado, inclusive em casos individuais subgrupos.

Existem vários programas de software estatístico disponíveis para conduzir meta-análises. Um dos mais populares é

O programa ReviewManager (Cochrane Collaboration) está disponível. O pacote contém um conjunto de ferramentas de software para conduzir qualquer versão de meta-análise. A escolha de um método específico é ditada pelo tipo de dados (dicotômicos, contínuos) e modelo (efeitos fixos e aleatórios).

Os dados dicotômicos são o resultado de pesquisas originais (odds ratio, risco relativo, diferença de risco nas amostras) que caracterizam a eficácia da intervenção. Os dados contínuos são geralmente o intervalo (valores mínimo e máximo) dos parâmetros em estudo ou a diferença não padronizada nas médias ponderadas entre os grupos de comparação (e os resultados devem ser avaliados da mesma forma). Caso tenham sido avaliadas de forma diferente, é necessária a padronização da diferença de médias nos grupos comparados, o que afetará negativamente a qualidade da análise.

Modelos de efeitos fixos ou aleatórios (método DerSimonian e Laird) são usados ​​para analisar dados dicotômicos.

No caso de variância zero entre os estudos, são utilizados os modelos de Mantel-Haenszel, Peto e de efeitos fixos (assume que a intervenção em estudo tem a mesma eficácia em todos os estudos, e as diferenças detectadas entre os diferentes estudos se devem apenas à variação dentro dos estudos). O modelo de efeitos aleatórios, ao contrário, pressupõe que a eficácia da intervenção em estudo pode ser diferente em diferentes estudos, leva em consideração a dispersão não apenas dentro de um estudo, mas também entre eles, e utiliza a metodologia DerSimonian e Laird.

As opções para meta-análise incluem meta-análise multivariada, meta-análise bayesiana, meta-análise cumulativa, meta-análise de sobrevivência.

Meta-análise Bayesiana (c método do perfil de confiança) é utilizado para um pequeno número de estudos analisados ​​e permite calcular a priori probabilidades de eficácia de uma intervenção tendo em conta dados indiretos.

A meta-análise de regressão (regressão logística, mínimos quadrados, modelo de Cox) é utilizada quando há heterogeneidade significativa nos resultados dos estudos. Permite construir um modelo de mudanças no indicador analisado dependendo

nas diversas características do estudo (tamanho da amostra, dose do medicamento, via de administração, características clínicas e demográficas dos pacientes). Os resultados da meta-análise de regressão são geralmente apresentados na forma de uma regressão e uma linha de regressão com um coeficiente de inclinação e uma indicação do intervalo de confiança.

Em alguns casos, a meta-análise pode ser utilizada não apenas para resumir os resultados de estudos controlados, mas também de estudos de coorte. No entanto, a probabilidade de um erro sistemático aumenta significativamente.

Um tipo especial de meta-análise é uma generalização das avaliações do conteúdo informativo dos métodos diagnósticos obtidos em diferentes estudos. O objetivo dessa metanálise é construir uma curva ROC característica para a relação entre sensibilidade e especificidade usando regressão linear ponderada.

Para metanálise é obrigatória a realização de teste de heterogeneidade estatística (Qui-quadrado) dos estudos incluídos na análise. Se forem encontradas diferenças significativas entre os estudos, as conclusões da meta-análise podem ser questionadas. Para avaliar a heterogeneidade, utiliza-se o teste Qui-quadrado com hipótese nula de efeito igual em todos os estudos e com nível de significância de 0,1 para aumentar a sensibilidade do teste.

A fonte de heterogeneidade nos resultados de diferentes estudos é considerada a variância dentro (desvios aleatórios dos resultados de diferentes estudos de um único valor de efeito fixo verdadeiro) e entre estudos (diferenças nas amostras estudadas em indicadores clínicos e demográficos ou na natureza das intervenções, levando a diferenças na eficácia da intervenção).

Se a variância entre os estudos for considerada próxima de zero, então a cada estudo será atribuído um peso que é inversamente proporcional à variância do resultado desse estudo. O tamanho da amostra influencia diretamente a quantidade de variância.

Como os dados dos estudos individuais foram resumidos e se foi utilizada uma abordagem cumulativa com a apresentação de resultados intermediários (ver materiais e métodos).

Os estudos incluídos em uma meta-análise devem ser tão homogêneos quanto possível em termos do tipo de intervenção, características clínicas e demográficas da população de pacientes, desfechos estudados,

desenho (por exemplo, combinar os resultados de estudos abertos e cegos é inaceitável).

A utilização de uma abordagem cumulativa com resultados intermédios permite avaliar a contribuição de cada estudo. Ao realizar uma metanálise cumulativa, os estudos são adicionados um de cada vez em uma ordem pré-determinada (por exemplo, de acordo com a data de publicação ou nome do primeiro autor, etc.). Metanálise cumulativaé uma variante da metanálise bayesiana com inclusão gradual dos resultados do estudo e permite o cálculo de probabilidades anteriores e posteriores à medida que os estudos são incluídos na análise.

Qual o número total de estudos e pacientes incluídos na metanálise e a presença de análises de subgrupos (ver resultados).

Analisar a eficácia de uma intervenção em subgrupos é uma marca registrada de uma meta-análise qualitativa. Não existem padrões regulamentados sobre o número necessário de estudos para metanálise. É importante que os estudos sejam suficientes para fornecer informações estatisticamente fiáveis ​​e que reflitam toda a gama de eficácia da intervenção.

São fornecidos intervalos de confiança para a eficácia da intervenção e como foram padronizados os fatores que influenciaram o resultado final (ver resultados).

A falta de intervalos de confiança permite ser cético quanto aos resultados da meta-análise como um todo.

As conclusões tiradas decorrem dos dados apresentados na meta-análise e existem limitações à aplicação dos seus resultados (ver a discussão dos resultados).

Os resultados das meta-análises são geralmente apresentados graficamente (estimativas pontuais e intervalares dos tamanhos dos efeitos de cada um dos estudos incluídos e o resultado resumido da meta-análise) e em tabelas.

A robustez dos resultados da meta-análise é testada por análise de sensibilidade, que pode ser realizada utilizando diferentes técnicas:

Inclusão e exclusão de metanálise de estudos realizados com baixo nível metodológico;

Alteração dos parâmetros de dados selecionados de cada estudo incluído;

Exclusão dos maiores estudos da metanálise e recálculo dos resultados, seguido de avaliação da heterogeneidade dos resultados pelo teste Qui-quadrado.

Uma forma de fazer isto é comparar os resultados obtidos em dois modelos: - com efeitos fixos e aleatórios. No segundo modelo, os resultados tendem a tornar-se menos significativos estatisticamente. Se o tamanho do efeito de uma intervenção específica em análise não mudar significativamente numa análise de sensibilidade, então as conclusões da meta-análise primária são justificadas.

A falta de dados de fontes primárias põe em causa a qualidade da meta-análise.

É fornecido um resumo estruturado da meta-análise?

Um resumo estruturado pode economizar significativamente o tempo do profissional.

Também é importante em qual periódico (índice de citação) foram publicados os resultados da análise e se os autores têm experiência na sua realização (presença de publicação com meta-análise).

Conduzir uma meta-análise é um esforço coletivo. Já na fase de seleção dos estudos, é necessária a participação de pelo menos dois pesquisadores para maximizar e objetivar a busca.

Os resultados da meta-análise têm importante significado científico e prático:

São uma fonte de informação objetiva sobre métodos modernos de diagnóstico, prevenção e tratamento;

Servir de base para o desenvolvimento de um sistema de formulários, padrões de diagnóstico e tratamento e recomendações baseadas em evidências;

Estimulam a realização de estudos clínicos específicos, pois formam uma hipótese científica e permitem uma determinação mais precisa do tamanho da amostra planejada de pacientes;

Permitem-nos avaliar não só a eficácia, mas também a segurança das intervenções.

A meta-análise é uma abordagem relativamente nova para resumir dados de estudos clínicos, mas não pode substituí-los. Se houver contradições entre os dados de uma meta-análise e os resultados dos estudos clínicos, a tomada de decisão deve ser adiada até que os dados de novos estudos e da meta-análise estejam disponíveis, uma vez que a sua implementação incorreta leva a resultados erróneos. Até o momento, não há uma resposta clara para a questão de saber se os resultados das metanálises ou dos megaensaios são mais importantes para a prática clínica.

Pesquisas clínicas

Alguns estudos clínicos não só fornecem a base para revisões sistemáticas e meta-análises, mas são eles próprios uma importante fonte de evidências para a medicina baseada em evidências.

A principal diferença entre as pesquisas científicas é o desejo de obter informações mais objetivas, para as quais é necessário eliminar a influência de fatores aleatórios (externos), levar em consideração as características dos sujeitos e formar grupos de estudo de pacientes com diferenças mínimas em indicadores clínicos e demográficos entre eles. Para solucionar um problema clínico específico, utiliza-se um tipo de pesquisa totalmente específico, que redefine as características de seu preparo e condução. É a estrutura de investigação escolhida corretamente que determina até que ponto as suas conclusões serão baseadas em evidências e convincentes.

Para solucionar esses problemas, existem estudos de diferentes projetos e estruturas.

Estudos transversais (simultâneos):

Descrições dos sintomas e manifestações da doença, diagnóstico/estágio da doença, variações, gravidade da doença;

Analítico (explorador);

Atento;

Descrições de casos.

Estudos longitudinais:

Prospectivo (observacional, história natural, prognóstico, fatores causais e incidência, intervenção não controlada, com intervenção intencional, variação normal, gravidade da doença, paralelo, sequencial, cruzado, autocontrolado, controlado externamente);

Estudos retrospectivos de caso-controle (intervenção intencional, observacional, pseudo-prospectivo).

Em estudos transversais, os parâmetros de interesse são avaliados uma única vez. Eles permitem avaliar a relação dos signos, mas não a dinâmica de desenvolvimento do estado analisado. Estes são os estudos menos confiáveis ​​em termos de evidência, uma vez que a simples observação de um conjunto de dados pode facilmente levar a erros.

Nos estudos longitudinais são identificados grupos de indivíduos que são observados durante um determinado período de tempo e os indicadores de interesse (monitorados) são necessariamente reavaliados pelo menos uma vez. A duração da observação pode ser qualquer e é determinada pelo bom senso e pela possibilidade real de alteração do indicador (por exemplo, na insuficiência cardíaca crônica, é possível uma alteração na fração de ejeção após apenas alguns dias de tratamento, e uma diminuição na esquerda hipertrofia ventricular não antes de três meses).

O acompanhamento das mudanças nos indicadores em um grupo especialmente formado é realizado em estudos prospectivos. Em estudos prospectivos (coorte) de base populacional, observa-se uma grande amostra de pacientes da população. Eles acompanham o surgimento de novas doenças, complicações de patologias existentes (estudos do desenvolvimento natural das doenças.

Os estudos prospectivos são os mais baseados em evidências (mas caros), pois possuem uma definição clara do grupo observado, patologia, critérios diagnósticos, métodos de exame e indicadores monitorados antes do início do estudo, o que reduz significativamente o risco de erro sistemático.

A intervenção deliberada na história natural da doença em estudos prospectivos é usada para avaliar

eficácia e segurança no estudo de ferramentas de diagnóstico, prevenção e tratamento.

Em um estudo longitudinal retrospectivo, são analisados ​​os dados disponíveis na documentação médica primária. A desvantagem de tais estudos é a necessidade de detectar quase todos os pacientes com a patologia ou intervenção de interesse durante um longo período de tempo, a impossibilidade de formar grupos homogêneos, a abrangência variável do exame e a utilização de diferentes instrumentos diagnósticos. Porém, esses estudos cativam pela disponibilidade de material primário, ausência de problemas bioéticos, eficiência e baixo custo.

Uma variante do estudo longitudinal retrospectivo é o estudo caso-controle (ECC), no qual é comparada a frequência de ocorrência de determinado fator analisado nos grupos estudo e controle. Se isso ocorrer com menos ou mais frequência, pode-se presumir que está associado à patologia. Acredita-se que esse tipo de pesquisa seja uma forma mais moderna de compreensão científica da prática médica convencional e sua metodologia esteja em constante aprimoramento. Além da sua simplicidade, baixo custo e apesar do baixo grau de evidência, este método de investigação é o único aceitável para doenças raras.

Literatura

1. Antman EM, Lau J., Kupelnick B., Mosteller F., Chalmers I. Uma comparação dos resultados da meta-análise de ensaios clínicos randomizados e recomendações de especialistas clínicos. Tratamento para infarto do miocárdio. JAMA 1992; 268: 240-8.

2. Bobbio M., Demichelis B., Giustetto G. Completude do relato dos resultados do ensaio: efeito na disposição dos médicos para presciibe. Lancet 1994; 343:

3. Chalmers I., Altman D.G. Revisões sistemáticas. Londres: BMJ Publishing Group; 1995: 1.

4. Chatellier G., Zapletal E., Lemaitre D., Menard J., Degoulet P. O número necessário para tratar: um nomograma clinicamente útil em seu contexto adequado. BMJ 1996;

5. Cook RJ, Sackett DL. O número necessário para tratar: uma medida clinicamente útil do efeito do tratamento. BMJ 1995; 310:452-4.

6. DerSimonian R., Laird N. Meta-análise em ensaios clínicos. Ensaios Clínicos de Controle 1986; 7: 177-88.

7. Dickersin K., Hewitt P., Mutch L., Chalmers I., Chalmers TC. Examinando a literatura: comparação da pesquisa no MEDLINE com ensaios perinatais

base de dados. Ensaios Clínicos Controlados 1985; 6: 306-17.

8. Ellis J., Mulligan I. e Sacket D.L. A medicina geral hospitalar é

baseado em evidências. Lanceta 1995; 346:407-10.

9. Fahey T., Griffiths S., Peters TJ. Compra baseada em evidências; compreender resultados de ensaios clínicos e revisões sistemáticas. BMJ 1995; 311: 1056-60.

10. Último J..M. A dicionário de epidemiologia. Nova York: Universidade de Oxford

Imprensa; 1988: 81.

11. Lau J., Ioannidis JPA, Schmid CH. Síntese quantitativa em sistemática

avaliações. Ann Intern Med 1997; 127:820-826.

12. Laupacis A., Sackett DL, Roberts RS. Uma avaliação de medidas clinicamente úteis das consequências do tratamento. N Engl J Med 1988; 318:

13. Lubsen J. Megaensaios: a meta-análise é uma alternativa? Euro J Clínica

Farmacêutica 1996; 49: 29-33.

14. Mantel N., Haenszel W. Aspectos estatísticos da análise de dados de estudos retrospectivos de doenças. J Natl Cancer Inst 1959; 22: 719-48.

15. McQuay J., Moore RA. Usando resultados numéricos de revisões sistemáticas na prática clínica. Ann Intern Med 1997; 126: 712-20.

16. Mohiuddin AA, Bath FJ, Bath PMW. Teofilina, aminofilina, cafeína e análogos, no acidente vascular cerebral isquêmico agudo. (Revisão Cochrane). In: Biblioteca Cochrane. Oxford, Software Atualizado; Edição 2 de 1998: Atualizado trimestralmente.

17. Naylor CD, Chen E., Strauss B. entusiasmo medido; o método de relatar os resultados dos ensaios altera as percepções da eficácia terapêutica? Ana

Inter Med 1992; 117: 916-21.

18. Sackett D., Richardson WS, Rosenberg W., Haynes B. Medicina baseada em evidências. Londres: Churchill Livingstone; 1996.

19. Sackett DL, Decks JJ, Altman DG. Abaixo as taxas de probabilidade! Evidência-

Medicina Baseada 1996; 1: 164-6.

20. Sinclair JC, Bracken MB. Medidas de efeito clinicamente úteis em análises binárias de ensaios randomizados. J Clin Epidemiol 1994; 47: 881-9.

21. Manual de Colaboração Cochrane Versão 3.0.2, 1997.

ANEXO 1

Centro de Oxford para Níveis de Evidência de Medicina Baseada em Evidências

Uma das ferramentas mais importantes da medicina baseada em evidências é Estatisticas.

A comunidade médica esteve durante muito tempo relutante em reconhecer estes avanços, em parte porque as estatísticas subestimaram a importância do raciocínio clínico. Esta abordagem pôs em causa a competência dos médicos que se apoiam nos postulados da singularidade de cada paciente e, consequentemente, da singularidade da terapêutica escolhida. Isto foi especialmente perceptível na França, um país que deu ao mundo muitos pesquisadores que estudaram os problemas de probabilidade: Pierre de Fermat, Pierre-Simon Laplace, Abraham de Moivre, Blaise Pascal e Simeon Denis Poisson. Em 1835, o urologista J. Civial publicou um artigo do qual se concluiu que, após a remoção sem sangue de cálculos na bexiga, 97% dos pacientes sobreviveram e, após 5.175 operações tradicionais, apenas 78% dos pacientes sobreviveram. A Academia Francesa de Ciências nomeou uma comissão de médicos para verificar os dados do artigo de J. Civial. O relatório desta comissão expressou e fundamentou a opinião de que a utilização de métodos estatísticos na medicina é inadequada: “A estatística, antes de mais nada, separa-se de uma determinada pessoa e considera-a como uma unidade de observação. Priva-o de qualquer individualidade para excluir a influência aleatória dessa individualidade no processo ou fenômeno em estudo. Esta abordagem é inaceitável na medicina.” No entanto, o desenvolvimento da medicina e da biologia mostrou que, de facto, a estatística é a ferramenta mais poderosa destas ciências.

Uma atitude negativa em relação ao uso de estatísticas na medicina também foi cultivada na URSS durante a era Lysenko. Após a sessão de agosto do VASKhNIL 1948. Não só a genética foi perseguida, mas também a estatística, como uma das principais ferramentas da genética. Na década de 50 do século XX, a Comissão Superior de Certificação da URSS recusou-se mesmo a conceder os graus académicos de candidato e doutor em ciências médicas, sob o pretexto de utilizar estatísticas “burguesas” em dissertações.

Em meados do século XIX, “... os princípios básicos da estatística já haviam sido desenvolvidos e o conceito de probabilidade de eventos era conhecido. Em seu livro Princípios Gerais de Estatística Médica, Jules Gavart aplicou-os à medicina. Este livro é notável por ter sido o primeiro a enfatizar que a conclusão sobre a superioridade de um método de tratamento sobre outro deve basear-se não apenas em uma conclusão especulativa, mas decorrer dos resultados obtidos através da observação direta de um número suficiente de pacientes tratados. usando os métodos comparados. Pode-se dizer que Gavar realmente desenvolveu a abordagem estatística na qual a medicina baseada em evidências se baseia hoje.

O surgimento da medicina baseada em evidências como direção da ciência e da prática médica foi facilitado por duas razões principais. Em primeiro lugar, há um aumento acentuado no volume de informação disponível, que necessita de análise crítica e síntese antes de ser utilizada na prática. A segunda razão é puramente económica. A racionalidade de gastar recursos financeiros na ciência e na prática médica depende diretamente dos resultados da investigação, que deve testar a eficácia e segurança dos métodos de diagnóstico, prevenção e tratamento em ensaios clínicos. O médico tem que lidar com um paciente específico e sempre se perguntar: é possível, e em caso afirmativo, até que ponto, estender os resultados obtidos em um ensaio clínico a esse paciente? É aceitável considerar este paciente específico como “médio”? Cabe ao médico determinar se os resultados obtidos num determinado ensaio controlado são apropriados à situação clínica que ele ou ela enfrenta.”

Na saúde, como no sistema de organização da assistência médica à população, bem como na medicina preventiva e clínica, vários métodos numéricos são amplamente utilizados. São utilizados na prática clínica, quando o médico atende um paciente individual, na organização da assistência médica e social à população, na previsão e avaliação dos resultados de determinados programas médicos e sociais. O conhecimento destes métodos é necessário no planejamento e condução de pesquisas científicas, para uma correta compreensão de seus resultados e uma avaliação crítica dos dados publicados. Quer o médico entenda ou não, os métodos numéricos são a base para resolver qualquer questão relativa à aplicação de um método, táticas de tratamento ou prevenção de patologias. Historicamente, um grande conjunto de métodos numéricos utilizados na medicina recebeu o nome comum - Estatisticas.

Pela sua natureza o termo Estatisticas tem diversas interpretações. O mais primitivo deles entende por estatística qualquer conjunto ordenado de características numéricas de qualquer fenômeno. Acredita-se que as raízes do termo Estatisticas vem da palavra latina "status" (status) - Estado. Há também uma ligação indubitável com o “Estado” italiano. A coleta de dados sobre a condição material da população, nascimentos e mortes, segundo o antigo historiador grego Heródoto, já existia na Pérsia 400 anos antes do nascimento de Cristo. No Antigo Testamento da Bíblia há um capítulo inteiro (Livro dos Números) dedicado a tais cálculos estatísticos.

Durante o Renascimento, apareceram pessoas na Itália chamadas "Estatisto"- especialista no estado. Como sinônimo de termos aritmética política e estudos governamentais O termo estatístico começou a ser utilizado pela primeira vez em meados do século XVII.

Nas estatísticas médicas, como ramo do conhecimento, muitas vezes distinguem: estatísticas clínicas, estatísticas oncológicas de morbidade infecciosa, morbidade de infecções especialmente perigosas, etc. ciência e a variedade de tipos de atividades práticas específicas dos médicos. Todas as seções das estatísticas médicas estão intimamente interligadas, têm uma base metodológica única e sua divisão em muitos casos é muito condicional.

Estatísticas matemáticas , como ramo do conhecimento, é uma disciplina científica especial e sua disciplina acadêmica correspondente. O tema desta disciplina são fenômenos cuja avaliação só pode ser feita através de uma massa de observações. Esta característica fundamental se deve ao fato de que os fenômenos estudados pela estatística não apresentam resultados constantes, sempre os mesmos. Por exemplo: o peso corporal, mesmo na mesma pessoa, muda constantemente, a composição dos elementos celulares do sangue será ligeiramente diferente com cada teste realizado no mesmo paciente, as consequências do uso do mesmo medicamento em pessoas diferentes podem ter suas próprias características individuais, etc. No entanto, muitos fenómenos aparentemente caóticos têm, na verdade, uma estrutura completamente ordenada e, consequentemente, podem ter estimativas numéricas muito específicas. A principal condição para isso é a regularidade estatística, a estabilidade estatística desses fenômenos, ou seja, a existência de padrões estritamente definidos, mesmo ocultos à primeira vista, que podem ser descritos por métodos matemáticos de estatística.

O fator que teve um impacto significativo no desenvolvimento dos métodos matemáticos da estatística foi a descoberta da lei dos grandes números por Jacob Bernoulli (1654-1705) e o surgimento da teoria das probabilidades, cujos fundamentos foram desenvolvidos pelo matemático francês e astrônomo Pierre Simon Laplace (1749-1827). Uma etapa notável na série desses eventos para a estatística médica foi a publicação dos trabalhos do cientista belga A. Quetelet (1796-1874), que foi o primeiro a aplicar na prática métodos de pesquisa matemática e estatística. Em sua obra “Sobre o Homem e o Desenvolvimento de Suas Habilidades”, A. Quetelet deduziu o tipo de pessoa média dotada, juntamente com indicadores médios de desenvolvimento físico (altura, peso), habilidades mentais médias e qualidades morais médias. No mesmo período, foi publicado na Rússia o trabalho do médico Bernoulli “Sobre a vacinação contra a varíola: sobre a morte e a teoria da probabilidade”.

Estatísticas médicas ocupa um lugar especial como ponto de aplicação de métodos de estatística matemática. Este lugar especial se deve ao grande papel da medicina no surgimento da estatística como uma ciência independente e à influência significativa da pesquisa científica sobre problemas médicos e biológicos no surgimento de muitos métodos de análise estatística. Atualmente, para enfatizar o status especial da estatística matemática médica e biológica, o termo é cada vez mais utilizado para denotá-la. biometria.

A maioria dos métodos de análise estatística são universais e podem ser usados ​​não apenas em vários ramos da estatística médica, mas também em uma ampla variedade de ramos da atividade humana. Por exemplo, do ponto de vista da lógica formal, a previsão estatística da morbidade infecciosa e a previsão da taxa de câmbio do dólar são a mesma tarefa.

Os métodos de estatística médica podem ser divididos nos seguintes grupos:

    Coleta de dados, que pode ser passiva (observação) ou ativa (experiência).

    Estatística descritiva, que trata da descrição e apresentação dos dados.

    Estatística comparativa, que permite analisar os dados dos grupos em estudo e comparar os grupos entre si para obter determinadas conclusões. Essas conclusões podem ser formuladas como hipóteses ou previsões.

Questões de saúde e ambientais

12. Padrões mínimos da Sociedade Americana de Ecocardiografia para o ultrassonografista cardíaco: um documento de posição / S. M. Bierig // J Am Soc Echocardiogr. - 2006. - Vol. 19. - S. 471-474.

13. Terapia medicamentosa anti-hipertensiva para hipertensão leve a moderada durante a gravidez / E. Abalos // The Cochrane Library Syst. Rev. - 2001. - Edição 4.

14. Medicamentos anti-hipertensivos na gravidez e crescimento fetal: evidências de “programação farmacológica” no primeiro trimestre? / H. Bayliss // Hipertensão Gravidez. - 2002. - Vol. 21. - S. 161-174.

15. Terapia anti-hipertensiva no tratamento da hipertensão na gravidez - um estudo clínico duplo-cego de pindolot / G. Bott-Kanner G. // Clin Exp Hypertension Pregnancy. - 1992. - Vol. 11. - S. 207-220.

16. Atenolol e crescimento fetal em gestações complicadas por hipertensão / C. Lydakis // Am. J. Hipertensos. - 1999. - Nº 12. - S. 541-547.

17. Sociedade Australásica para o Estudo da Hipertensão na Gravidez: A detecção, investigação e tratamento da hipertensão na gravidez: declaração de consenso completo / M. A. Brown // Am. J.Ginecol. - 2000. - Vol. 40. - S. 139-155.

18. Butters, L. Atenolol na hipertensão essencial durante a gravidez / L. Butters, S. Kennedy, P. C. Rubin // Br. Med. J. - 1990. - Vol. 301. - S. 587-589.

19. Collins, R. Prevenção farmacológica e tratamento de distúrbios hipertensivos na gravidez / R. Collins, H.C. S. Wallenburg // Cuidados Eficazes na Gravidez e Parto / eds. I. Chalmers, M Enkin, MJNC. Keirse. - Oxford: Oxford University Press, 1989. - P. 512-533.

20. Efeito do atenolol no peso ao nascer / G. Y. Lip // Am. J.Cardiol. - 1997. - Vol. 79. - S. 1436-1438.

21. Efeitos da metildopa na hemodinâmica útero-placentária e fetal na hipertensão induzida pela gravidez / S. Montan // Am. J. Obsteto. Ginecol. - 1993. - Vol. 168. - S. 152-156.

22. Queda na pressão arterial média e restrição de crescimento fetal na hipertensão na gravidez: uma meta-análise / P. von Dadelszen // Lancet. - 2000. - Vol. 355. - S. 87-92.

23. Galeria, E.D.M. Tratamento anti-hipertensivo na gravidez: análise das diferentes respostas ao oxprenolol e à metildopa /

E.D.M. Galeria, M. Ross, A. Z. Gyory // Ir. Med. J. - 1985. - Vol. 291. - S. 563-566.

24. Gluckman, P. D. Restrição materna do crescimento fetal e suas consequências / P. D. Gluckman, M. A. Hanson // Semin Fetal Neonatal Med. - 2004. - Vol. 9, nº 5. - S. 419-425.

25. Comitê de Diretrizes. 2003 Sociedade Europeia de Hipertensão - Diretrizes da Sociedade Europeia de Cardiologia para o manejo da hipertensão arterial // J. Hypertens. - 2003. - Vol. 21, nº 6. - S. 1011-1053.

26. Magee, L. A. Revisão quinzenal: manejo da hipertensão na gravidez / L. A. Magee, M. P. Ornstein, P. von Dadelszen // BMJ. - 1999. - Vol. 318, Edição 7194. - P. 1332-1336.

27. Magee, L. A. Betabloqueadores orais para hipertensão leve a moderada durante a gravidez (Cochrane Review) / L. A. Magee, L. Duley // Cochrane Database Syst. Rev. - 2002. - Edição 1.

28. Pré-eclâmpsia - um estado de hiperatividade simpática / H. P. Schobel // N. Engl. J. Med. - 1996. - Vol. 335. - S. 1480-1485.

29. Prevenção da pré-eclâmpsia: um ensaio randomizado de atenolol em pacientes hiperdinâmicos antes do início da hipertensão / T. R. Easterling // Obstet. Ginecol. - 1999. - Vol. 93. - S. 725-733.

30. Relatório do Grupo de Trabalho do Programa Nacional de Educação sobre Pressão Alta sobre Pressão Alta na Gravidez / R. W. Gifford // Am. J. Obsteto. Ginecol. - 2000. - Vol. 183, nº 1. - P. 1-22.

31. Grupo de Trabalho para o Tratamento da Hipertensão Arterial da Sociedade Europeia de Hipertensão e da Sociedade Europeia de Cardiologia / G. Mancia // Eur. Coração J. - 2007. - Vol. 28. - S. 1462-1536.

32. Grupo de Trabalho sobre o Tratamento de Doenças Cardiovasculares Durante a Gravidez da Sociedade Europeia de Cardiologia. Documento de consenso de especialistas sobre o manejo de doenças cardiovasculares durante a gravidez // Eur. Coração. J. - 2003. - Vol. 24. - S. 761-781.

33. Uso de medicamentos anti-hipertensivos na gravidez e o risco de resultados perinatais adversos: estudo de resultados McMaster de hipertensão na gravidez 2 (MOS HIP 2) / J.G. Ray // BMC Gravidez Parto. - 2001. - Nº 1. - P.6.

34. Organização Mundial da Saúde - Sociedade Internacional de Hipertensão 1999 Diretrizes para o Tratamento da Hipertensão // Hipertensão Arterial. - 1999. - Vol. 8. - P. 1^3.

Recebido em 29/10/2008

UTILIZAÇÃO DE DADOS DE MEDICINA BASEADA EM EVIDÊNCIAS NA PRÁTICA CLÍNICA (mensagem 3 - ESTUDOS DIAGNÓSTICOS)

A. A. Litvin2, A. L. Kalinin1, N. M. Trizna3

1Universidade Médica do Estado de Gomel 2Hospital Clínico Regional de Gomel 3Universidade Médica do Estado da Bielorrússia, Minsk

Um aspecto importante da medicina baseada em evidências é a integridade e a precisão da apresentação dos dados. O objetivo deste artigo é revisar brevemente os princípios da medicina baseada em evidências na pesquisa sobre a acurácia de testes diagnósticos.

Os testes de diagnóstico são utilizados na medicina para estabelecer o diagnóstico, a gravidade e o curso de uma doença. As informações diagnósticas são obtidas de muitas fontes, incluindo métodos de pesquisa subjetivos, objetivos e especiais. Este artigo é baseado na descrição de dados sobre medição da qualidade dos estudos, nas vantagens dos diversos métodos de estatística resumida utilizando o método de regressão logística e análise ROC.

Palavras-chave: medicina baseada em evidências, testes diagnósticos, regressão logística, análise ROC.

UTILIZAÇÃO DE DADOS DA MEDICINA BASEADA EM EVIDÊNCIAS NA PRÁTICA CLÍNICA (relatório 3 - TESTES DIAGNÓSTICOS)

A. A. Litvin2, A. L. Kalinin1, N. M. Trizna3

1Universidade Médica do Estado de Gomel 2Hospital Clínico Regional de Gomel 3Universidade Médica do Estado da Bielorrússia, Minsk

Um aspecto proeminente da medicina baseada em evidências é a integridade e a precisão da apresentação dos dados. O objetivo do artigo é uma breve revisão dos princípios da medicina baseada em evidências nas pesquisas dedicadas à acurácia dos testes diagnósticos.

Questões de saúde e ambientais

Os testes de diagnóstico são usados ​​​​na medicina para diagnosticar, avaliar e monitorar a progressão da doença. As informações diagnósticas são obtidas de diversas fontes, incluindo sinais, sintomas e investigações especiais. Este artigo concentra-se nas dimensões da qualidade do estudo e nas vantagens de diferentes estatísticas resumidas com regressão logística e análise ROC.

Palavras-chave: medicina baseada em evidências, testes diagnósticos, regressão logística, análise ROC.

Quando um médico faz um julgamento sobre um diagnóstico com base na anamnese e no exame de um paciente, ele raramente tem certeza absoluta disso. Nesse sentido, é mais apropriado falar do diagnóstico em termos de sua probabilidade. Ainda é muito comum que essa probabilidade seja expressa não em forma de porcentagens, mas sim por meio de expressões como “quase sempre”, “geralmente”, “às vezes”, “raramente”. Como diferentes pessoas atribuem diferentes graus de probabilidade aos mesmos termos, isto leva a mal-entendidos entre médicos ou entre médico e paciente. Os médicos devem ser tão precisos quanto possível nos seus julgamentos e, se possível, utilizar métodos quantitativos para expressar probabilidades.

Embora a disponibilidade de tais medidas quantitativas fosse altamente desejável, elas não estão comumente disponíveis na prática clínica. Mesmo médicos experientes muitas vezes não conseguem determinar com precisão a probabilidade de desenvolver certas alterações. Há uma tendência ao sobrediagnóstico de doenças relativamente raras. Pode ser especialmente difícil quantificar a probabilidade, que pode ser muito alta ou muito baixa.

Como o estabelecimento de critérios diagnósticos válidos é a base do raciocínio clínico, a experiência clínica acumulada, idealmente na forma de bancos de dados computacionais, é usada para desenvolver abordagens estatísticas para melhorar a previsão diagnóstica. Nesses estudos, o fato geralmente é identificado

fatores que estão correlacionados com um diagnóstico específico. Esses dados podem então ser incluídos em uma análise multivariada para determinar quais são fortes preditores independentes de diagnóstico. Alguns tipos de análise permitem identificar fatores preditivos importantes para um diagnóstico e depois determinar o seu “peso”, que pode ser transformado em probabilidade com posteriores cálculos matemáticos. Por outro lado, a análise permite identificar um número limitado de categorias de pacientes, cada uma com a sua probabilidade de ter um determinado diagnóstico.

Estas abordagens quantitativas ao diagnóstico, muitas vezes chamadas de “regras de previsão”, são particularmente úteis se forem apresentadas de uma forma fácil de usar e se o seu valor tiver sido amplamente estudado num número e variedade suficientes de pacientes. Para que tais regras de previsão sejam de alguma ajuda real para os médicos, elas devem ser desenvolvidas em grupos representativos de pacientes, utilizando testes reprodutíveis e prontamente disponíveis, para que os resultados obtidos possam ser aplicados na prática médica geral.

Por isso, é fundamental conhecer vários dos termos mais comumente usados ​​em análise de pesquisas e epidemiologia, incluindo prevalência, sensibilidade, especificidade, valor preditivo positivo e valor preditivo negativo (Tabela 1).

Tabela 1 - Termos sistemáticos mais utilizados em estudos diagnósticos

disponível ausente

Positivo a (verdadeiro positivo) b (falso positivo)

Negativos em (falsos negativos) d (verdadeiros negativos)

Distribuição (probabilidade a priori) = (a+c) / (a+b+c+d) = número de pacientes / número total de examinados

Sensibilidade = a / (a ​​+ b) = número de resultados verdadeiros positivos / número total de pacientes

Especificidade = g / (b + g) = número de resultados verdadeiros negativos / número de pacientes sem determinada doença

Taxa de falsos negativos = in / (a ​​​​+ b) = número de resultados falsos negativos / número total de pacientes

Taxa de falsos positivos = b / (b + d) = número de resultados falsos positivos / número de pacientes sem a doença

Questões de saúde e ambientais

Fim da tabela 1

Resultados do teste Condição patológica

disponível ausente

Valor preditivo positivo = a / (a+b) = número de verdadeiros positivos / número de todos os positivos

Valor preditivo negativo = r / (v+r) = número de verdadeiros negativos / número de todos os negativos

Precisão geral = (a+d) / (a+b+c+d) = número de resultados verdadeiros positivos e verdadeiros negativos / número de todos os resultados

Razão de probabilidade de um teste positivo - = sensibilidade / (1 - especificidade)

Razão de probabilidade de um teste negativo - = 1 - sensibilidade/especificidade

Perguntas respondidas por estas características de teste de diagnóstico:

1) sensibilidade – quão bom é o teste na identificação de pacientes com a doença?

2) especificidade – quão bom é o teste em excluir corretamente pacientes que não apresentam a doença?

3) valor preditivo de um resultado de teste positivo - se o teste de uma pessoa for positivo, qual a probabilidade de ela realmente ter a doença?

4) o valor preditivo de um resultado de teste negativo – se o teste de uma pessoa for negativo, qual a probabilidade de ela realmente não ter a doença?

5) índice de precisão - que proporção de todos os testes deu resultados corretos (ou seja, resultados verdadeiros positivos e verdadeiros negativos em relação a todos)?

6) razão de probabilidade de um teste positivo - qual é a probabilidade de o teste ser positivo em uma pessoa com uma doença em comparação com uma pessoa saudável?

Como apenas uma minoria das regras de predição atende a critérios rigorosos, como número e variedade de indivíduos examinados e validação prospectiva dos resultados, a maioria delas é inadequada para uso clínico de rotina. Além disso, muitas regras de predição não conseguem estimar a probabilidade de cada diagnóstico ou resultado enfrentado por um médico. Um teste que possui certa sensibilidade e especificidade terá diferentes valores preditivos positivos e negativos quando utilizado em grupos com diferentes prevalências de doenças. A sensibilidade e especificidade de qualquer teste não dependem da distribuição

a gravidade da doença (ou a porcentagem de pacientes que apresentam a doença entre todos os pacientes examinados), dependem da composição do grupo de pacientes entre os quais o teste foi utilizado.

Em algumas situações, o conhecimento impreciso da sensibilidade e especificidade de um teste na população de pacientes em estudo pode limitar a sua utilidade clínica. Como o médico raramente conhece (ou pode saber) a população de pacientes na qual o teste que ele prescreve foi padronizado, os resultados obtidos são muito menos confiáveis ​​do que comumente se acredita. Além disso, para qualquer teste diagnóstico, um aumento na sensibilidade será acompanhado por uma diminuição na especificidade.

Um modelo com alta sensibilidade geralmente produz um resultado verdadeiro quando há um resultado positivo (detecta exemplos positivos). Pelo contrário, um modelo com alta especificidade tem maior probabilidade de produzir um resultado verdadeiro na presença de um resultado negativo (detecta exemplos negativos). Se pensarmos em termos de medicina - o problema de diagnosticar uma doença, onde o modelo de classificação dos pacientes em doentes e saudáveis ​​​​é chamado de teste diagnóstico, então obtemos o seguinte: 1) um teste diagnóstico sensível se manifesta no sobrediagnóstico - prevenção máxima de pacientes desaparecidos; 2) um teste diagnóstico específico diagnostica apenas pessoas verdadeiramente doentes. Como não se pode esperar que nenhuma medida isolada ou medida derivada tenha sensibilidade e especificidade superiores, muitas vezes é necessário determinar qual medida é mais valiosa e necessária para a tomada de decisão. Uma representação gráfica chamada curva ROC

Questões de saúde e ambientais

(Figura 1), relacionando as características do teste discutidas, mostra a inevitabilidade da escolha entre o desejo de alta sensibilidade e especificidade. Essa representação gráfica indica que os resultados dos testes podem ser definidos como normais ou patológicos, dependendo do

A doença é excluída se o teste for altamente específico ou excluída se o teste for altamente sensível. Testes diferentes podem ter sensibilidade e especificidade diferentes. A sensibilidade e a especificidade dos testes mais confiáveis ​​são superiores às dos testes não confiáveis.

Figura 1 - Representação gráfica da discrepância interna entre sensibilidade e especificidade

A curva ROC (Receiver Operator Characteristic) é a curva mais frequentemente usada para representar resultados de classificação binária em aprendizado de máquina. O nome vem de sistemas de processamento de sinal. Como existem duas classes, uma delas é chamada de classe com resultados positivos, a segunda - com resultados negativos. A curva ROC mostra a dependência do número de exemplos positivos classificados corretamente em relação ao número de exemplos negativos classificados incorretamente. Na terminologia da análise ROC, os primeiros são chamados de conjunto verdadeiro positivo, o último - conjunto falso negativo. Neste caso, assume-se que o classificador possui um determinado parâmetro, variando o qual obteremos uma ou outra divisão em duas classes. Este parâmetro é frequentemente chamado de limite ou valor de corte.

A curva ROC é obtida da seguinte forma. Para cada valor de corte, que varia de 0 a 1 em passos de, por exemplo, 0,01, são calculadas a sensibilidade Se e a especificidade Sp. Alternativamente, o limite poderia ser cada valor de exemplo subsequente na amostra. Um gráfico de dependência é construído: a sensibilidade Se é plotada ao longo do eixo Y, 100% é plotado ao longo do eixo X - Sp (cem por cento menos especificidade). Como resultado, surge uma certa curva (Figura 1). O gráfico é frequentemente complementado com a linha reta y = x.

Para um classificador ideal, o gráfico da curva ROC passa pelo canto superior esquerdo

o ângulo onde a taxa de verdadeiros positivos é 100% ou 1,0 (sensibilidade ideal) e a taxa de falsos positivos é zero. Portanto, quanto mais próxima a curva estiver do canto superior esquerdo, maior será a capacidade preditiva do modelo. Pelo contrário, quanto menor for a curvatura da curva e quanto mais próxima estiver da linha reta diagonal, menos eficaz será o modelo. A linha diagonal corresponde a um classificador “inútil”, ou seja, completa indistinguibilidade das duas classes.

Ao avaliar visualmente as curvas ROC, a sua localização relativa entre si indica a sua eficácia comparativa. A curva localizada acima e à esquerda indica a maior capacidade preditiva do modelo. Assim, na Figura 2, duas curvas ROC são combinadas em um gráfico. Pode-se ver que o Modelo A é melhor.

A comparação visual das curvas ROC nem sempre revela o modelo mais eficaz. Um método único para comparar curvas ROC é estimar a área sob as curvas. Teoricamente varia de 0 a 1,0, mas como o modelo é sempre caracterizado por uma curva localizada acima da diagonal positiva, costumamos falar em mudanças de 0,5 (um classificador “inútil”) para 1,0 (um modelo “ideal”). . Esta estimativa pode ser obtida diretamente calculando a área sob o poliedro, delimitada à direita e inferior pelos eixos coordenados e à esquerda superior pelos pontos obtidos experimentalmente (Figura 3). O indicador numérico da área sob a curva é denominado AUC (Area Under Curve).

Questões de saúde e ambientais

Figura 2 – Comparação das curvas ROC

Figura 3 – Área sob a curva ROC

Com suposições maiores, podemos assumir que quanto maior a AUC, melhor será o poder preditivo do modelo. No entanto, deve estar ciente de que o indicador AUC se destina antes a uma análise comparativa de vários modelos; AUC não contém nenhum

algumas informações sobre a sensibilidade e especificidade do modelo.

A literatura às vezes fornece a seguinte escala especializada para valores de AUC, que pode ser usada para julgar a qualidade do modelo (Tabela 2).

Tabela 2 - Escala especialista de valores de AUC

Intervalo AUC Qualidade do modelo

0,9-1,0 Excelente

0,8-0,9 Muito bom

0,7-0,8 Bom

0,6-0,7 Média

0,5-0,6 Insatisfatório

O modelo ideal possui 100% de sensibilidade e especificidade. No entanto, na prática isto é impossível de conseguir; além disso, é impossível aumentar simultaneamente a sensibilidade e a especificidade do modelo.

O compromisso é encontrado usando o limite de corte, porque o valor limite afeta a proporção de Se e Sp. Podemos falar sobre o problema de encontrar o valor de corte ideal (Figura 4).

Figura 4 – “Ponto de equilíbrio” entre sensibilidade e especificidade

Questões de saúde e ambientais

O limite de corte é necessário para aplicar o modelo na prática: atribuir novos exemplos a uma de duas classes. Para determinar o limite ideal, é necessário definir um critério para sua determinação, porque Diferentes tarefas têm sua própria estratégia ideal. Os critérios para a escolha de um limite de corte podem ser: 1) a exigência de uma sensibilidade (especificidade) mínima do modelo. Por exemplo, a sensibilidade do teste deve ser de pelo menos 80%. Neste caso, o limite ideal será a especificidade (sensibilidade) máxima, que é alcançada em 80% (ou um valor próximo de

está “à direita” devido à discrição da série) sensibilidade (especificidade).

Os dados teóricos apresentados são melhor compreendidos através de exemplos da prática clínica. O primeiro exemplo em que nos concentraremos será o diagnóstico de necrose pancreática infectada (conjunto de dados retirado do banco de dados). O conjunto de treinamento contém 391 registros com seleção de 12 variáveis ​​independentes no seguinte formato (Tabela 3). Variável dependente (1 – presença de doença, 0 – ausência). A distribuição da variável dependente é a seguinte: 205 casos - ausência da doença, 186 - presença.

Tabela 3 - Variáveis ​​independentes para diagnóstico de necrose pancreática infectada, coeficientes de regressão logística (exemplo)

Variáveis ​​independentes Formato dos dados Coeficiente,%

Número de dias desde o início da doença > 14< 14 2,54

Número de dias passados ​​pelo paciente em tratamento na UTI > 7< 7 2,87

Valor numérico da frequência cardíaca 1,76

Valor numérico da frequência respiratória 1,42

Valor numérico da temperatura corporal 1,47

Valor numérico de leucócitos sanguíneos 1,33

Valor numérico do índice de intoxicação leucocitária 1,76

Valor numérico da uréia no sangue 1,23

Valor numérico total da proteína plasmática sanguínea 1,43

Profilaxia antibiótica adequada no diagnóstico de pancreatite aguda grave sim/não -1,20

Realização de operações terapêuticas e profiláticas minimamente invasivas sim/não -1,38

Presença de dinâmica negativa sim/não 2,37

A Figura 4 mostra o ROC resultante - pode ser caracterizado como uma curva muito boa. A capacidade preditiva do modelo é AUC = 0,839.

Figura 4 - Curva ROC do modelo diagnóstico de necrose pancreática infectada

Questões de saúde e ambientais

Consideremos um fragmento de um conjunto de pontos “sensíveis à pressão intra-abdominal em pacientes com

validade-especificidade" usando o exemplo da pancreatite aguda grave.

Tabela 4 - Sensibilidade e especificidade dos diferentes níveis de PIA para predição do desenvolvimento de IBP (exemplo)

PIA, mmHg Arte. Sensibilidade, % Especificidade, % Se + Sp Se - Sp

13,5 25 100 125 75

14,5 30 95 125 65

15,5 40 95 135 55

16,5 65 95 160 30

17,5 80 90 170 10

18,5 80 80 160 0

19,5 80 70 150 10

20,5 85 65 150 20

21,5 95 55 150 40

23,0 100 45 145 55

24,5 100 40 140 60

25,5 100 25 125 75

Como pode ser visto na tabela, o nível limite ideal de PIA em pacientes com pancreatite destrutiva aguda, proporcionando máxima sensibilidade e especificidade do teste (ou erros mínimos tipo I e II), é 17,5 ± 2,3 (M ± DP) mm Hg .no qual são observadas 80% de sensibilidade e 90% de especificidade do método para determinar a probabilidade de desenvolvimento de complicações infecciosas de necrose pancreática. A sensibilidade é de 80%, o que significa que 80% dos pacientes com necrose pancreática infectada apresentam teste diagnóstico positivo. A especificidade é de 90%, o que significa que 90% dos pacientes que não apresentam necrose pancreática infectada terão resultados negativos nos testes. O ponto de equilíbrio em que a sensibilidade e a especificidade são aproximadamente iguais – 80% – é 18,5. No geral, o valor preditivo positivo da medição da PIA foi de 86% e o valor preditivo negativo foi de 88%.

A regressão logística e a análise ROC são possíveis usando pacotes estatísticos. Porém, “Statistica” 6 e 7 (http://www.statistica.com) realizam esta análise apenas utilizando o bloco “Redes neurais artificiais”. No SPSS (http://www. spss.com) (a partir da versão 13), a análise ROC é fornecida apenas no módulo gráfico e uma curva ROC é analisada. O SPSS exibe a área sob a curva (AUC), o nível de significância e o valor de sensibilidade e especificidade em cada ponto de medição. O ponto ideal (ponto de corte ideal) deve ser encontrado na tabela de sensibilidade e especificidade 1. O programa MedCalc irá comparar diversas curvas ROC e marcar o valor da variável na tabela, com

qual a relação entre sensibilidade e especificidade é ótima (ponto de corte ideal). O SAS (http://www.sas.com), assim como o R-Commander, possui um módulo para comparação de curvas e localização de pontos, AUC. A regressão logística e a análise ROC estão disponíveis no programa gratuito WINPEPI (PEPI-for-Windows) (//www.brixtonhealth.com/winpepi.zip).

Conclusão

A arte do diagnóstico está em constante aperfeiçoamento. Novos testes de diagnóstico surgem todos os dias e a tecnologia dos métodos existentes está mudando. Superestimar a precisão de estudos relevantes, particularmente como resultado de vieses associados às práticas de pesquisa e publicação, pode levar à implementação prematura de testes diagnósticos e à má tomada de decisão clínica. A avaliação cuidadosa dos testes de diagnóstico antes da sua utilização generalizada não só reduz o risco de resultados adversos devido a conceitos errados sobre a validade do teste, mas também pode limitar a utilização de recursos de cuidados de saúde, eliminando testes desnecessários. Parte integrante da avaliação dos testes diagnósticos são os estudos sobre a acurácia dos testes diagnósticos, sendo os mais informativos a regressão logística e a análise ROC.

LISTA BIBLIOGRÁFICA

1. Greenhalkh, T. Fundamentos da medicina baseada em evidências / T. Greenhalkh; faixa do inglês - M.: GEOTAR-Media, 2006. - 240 p.

Questões de saúde e ambientais

3. Vlasov, V. V. Introdução à medicina baseada em evidências / V. V. Vlasov. - M. MediaSphere, 2001. - 392 p.

4. Fletcher, R. Epidemiologia clínica. Fundamentos da medicina baseada em evidências / R. Fletcher, S. Fletcher, E. Wagner; faixa do inglês - M.: MediaSfera, 1998. - 352 p.

5. Banerzhi, A. Estatísticas médicas em linguagem clara: um curso introdutório / A. Benerzhi; traduzido do inglês - M.: Medicina Prática, 2007. - 287 p.

6. Zhizhin, K. S. Estatísticas médicas: livro didático. mesada. - Rostov n/d.: Phoenix, 2007. - 160 p.

7. Deeks, J. J. Revisões sistemáticas de avaliações de testes diagnósticos e de triagem / J. J. Deeks // BMJ. - 2001. - Vol. 323. - S. 157-162.

8. Diretrizes para meta-análises avaliando testes diagnósticos / L. Irwig // Ann. Estagiário. Med. - 1994. - Vol. 120. - S. 667-676.

9. Revisões sistemáticas e meta-análises para o cientista cirurgião /

SS Mahid // Ir. J. Surg. - 2006. - Vol. 93. - S. 1315-1324.

10. Métodos meta-analíticos para precisão de testes diagnósticos / L. Irwig // J. Clin. Epidemiol. - 1995. - Vol. 48. - S. 119-130.

11. Guias para usuários da literatura médica. Como usar um artigo sobre um teste diagnóstico. A. Os resultados do estudo são válidos? / R. Jaeschke // JAMA. - 1994. - Vol. 271. - P. 389 -391.

12. Uso de padrões metodológicos na pesquisa de testes diagnósticos: melhorando, mas ainda não é bom / M. C. Read // JAMA. - 1995. - Vol. 274. - S. 645-651.

13. StAR: uma ferramenta simples para comparação estatística de curvas ROC / I. E. Vergara // BMC Bioinformatics. - 2008. - Vol. 9. - S. 265-270.

14. Uma comparação de abordagens paramétricas e não paramétricas para análise ROC de testes diagnósticos quantitativos / K. O. Hajian-Tilaki // Medical Decision Making. - 1997. - Vol. 17, N. 1. - S. 94-102.

15. Curvas características do operador receptor (ROC) e dados não normais: Um estudo empírico / M.J. Goddard // Estatística em Medicina. - 1989. - Vol. 9, N. 3. - S. 325-337.

16. Possibilidades de prever necrose pancreática infectada / A. A. Litvin [et al.] // Problemas de saúde e ecologia. - 2007. - T. 12, nº 2. - P. 7-14.

17. Método de monitoramento da pressão intra-abdominal em pacientes com pancreatite aguda grave / A. A. Litvin [et al.] // Problemas de saúde e ecologia. - 2008. - T. 16, nº 2. - P. 80-85.

18. Comparação de oito programas de computador para análise de características operacionais do receptor / C. Stephan // Clin. Química. - 2003. - Vol. 49, N. 3. - S. 433-439.

19. Zhu, X. Uma breve prévia de pacotes de software estatístico gratuitos para o ensino de estatística para estudantes de tecnologia industrial / X. Zxu // J. Ind. Tecnologia. - 2005. - Vol. 21, N. 2. - P. 10-20.

20. Borovikov, V. STATISTICA: a arte da análise de dados em um computador. Para profissionais / V. Borovikov. - São Petersburgo: Peter, 2001. - 656 p.

21. Buyul, A. SPSS: a arte do processamento de informação. Análise de dados estatísticos e restauração de padrões ocultos / A. Byul. - São Petersburgo: DiaSoftYUP, 2002. - 608 p.

22. Abramson, J. H. WINPEPI (PEPI-for-Windows): programas de computador para epidemiologistas / J. H. Abramson, // Epidemiologic Perspectives & Innovations. - 2004. - Vol. 1, N. 6. - P. 1-10.

Recebido em 24/10/2008

UDC 616.1:616-009.12:616-005.8:616.831-005.1

ALGUNS INDICADORES DE MICROCIRCULAÇÃO E DANOS NO ENDOTÉLIO NA AVALIAÇÃO DO RISCO DE AVC, INFARTO DO MIOCÁRDIO E RESULTADO FATAL EM PACIENTES COM HIPERTENSÃO ARTERIAL

V. I. Kozlovsky, A. V. Akulyonok Vitebsk State Medical University

Objetivo do estudo: identificar fatores associados ao risco aumentado de desenvolvimento de infarto do miocárdio, acidente vascular cerebral e óbito em pacientes com hipertensão arterial (HA) de segundo grau.

Material e métodos: foram incluídos no estudo 220 pacientes com hipertensão estágio II (idade média 57 ± 8,4 anos) que foram hospitalizados por crise hipertensiva e 30 pessoas sem hipertensão (idade média

53,7 ± 9 anos).

Resultados: ao longo de 3,3 ± 1 anos de observação no grupo de pacientes com hipertensão estágio II, foram registrados 29 acidentes vasculares cerebrais, 18 infartos do miocárdio e 26 óbitos. Um aumento no número de células endoteliais circulantes (CEC), agregação de leucócitos, agregação plaquetária e adesão de leucócitos em pacientes com hipertensão foi associado a um risco aumentado de infarto do miocárdio, acidente vascular cerebral e morte.

Conclusão: indicadores do número de CECs, agregação plaquetária e leucocitária e adesão leucocitária podem ser usados ​​para identificar grupos de pacientes hipertensos com risco aumentado de desenvolver infarto do miocárdio, acidentes vasculares cerebrais e mortes, bem como para criar modelos complexos de prognóstico.

Palavras-chave: hipertensão arterial, risco, infarto do miocárdio, acidente vascular cerebral, morte, células endoteliais circulantes.

ALGUNS ACHADOS DE MICROCIRCULAÇÃO E DANO ENDOTELIAL NA ESTIMATIVA DE RISCO DE AVC, INFARTOS DO MIOCÁRDIO, RESULTADOS LETAIS EM PACIENTES HIPERTENSOS

VI ^zlovsky, AV Akulionak Vitebsk Statel Medical University

Objetivo: determinar fatores associados ao risco aumentado para desenvolvimento de acidentes vasculares cerebrais, infartos do miocárdio, desfechos letais em pacientes com hipertensão arterial (HA) grau II.

Métodos: 220 pacientes com HA grau II (idade média 57 ± 8,4 anos), complicados por crise hipertensiva, e 30 pessoas sem HA (idade média 53,7 ± 9 anos) foram acompanhados por 3,3 ± 1 anos.

Resultados: elevação do número de células endoteliais circulantes (CEC), agregação de plaquetas e leucócitos, adesão de leucócitos em pacientes hipertensos foram associados ao aumento do risco para desenvolvimento de acidentes vasculares cerebrais, infartos do miocárdio, desfechos letais.

Questões de saúde e ambientais

biobiologia, prof. E. B. Burlakova. Estes dados formam novas ideias sobre a eficácia biológica da exposição crónica à radiação em humanos e indicam claramente a incompetência de extrapolar os efeitos de altas doses de radiação ionizante para a região de baixas doses.

O desenvolvimento de novos conceitos é importante para a formação de planos equilibrados para o desenvolvimento da energia nuclear e de políticas sociais justas em relação aos liquidatários do desastre de Chernobyl e aos residentes de áreas contaminadas com radionuclídeos.

Ao avaliar o efeito da radiação na saúde humana, deve-se ter em mente que a radiação ionizante é um fator cosmogênico no meio ambiente. É bem sabido que a radiação natural de fundo é necessária para o crescimento, desenvolvimento e existência de vários seres vivos, incluindo mamíferos. A compreensão dos padrões radiobiológicos está associada à compreensão do fenômeno da vida, a conexão entre os seres vivos e o espaço. Existem muitos mistérios nos efeitos da radiação ionizante, incluindo os efeitos positivos ou negativos de objetos biológicos irradiados sobre objetos não irradiados. De indiscutível interesse é a ideia expressa por A. M. Kuzin em sua última nota aos seus funcionários: “A vida, um corpo vivo, é um sistema metabolizador de estruturas em nível molecular que formam um todo único graças à informação continuamente entregue pela radiação secundária biogênica que surge sob a influência da radiação atômica de fundo radioativo natural de origem cósmica e terrestre.”

LISTA BIBLIOGRÁFICA

1. Kudryashov, Yu. B. Biofísica da radiação. Radiação ionizante / Yu B. Kudryashov - M.: ed. Moscou Universidade, 2004. - 580 p.

2. Yarmonenko, S. P. Radiobiologia de humanos e animais / S. P. Yarmolenko, A. A. Vainson. - M.: Mais alto. escola, 2004. - 550 p.

3. Mothersill, C. Efeitos de radiação de baixa dose: Hematologia experimental e a mudança de paradigma / C. Mothersill, C. Seymour // Hematologia Experimental. - 2003. - Nº 31. - S. 437-445.

4. Lee, DE. O efeito da radiação nas células vivas / D. E. Lee. - M.: Gosatomizdat, 1966. - 288 p.

5. Timofeev-Resovsky, N.V. Aplicação do princípio do hit em radiobiologia / N.V. Timofeev-Resovsky, V.I. Ivanov, V.I. Korogodin. - M.: Atomizdat, 1968. - 228 p.

6. Goncharenko, E. N. Proteção química contra danos por radiação / E. N. Goncharenko. - M.: ed. Moscou Universidade, 1985. - 248 p.

7. Relatório nacional “20 anos após o desastre de Chernobyl: consequências na República da Bielorrússia e superá-las” / Comité sobre os Problemas das Consequências do Desastre da Central Nuclear de Chernobyl sob o Conselho de Ministros da República da Bielorrússia; editado por VE Shevchuk, VL Guravsky. - 2006. - 112 p.

8. Vozianov, A. Ereções de saúde do acidente de Chornobyl, Eds / A Vozianov, V. Bebeshko, D. Bayka. - Kiev.: “DIA”, 2003. - 508 p.

9. Kuzin, A. M. Hipótese estrutural-metabólica em radiobiologia / A. M. Kuzin. - M.: Nauka, 1970. - 170 p.

10. Kuzin, A. M. Teoria estrutural-metabólica em radiobiologia / A. M. Kuzin. - M.: Nauka, 1986. - 20 p.

11. Knyazeva, E. N. Fundamentos da sinergética / E. N. Knyazeva, S. P. Kurdimov. - São Petersburgo: Editora Aletheia, 2002. - 31 p.

12. Stepanova, S. I. Aspectos biorrítmicos do problema de adaptação / S. I. Stepanova. - M.: Nauka, 1986. - 244 segundos.

13. Não monotonicidade da resposta metabólica de células e tecidos de mamíferos aos efeitos da radiação ionizante / I. K. Kolomiytsev [et al.] // Biofísica. - 2002. - T. 47, Edição. 6. - páginas 1106-1115.

14. Kolomiytseva, I. K. Mudanças não monótonas nos parâmetros metabólicos de tecidos e células sob ação radiação ionizante em animais / I. K. Kolomiytseva, T. R. Markevich, L. N. Potekhina // J. Biol. Física. - 1999. - Nº 25. - S. 325-338.

15. Burlakova, E. B. Novos aspectos dos padrões de ação da irradiação de baixa intensidade em pequenas doses / E. B. Burlakova, A. N. Goloshchapov, G. P. Zhizhina, A. A. Konradov // Radiats. biologia. Radioecologia. - 1999. - T. 39. - P. 26-34.

Recebido em 18/04/2008

USO DE DADOS DE MEDICINA BASEADA EM EVIDÊNCIAS NA PRÁTICA CLÍNICA (revisão de literatura)

A. L. Kalinin1, A. A. Litvin2, N. M. Trizna1

1Universidade Médica Estadual de Gomel 2Hospital Clínico Regional de Gomel

É fornecida uma breve visão geral dos princípios da medicina baseada em evidências e da meta-análise. Um aspecto importante da medicina baseada em evidências é determinar o grau de confiabilidade das informações.

O agrupamento quantitativo de dados de diferentes estudos clínicos utilizando meta-análise permite-nos obter resultados que não podem ser obtidos em estudos clínicos individuais. Ler e estudar revisões sistemáticas e meta-análises permite navegar de forma mais eficaz pelo grande número de artigos publicados.

Palavras-chave: medicina baseada em evidências, metanálise.

Questões de saúde e ambientais

USO DE DADOS DE MEDICINA BASEADA EM EVIDÊNCIAS NA PRÁTICA CLÍNICA

(revisão da literatura)

A. L. Kalinin1, A. A. Litvin2, N. M. Trizna1

1Universidade Médica Estadual de Gomel 2Hospital Clínico Regional de Gomel

O objetivo do artigo é a revisão dos princípios da medicina baseada em evidências e da metanálise. Um aspecto proeminente da medicina baseada em evidências é a definição do grau de confiabilidade da informação.

A associação quantitativa de várias pesquisas clínicas dadas por meio da meta análise permite receber resultados que não podem receber-se de pesquisas clínicas separadas. A leitura e o estudo de revisões sistemáticas e resultados de meta-análises permitem orientar-se de forma mais eficaz em uma quantidade significativa de artigos publicados.

Palavras-chave: medicina baseada em evidências, meta-análise.

Nem um único médico praticante tem experiência suficiente para navegar livremente por toda a variedade de situações clínicas. Você pode confiar em opiniões de especialistas, diretrizes oficiais e livros de referência, mas isso nem sempre é confiável devido ao chamado efeito de atraso: métodos médicos promissores são introduzidos na prática muito depois de terem sido obtidas evidências de sua eficácia. Por outro lado, as informações contidas em livros didáticos, manuais e livros de referência costumam estar desatualizadas antes mesmo de serem publicadas, e a idade do médico experiente que conduz o tratamento se correlaciona negativamente com a eficácia do tratamento.

A meia-vida da literatura reflete a intensidade do progresso. Para a literatura médica, esse período é de 3,5 anos. Apenas 1.015% da informação publicada hoje na imprensa médica terá valor científico no futuro. Afinal, se assumirmos que pelo menos 1% dos 4 milhões de artigos publicados anualmente têm algo a ver com a prática médica de um médico, ele teria que ler cerca de 100 artigos todos os dias. Sabe-se que apenas 10-20% de todas as intervenções médicas utilizadas atualmente foram baseadas em evidências científicas confiáveis.

Surge a pergunta: por que os médicos não colocam em prática boas evidências? Acontece que 75% dos médicos não entendem de estatística, 70% não sabem avaliar criticamente artigos e estudos publicados. Atualmente, para exercer uma prática baseada em evidências, o médico deve ter os conhecimentos necessários para avaliar a fiabilidade dos resultados dos ensaios clínicos, ter acesso imediato a diversas fontes de informação (principalmente revistas internacionais), ter acesso a bases de dados eletrónicas (Medline) e fale inglês.

O objetivo deste artigo é uma breve visão geral dos princípios da medicina baseada em evidências e seu componente - a meta-análise, que permite navegar mais rapidamente no fluxo de informações médicas.

O termo "Medicina Baseada em Evidências" foi proposto pela primeira vez em 1990 por um grupo de cientistas canadenses da Universidade McMaster em Toronto. O termo rapidamente se enraizou na literatura científica de língua inglesa, mas naquela época não havia uma definição clara dele. Atualmente, a definição mais comum é: “Medicina baseada em evidências é uma seção da medicina baseada em evidências, envolvendo a busca, comparação, síntese e ampla divulgação das evidências obtidas para uso no interesse dos pacientes”.

Hoje, a medicina baseada em evidências (MBE) é uma nova abordagem, direção ou tecnologia para coletar, analisar, resumir e interpretar informações científicas. A medicina baseada em evidências envolve o uso consciente, explicativo e de bom senso do melhor conhecimento atual para tratar cada paciente. O principal objetivo da introdução dos princípios da medicina baseada em evidências na prática da saúde é otimizar a qualidade dos cuidados médicos em termos de segurança, eficiência, custo e outros fatores significativos.

Um aspecto importante da medicina baseada em evidências é determinar o grau de confiabilidade das informações: os resultados dos estudos que servem de base na compilação de revisões sistemáticas. O Centro de Medicina Baseada em Evidências de Oxford desenvolveu as seguintes definições do grau de confiabilidade das informações apresentadas:

A. Alta confiabilidade – as informações são baseadas nos resultados de vários ensaios clínicos (TCs) independentes com resultados concordantes, resumidos em revisões sistemáticas.

Questões de saúde e ambientais

B. Confiabilidade moderada – as informações são baseadas nos resultados de pelo menos vários ensaios clínicos independentes com objetivos semelhantes.

C. Confiabilidade limitada – as informações são baseadas nos resultados de uma TC.

D. Não há evidências científicas rigorosas (nenhum ensaio clínico foi realizado) - uma determinada afirmação é baseada na opinião de especialistas.

De acordo com estimativas modernas, a fiabilidade das evidências provenientes de diferentes fontes não é a mesma e diminui na seguinte ordem:

1) ensaio clínico randomizado;

2) TC não randomizada com controle simultâneo;

3) TC não randomizada com controle histórico;

4) estudo de coorte;

5) estudo caso-controle;

6) IC cruzado;

7) resultados das observações;

8) descrição de casos individuais.

Os três “pilares” da confiabilidade na medicina clínica são: amostragem aleatória cega de indivíduos em grupos de comparação (randomização cega); tamanho de amostra suficiente; controle cego (idealmente triplo). Deve ser especialmente enfatizado que o termo incorreto, mas amplamente utilizado, “confiabilidade estatística”, com seu notório p<... не имеет к вышеизложенному определению достоверности никакого отношения . Достоверные исследования свободны от так называемых систематических ошибок (возникающих от неправильной организации исследования), тогда как статистика (р <...) позволяет учесть лишь случайные ошибки .

Na medicina clínica, os ensaios clínicos randomizados (ECR) tornaram-se o padrão ouro para testar a eficácia de intervenções e procedimentos. O processo de “cegar” os participantes do ensaio visa eliminar o erro sistemático na avaliação subjetiva do resultado, porque é da natureza humana ver o que quer e não ver o que não quer ver. A randomização deve resolver o problema da diversidade dos sujeitos, garantindo a completude genética de um “representante abstrato da população geral”, para o qual o resultado pode então ser transferido. Estudos especialmente conduzidos mostraram que a falta de randomização ou sua implementação incorreta leva a uma superestimação do efeito em até 150%, ou à sua subestimação em 90%.

É extremamente importante ressaltar que a tecnologia RCT permite obter quatro respostas possíveis sobre o efeito de uma intervenção sem qualquer

conhecimento do seu mecanismo. Permite-nos comprovar, do ponto de vista da medicina baseada em evidências, que a intervenção é 1) eficaz; 2) inútil; 3) prejudicial; ou, na pior das hipóteses, que 4) até à data nada se pode dizer sobre a eficácia deste tipo de intervenção. Este último ocorre quando a intervenção que nos interessa, devido ao pequeno número de participantes na experiência, não nos permitiu obter um resultado estatisticamente significativo num ECR.

Assim, a MBE responde às questões já mencionadas: atua (prejudicial ou útil)/não atua (inútil)/desconhece; mas não responde às perguntas “como e por que funciona”. Somente a pesquisa fundamental pode respondê-las. Por outras palavras, a MBE para os seus fins pode prescindir de investigação fundamental, enquanto a investigação fundamental para implementar os seus resultados na prática médica quotidiana não pode prescindir de um procedimento para verificar o efeito de acordo com os padrões da MBE.

Para otimizar a análise de informações baseadas em evidências, são utilizados métodos especiais de trabalho com informações, como revisão sistemática e meta-análise. Meta-análise é a aplicação de métodos estatísticos na criação de uma revisão sistemática para resumir os resultados incluídos na revisão dos estudos. As revisões sistemáticas são às vezes chamadas de meta-análises se este método tiver sido usado na revisão. A meta-análise é realizada com o objetivo de resumir as informações disponíveis e divulgá-las de forma compreensível aos leitores. Inclui determinar o objetivo principal da análise, escolher formas de avaliar os resultados, buscar sistematicamente informações, resumir informações quantitativas, analisá-las por meio de métodos estatísticos e interpretar os resultados.

Existem vários tipos de meta-análise. A meta-análise cumulativa permite construir uma curva cumulativa de acumulação de estimativas à medida que novos dados se tornam disponíveis. A meta-análise prospectiva é uma tentativa de desenvolver uma meta-análise dos ensaios planejados. Esta abordagem pode ser apropriada em áreas da medicina onde já existe uma rede estabelecida de intercâmbio de informações e programas conjuntos, por exemplo, o sistema de informação electrónica da OMS para monitorização da qualidade dos cuidados dentários à população, Oratel. Na prática, em vez de uma meta-análise prospectiva, é frequentemente utilizada uma meta-análise prospectiva-retrospectiva, combinando novos resultados com resultados previamente publicados. A meta-análise de dados individuais baseia-se no estudo dos resultados do tratamento de pacientes individuais,

Questões de saúde e ambientais

requer a cooperação de muitos pesquisadores e a adesão estrita ao protocolo. Num futuro próximo, as meta-análises de dados individuais serão provavelmente limitadas a estudos de doenças importantes que requerem grandes investimentos centralizados para serem tratadas.

O principal requisito para uma meta-análise informativa é a presença de uma revisão sistemática adequada, que examine os resultados de numerosos estudos sobre um problema específico de acordo com o algoritmo:

Seleção de critérios para inclusão de estudos originais em meta-análise;

Avaliação da heterogeneidade (heterogeneidade estatística) dos estudos originais;

A própria meta-análise (estimativa generalizada do tamanho do efeito);

Análise de sensibilidade dos resultados.

Os resultados de uma meta-análise são geralmente apresentados como um gráfico na forma de estimativas pontuais indicando o intervalo de confiança e a razão de chances (dds ratio), um indicador resumido que reflete a gravidade do efeito (Figura 1). Isto permite-nos mostrar a contribuição dos resultados de estudos individuais, o grau de heterogeneidade destes resultados e a estimativa conjunta do tamanho do efeito. Os resultados da análise de meta-regressão podem ser apresentados na forma de um gráfico, cujo eixo das abcissas mostra os valores do indicador analisado, e o eixo das ordenadas mostra a magnitude do efeito do tratamento. Além disso, devem ser comunicados os resultados das análises de sensibilidade sobre parâmetros-chave (incluindo comparações de resultados de modelos de efeitos fixos e de efeitos aleatórios, se os resultados forem inconsistentes).

Figura 1 - Gráfico de funil para identificação de vieses associados à publicação predominante de resultados positivos de estudos

O gráfico mostra dados de uma meta-análise que avalia a eficácia de um dos métodos de tratamento. O risco relativo (RR) em cada estudo é comparado com o tamanho da amostra (peso do estudo). Os pontos do gráfico são agrupados em torno do valor médio ponderado do RR (mostrado pela seta) na forma de um triângulo simétrico (funil), dentro do qual são colocados os dados da maioria dos estudos. Os dados publicados de pequenos estudos superestimam o efeito do tratamento em comparação com estudos maiores. A distribuição distorcida de pontos significa que alguns pequenos estudos com resultados negativos e resultados significativos

A variância estatística não foi publicada, ou seja, é possível um erro sistemático associado à publicação predominante de resultados positivos. O gráfico mostra que há significativamente menos estudos pequenos (10–100 participantes) com um RR superior a 0,8 do que estudos semelhantes com um RR inferior a 0,8, e a distribuição dos dados de estudos de médio e grande porte é quase simétrica. Assim, alguns pequenos estudos com resultados negativos provavelmente não foram publicados. Além disso, o gráfico facilita a identificação de estudos cujos resultados se desviam significativamente da tendência geral.

Questões de saúde e ambientais

Na maioria dos casos, na realização de uma meta-análise, são utilizados dados generalizados sobre os grupos de pacientes comparados na forma em que são apresentados nos artigos. Mas às vezes os pesquisadores procuram avaliar mais detalhadamente os resultados e os fatores de risco em pacientes individuais. Esses dados podem ser úteis na análise

sobrevivência e análise multivariada. As meta-análises de dados individuais de pacientes são mais caras e demoradas do que as meta-análises de dados de grupo; requer a cooperação de muitos investigadores e adesão estrita ao protocolo (Figura 2).

A. Representação gráfica dos resultados de uma meta-análise padrão. O risco relativo de progressão em cada estudo e sua estimativa conjunta são apresentados como pontos, e os intervalos de confiança (IC; geralmente IC 95%) são representados como linhas horizontais. Os estudos são apresentados de acordo com a data de publicação. Risco relativo<1 означает снижение числа исходов в группе лечения по сравнению с группой контроля. Тонкие линии представляют совокупные индивидуальные результаты, нижняя линия - объединенные результаты.

B. Resultados de uma meta-análise cumulativa de dados obtidos nos mesmos estudos. Os pontos e linhas representam, respectivamente, os riscos relativos e os ICs de 95% dos dados agrupados após cada estudo adicional ter sido incluído na análise. Se o intervalo de confiança cruzar a linha OR = 1, então o efeito observado é estatisticamente insignificante no nível de significância selecionado de 0,05 (95%). Se não houver heterogeneidade significativa nos dados, adicionar um estudo de acompanhamento estreita o IC.

N é o número de pacientes do estudo; N é o número total de pacientes.

Figura 2 - Resultados da metanálise padrão e cumulativa dos dados obtidos dos mesmos estudos

A maioria das tabelas de resumo de meta-análise resume os dados de todos os ensaios em forma de diamante (linha horizontal inferior com um ponto). A localização do diamante em relação à linha vertical de nenhum efeito é fundamental para a compreensão da eficácia dos testes. Se o diamante se sobrepõe à linha sem efeito, pode-se dizer que não há diferença no efeito na incidência do desfecho primário entre os dois tratamentos.

Um conceito importante para a correta interpretação dos resultados de uma metanálise é a determinação da homogeneidade dos ensaios. Na linguagem da meta-análise, homogeneidade significa que os resultados de cada ensaio individual são combinados com os resultados de outros. A homogeneidade é possível

avalie rapidamente pela localização das linhas horizontais (Figura 2). Se as linhas horizontais se sobrepuserem, podemos dizer que estes estudos são homogêneos.

Para avaliar a heterogeneidade dos ensaios, é utilizado o valor numérico do critério %2 (na maioria dos formatos de meta-análise indicado como “Qui-quadrado para homogeneidade”). A estatística %2 para heterogeneidade de grupo é explicada pela seguinte regra prática: o critério x2 em média tem um valor igual ao número de graus de liberdade (o número de ensaios na meta-análise menos um). Portanto, um valor X2 de 9,0 para um conjunto de 10 ensaios não mostra evidência de heterogeneidade estatística.

Questões de saúde e ambientais

Caso haja heterogeneidade significativa nos resultados dos estudos, é aconselhável a utilização de metanálise de regressão, que permite levar em consideração diversas características que influenciam os resultados dos estudos em estudo. Por exemplo, a avaliação detalhada dos resultados e dos fatores de risco em pacientes individuais é necessária na sobrevivência e nas análises multivariadas. Os resultados da meta-análise de regressão são apresentados como um coeficiente de inclinação com intervalo de confiança.

O software para conduzir meta-análises computacionais está disponível na Internet.

Programas gratuitos:

RevMan (Review Manager) está localizado em: http://www.cc-ims.net/RevMan;

Meta-análise versão 5.3: http://www.statistics. com/content/freesoft/mno/metaana53.htm/;

EPIMETA: http://ftp.cdc.gov/pub/Software/epimeta/.

Programas pagos:

Meta-análise abrangente: http://www. meta-análise.com/;

MetaWin: http://www.metawinsoft.com/;

WEasyma: http://www.weasyma.com/.

Pacotes de software estatístico que fornecem a capacidade de realizar meta-análises:

SAS: http://www.sas.com/;

ESTADO: http://www.stata. com/;

SPSS: http://www.spss.com/.

Assim, agrupar quantitativamente dados de diferentes estudos clínicos utilizando meta-análise permite-nos obter resultados que não podem ser extraídos de estudos clínicos individuais. Ler e estudar revisões sistemáticas e resultados de meta-análises permite navegar mais rapidamente pela avalanche de artigos publicados e, do ponto de vista da medicina baseada em evidências, selecionar entre eles aqueles que realmente merecem nosso tempo e atenção. Ao mesmo tempo, é necessário perceber que a meta-análise não é uma “varinha mágica” que resolve o problema da evidência científica e não deve substituir o raciocínio clínico.

LISTA BIBLIOGRÁFICA

1. Revisões sistemáticas e meta-análises para o cientista cirurgião / S. S. Mahidl // Br. J. Surg. - 2006. - Vol. 93. - S. 1315-1324.

2. Comparação dos resultados de meta-análises de ensaios clínicos randomizados e recomendações de especialistas clínicos / E. T. Antman // JAMA. - 1992. - Vol. 268, N 2. - S. 240-248.

3. Medicina baseada em evidências: o que é e o que não é / D. L. Sack-ett // BMJ. - 1996. - Vol. 312. - S. 71-72.

4. Egger, M. Meta-análise: potenciais e promessas / M. Egger,

SG Davey // BMJ. - 1997. - Vol. 315. - S. 1371-1374.

5. Yuriev, KL Medicina baseada em evidências. Colaboração Cochrane / K. L. Yuryev, K. N. Loganovsky // Ukr. mel. cha-sopis. - 2000. - Nº 6. - P. 20-25.

6. A base de dados Cochrane de revisões sistemáticas. - Londres: BMJ Publishing Group e Update Software, 1995. - 260 p.

7. Davies, H. O que é meta-análise? / H. Davies, I. Crombie // Farmacologia clínica e farmacoterapia. - 1999. - Nº 8. - pp.

8. Egger, M. Meta-análise: princípios e procedimentos / M. Egger, S. G. Davey, A. N. Phillips // BMJ. - 1997. - Vol. 315. - S. 1533-1537.

9. Lewis, S. Parcelas florestais: tentando ver a madeira e as árvores / S. Lewis, M. Clarke // BMJ. - 2001. - Vol. 322. - S. 1479-1480.

10. Bero, L. A Colaboração Cochrane. Preparar, manter e divulgar revisões sistemáticas dos efeitos dos cuidados de saúde / L. Bero, D. Rennie // JAMA. - 1995. - Vol. 274. - S. 1935-1938.

11. A inclusão de literatura cinzenta influencia as estimativas da eficácia das intervenções relatadas nas meta-análises? / L.Mc. Auley // Lanceta. - 2000. - Vol. 356. - S. 1228-1231.

12. Fleiss, J. L. A base estatística da meta-análise / J. L. Fleiss // Stat. Métodos Med. Res. - 1993. - Vol. 2. - S. 121-145.

13. Groenlândia, S. Comentário convidado: um olhar crítico sobre alguns métodos meta-analíticos populares / S. Groenlândia // Am. J. Epidemiol. -

1994. -Vol. 140. - S. 290-296.

14. Diretrizes para meta-análises avaliando testes diagnósticos / L. Irwig // Ann. Estagiário. Med. - 1994. - Vol. 120. - S. 667-676.

15. Stewart, L. A. Metodologia prática de meta-análises (visões gerais) usando dados atualizados de pacientes individuais. Grupo de Trabalho Cochrane / L. A. Stewart, M. J. Clarke // Stat. Med. - 1995. - Vol. 14. - S. 2057-2579.

16. Greenhalkh T. Fundamentos da medicina baseada em evidências / T. Greenhalkh; faixa do inglês - M.: GEOTAR - Mídia, 2006. - 240 p.

17. Olkin, I. Considerações estatísticas e teóricas em meta-análise / I. Olkin // J. Clin. Epidemiol. - 1995. - Vol. 48. - S. 133-146.

18. Villar, J. Capacidade preditiva de meta-análises de ensaios clínicos randomizados / J. Villar, G. Carroli, J. M. Belizan // Lancet. -

1995. -Vol. 345. - S. 772-776.

19. Deeks, JJ. Revisões sistemáticas em saúde: Revisões sistemáticas de avaliações de testes diagnósticos e de triagem / J. J. Deeks // BMJ. - 2001. - Vol. 323. - P.157-162.

Recebido em 01/02/2008

UDC 616.12-005.8-0.53.8-08

ESTRUTURA DO INFARTO AGUDO DO MIOCÁRDIO, IDADE E SEXO, CARACTERÍSTICAS DO CURSO E MORTALIDADE NA FASE HOSPITALAR DO TRATAMENTO

N. V. Vasilevich

Universidade Médica Estadual de Gomel

A estrutura e a dinâmica do desenvolvimento do infarto agudo do miocárdio foram traçadas dependendo do sexo, idade, momento da internação hospitalar e gravidade do dano miocárdico na fase hospitalar do tratamento.

Palavras-chave: infarto agudo do miocárdio, sexo, idade, mortalidade.