A IA perpetuará ou eliminará as disparidades de saúde?

A IA perpetuará ou eliminará as disparidades de saúde?

15 de maio de 2023 — Não importa para onde você olhe, os aplicativos de aprendizado de máquina em inteligência artificial estão sendo aproveitados para mudar o status quo. Isso é especialmente verdadeiro na área da saúde, onde os avanços tecnológicos estão acelerando a descoberta de medicamentos e identificando novas curas em potencial.

Mas esses avanços não vêm sem bandeiras vermelhas. Eles também colocaram uma lupa nas diferenças evitáveis ​​na carga de doenças, lesões, violência e oportunidades para alcançar a saúde ideal, todas as quais afeta desproporcionalmente pessoas de cor e outras comunidades carentes.

A questão em questão é se os aplicativos de IA ampliarão ou ajudarão a reduzir as disparidades de saúde, especialmente quando se trata do desenvolvimento de algoritmos clínicos que os médicos usam para detectar e diagnosticar doenças, prever resultados e orientar estratégias de tratamento.

“Um dos problemas mostrados na IA em geral e em particular na medicina é que esses algoritmos podem ser tendenciosos, o que significa que eles funcionam de maneira diferente em diferentes grupos de pessoas”, disse Paul Yi, MD, professor assistente de radiologia diagnóstica e nuclear medicina na Faculdade de Medicina da Universidade de Maryland e diretor do Centro de Imagens Médicas Inteligentes (UM2ii) da Universidade de Maryland.

“Para a medicina, obter o diagnóstico errado é literalmente vida ou morte, dependendo da situação”, disse Yi.

Yi é co-autor de um estudo publicado no mês passado na revista Medicina da Natureza no qual ele e seus colegas tentaram descobrir se os conjuntos de dados de imagens médicas usados ​​em competições de ciência de dados ajudam ou atrapalham a capacidade de reconhecer vieses em modelos de IA. Esses concursos envolvem cientistas da computação e médicos que coletam dados de todo o mundo, com equipes competindo para criar os melhores algoritmos clínicos, muitos dos quais são adotados na prática.

Os pesquisadores usaram um popular site de competição de ciência de dados chamado Kaggle para competições de imagens médicas realizadas entre 2010 e 2022. Eles então avaliaram os conjuntos de dados para saber se as variáveis ​​demográficas foram relatadas. Por fim, eles analisaram se a competição incluía o desempenho demográfico como parte dos critérios de avaliação dos algoritmos.

Yi disse que dos 23 conjuntos de dados incluídos no estudo, “a maioria – 61% – não relatou nenhum dado demográfico”. Nove competições relataram dados demográficos (principalmente idade e sexo) e uma relatou raça e etnia.

“Nenhuma dessas competições de ciência de dados, independentemente de relatarem dados demográficos ou não, avaliou esses vieses, ou seja, precisão de resposta em homens versus mulheres ou pacientes brancos versus negros versus asiáticos”, disse Yi. A implicação? “Se não tivermos os dados demográficos, não podemos medir os vieses”, explicou ele.

Higiene algorítmica, cheques e contrapesos

“Para reduzir o viés na IA, desenvolvedores, inventores e pesquisadores de tecnologias médicas baseadas em IA precisam se preparar conscientemente para evitá-lo, melhorando proativamente a representação de certas populações em seu conjunto de dados”, disse Bertalan Meskó, MD, PhD, diretor do Instituto Médico Futurista em Budapeste, Hungria.

Uma abordagem, que Meskó chamou de “higiene algorítmica”, é semelhante à que um grupo de pesquisadores da Emory University em Atlanta adotou quando criaram um conjunto de dados granular e racialmente diverso – o conjunto de dados de imagens de mama EMory (EMBED) – que consiste em 3,4 milhões de imagens de mamografia de rastreamento e diagnóstico de câncer de mama. Quarenta e dois por cento dos 11.910 pacientes únicos representados eram mulheres afro-americanas autodeclaradas.

“O fato de nosso banco de dados ser diversificado é uma espécie de subproduto direto de nossa população de pacientes”, disse Hari Trivedi, MD, professor assistente nos departamentos de Radiologia e Ciências de Imagem e de Informática Biomédica da Emory University School of Medicine e codiretor do laboratório de Inovação em Saúde e Informática Translacional (HITI).

“Mesmo agora, a grande maioria dos conjuntos de dados usados ​​no desenvolvimento de modelos de aprendizado profundo não inclui essas informações demográficas”, disse Trivedi. “Mas foi muito importante no EMBED e em todos os conjuntos de dados futuros que desenvolvemos disponibilizar essas informações porque, sem elas, é impossível saber como e quando seu modelo pode ser tendencioso ou que o modelo que você está testando pode ser tendencioso.”

“Você não pode simplesmente fechar os olhos para isso”, disse ele.

É importante ressaltar que o viés pode ser introduzido em qualquer ponto do ciclo de desenvolvimento da IA, não apenas no início.

“Os desenvolvedores podem usar testes estatísticos que permitem detectar se os dados usados ​​para treinar o algoritmo são significativamente diferentes dos dados reais que encontram em ambientes da vida real”, disse Meskó. “Isso pode indicar vieses devido aos dados de treinamento.”

Outra abordagem é a “eliminação de vieses”, que ajuda a eliminar diferenças entre grupos ou indivíduos com base em atributos individuais. Meskó referenciou o código-fonte aberto da IBM Kit de ferramentas AI Fairness 360que é um conjunto abrangente de métricas e algoritmos que pesquisadores e desenvolvedores podem acessar para reduzir o viés em seus próprios conjuntos de dados e IAs.

Cheques e contrapesos são igualmente importantes. Por exemplo, isso poderia incluir “verificação cruzada das decisões dos algoritmos por humanos e vice-versa. Dessa forma, eles podem responsabilizar-se mutuamente e ajudar a mitigar o viés”, disse Meskó.

Mantendo os humanos informados

Falando em freios e contrapesos, os pacientes deveriam se preocupar com o fato de uma máquina estar substituindo o julgamento de um médico ou conduzindo a decisões possivelmente perigosas porque um dado crítico está faltando?

Trevedi mencionou que estão em desenvolvimento diretrizes de pesquisa de IA que se concentram especificamente em regras a serem consideradas ao testar e avaliar modelos, especialmente aqueles que são de código aberto. Além disso, o FDA e o Departamento de Saúde e Serviços Humanos estão tentando regular Desenvolvimento e Validação de Algoritmos com o objetivo de melhorar a precisão, transparência e justiça.

Como a própria medicina, a IA não é uma solução única para todos, e talvez freios e contrapesos, avaliação consistente e esforços conjuntos para construir conjuntos de dados diversos e inclusivos possam abordar e, em última análise, ajudar a superar as disparidades generalizadas de saúde.

Ao mesmo tempo, “acho que estamos muito longe de remover totalmente o elemento humano e não ter médicos envolvidos no processo”, disse Kelly Michelson, MD, MPH, diretora do Centro de Bioética e Humanidades Médicas da Northwestern University Feinberg School of Medicine e médico assistente no Ann & Robert H. Lurie Children’s Hospital de Chicago.

“Na verdade, existem algumas grandes oportunidades para a IA reduzir as disparidades”, disse ela, observando também que a IA não é simplesmente “essa grande coisa”.

“IA significa muitas coisas diferentes em muitos lugares diferentes”, diz Michelson. “E a forma como é usado é diferente. É importante reconhecer que as questões relacionadas ao viés e o impacto nas disparidades de saúde serão diferentes dependendo do tipo de IA de que você está falando”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *