Inovação precisa considerar diversidade
Publicado em 29/08/2019 • Notícias • Português
Para desenhar políticas públicas, é fundamental levar em conta as diferenças sociais, raciais e culturais brasileiras. Marcadores específicos precisam estar contemplados em relatórios e pesquisas científicas e também na área da inteligência artificial (IA), espaços onde essa diversidade deve ser usada a favor do conhecimento. Para especialistas em tecnologia, por exemplo, nada melhor do que um país diverso como o Brasil para ensinar os computadores a entender como problemas de saúde podem afetar diferentes populações. No Laboratório de Big Data e Análise Preditiva em Saúde (Labdaps) da USP, uma equipe de oito pesquisadores liderados pelo professor Alexandre Chiavegatto Filho cria algoritmos que conseguem diagnosticar pacientes, antecipar desfechos e indicar tratamentos e ações médicas, valendo-se do aprendizado de máquina. “Trabalhamos com dados públicos do Sistema Único de Saúde e também com informações fornecidas por hospitais, a partir de pesquisas feitas por eles”, explica Chiavegatto Filho. Funciona assim: a inteligência artificial aprende a tomar decisões com base em informações passadas a ela sobre casos anteriores. Os pesquisadores alimentam o sistema com uma quantidade grande de dados e o computador rapidamente encontra padrões e faz associações para analisar os casos e ajudar os médicos a tomar decisões mais bem informadas. Em outras palavras, a IA usa informações sobre pacientes atendidos anteriormente para prever o que pode acontecer com o paciente atual. O problema é que, se a máquina for treinada apenas para identificar padrões entre pacientes em situações muito parecidas, ela não conhece questões específicas que podem ser diferentes em populações que acessam menos a rede hospitalar. Políticas de saúde pública mal desenhadas deixam de atender a quem mais precisa dela. Quem fica de fora. Professor do Departamento de Saúde Pública da Universidade Federal de Santa Catarina (UFSC), João Luiz Bastos estuda os impactos do racismo sobre a saúde das populações e destaca que há grupos sub-representados até mesmo nas pesquisas sobre desigualdade. “Uma discussão que se trava na literatura há algum tempo é a de quem acaba sendo recrutado para estudos nessa área e quais são os métodos para coletar os dados sobre esses participantes. A conclusão é de que o perfil do participante é aquele mais fácil de ser acessado”, afirma. Os mais desiguais – população institucionalizada, em situação de rua, entre outros – ficam de fora e, portanto, acabam não sendo foco de políticas públicas, criando um círculo vicioso. Ele alerta que o objetivo da diversidade nas pesquisas em saúde deve ser identificar necessidades em determinados grupos, e faz ressalvas quanto à promessa de desenvolvimento de medicamentos ou tratamentos específicos, considerando que o genoma humano é muito semelhante entre duas pessoas, independentemente de sua cor ou origem. Outro ponto a ser observado, afirma Bastos, é a forma com que os dados são coletados. Para garantir a qualidade da informação, é preciso entender a população pesquisada. Ele cita uma pesquisa de 2010 para exemplificar a necessidade de se criar uma estratégia de coleta de dados mais eficaz, até mesmo no Censo. “Mostrei que o relato do número de filhos que as mães têm ao longo da vida reprodutiva tende a ser subestimado para as mães indígenas do Norte do País”, relata. O professor percebeu que os recenseadores que entrevistavam essas mulheres tinham um problema de comunicação com elas, já que dependiam de intermediários para a tradução de um tema sensível. Por causa disso, as informações se perdiam. “A gente tem um mantra na área da pesquisa em saúde pública: se você não tem dados sobre um tema, você não consegue pensar em estratégias para enfrentálo. Se você tem segmentos da população que estão ausentes das pesquisas, eles não podem ser alvos de políticas públicas”, observa. Bons algoritmos. “Em geral, a desigualdade na saúde de um país é um grande problema, mas nas áreas de inteligência artificial e de machine learning é muito bom que tenhamos diversidade. Assim, conseguimos garantir que os algoritmos possam tomar boas decisões, principalmente para favorecer grupos mais vulneráveis”, diz Chiavegatto Filho. Para ele, o Brasil é um lugar propício para desenvolver algoritmos nessa área. Mundialmente, ainda estamos longe de ter bancos de dados representativos da população. Na área da genômica, por exemplo, 81% dos estudos são em pessoas de ascendência europeia. Foi o que descobriram duas pesquisadoras da Universidade de Seattle, em 2016. De acordo com a análise, publicada em 2016 na revista científica Nature, populações nativas – ou indígenas – são as menos representadas em estudos da área. É a chamada “ciência weird” (acrônimo em inglês para designar grupos historicamente mais bem representados nas pesquisas científicas: ocidentais, bem educados, industrializados, ricos ou vivendo sob uma democracia). Sem diversidade nos dados, os computadores têm mais chances de tomar decisões equivocadas quando o paciente fizer parte de uma população sobre a qual ele aprendeu pouco. Ou seja, a pessoa tem menos chances de receber diagnóstico e atenção corretos. A consequência é um sistema de saúde ainda menos inclusivo para quem não está representado – pessoas de baixa renda, negros, mulheres, idosos, populações autóctones – e um aprofundamento da desigualdade. “As pesquisas nos Estados Unidos e na Europa não têm essa diversidade genética e socioeconômica que temos no Brasil. Não podemos importar os algoritmos usados por eles, porque têm essa tendência. Mas, treinando os nossos aqui no Brasil, podemos exportar para dezenas de países”, afirma o diretor do Labdaps |
Link: Clique aqui para ler esta notícia direto da fonte |
Fonte: O Estado de São Paulo