Posts tagged "Saúde"

Dr. Algoritmo e o coronavírus

07/02/2020 Posted by Pessoas, Tendências 0 thoughts on “Dr. Algoritmo e o coronavírus”

Inteligência artificial previu surto antes do alerta da OMS e está sendo usada na luta contra a doença.

 

O mundo está sobressaltado com as notícias de que o ainda pouco conhecido coronavírus acometeu milhares de pessoas na China e começou a se espalhar por outros países. A Organização Mundial da Saúde (OMS) emitiu a notificação do surto da doença em 9 de janeiro, três dias depois de uma nota do Centro de Controle e Prevenção de Doenças dos Estados Unidos. Mas quem primeiro notou o perigo que se aproximava foi um algoritmo de inteligência artificial.

Em 31 de dezembro do ano passado o sistema da healthtech canadense BlueDot enviou a seus clientes um alerta de possível doença em regiões onde o coronavírus se manifestou. E mais. Ainda foi capaz de antever alguns dos primeiros destinos para os quais a enfermidade foi “exportada”: Seul, Taipei, Tóquio e Bangkok. 

O BlueDot se baseia em dados coletados de agências de notícias em 65 idiomas, redes de pesquisa de doenças em animais e plantas, comunicados oficiais de empresas do agronegócio e pecuária, entre outras. Um grupo de 40 colaboradores, entre cientistas e programadores, qualifica os dados, desconsiderando o que não é credível e acrescentando informações complementares. 

Por meio de Machine Learning todo esse volume de dados é lido e interpretado, gerando os alertas – que por ora são direcionados apenas aos clientes da empresa, público que deve ser ampliado em breve, segundo o fundador e CEO da BlueDot, Kamran Khan. “Podemos captar notícias de possíveis surtos, pequenos murmúrios, fóruns ou blogs com indicações de algum tipo de evento incomum acontecendo”, descreve. Há, segundo ele, um grande esforço para que as informações sejam validadas, de forma a não gerar alarmes falsos e ondas de pânico. 

A solução desponta como uma funcionalidade importante, que promete mais celeridade em relação aos organismos oficiais. “Sabemos que não se pode confiar nos governos para fornecer informações sensíveis em tempo hábil”, comenta Khan. Os interesses políticos e econômicos em não divulgar a gravidade de certos problemas pode, de fato, influenciar na rapidez em que a informação chega à população. 

Um soldado na luta contra o vírus

A inteligência artificial também está a serviço do tratamento dos casos e do gerenciamento de toda a batalha contra o coronavírus. Autoridades de Xangai lançaram dias atrás um robô capaz de conversar com as pessoas, identificar seu quadro de saúde e recomendar ações que minimizem riscos de contágio.“Com base em sua condição, é aconselhável que você fique em casa para uma observação de quarentena de 14 dias. Enviaremos suas informações aos centros de saúde comunitários para acompanhamento”, diz o sistema, em um exemplo de intervenção. 

Em Pequim e Shenzen, ferramentas de IA integrantes dos sistemas de controle de aeroportos e estações de trem detectam o calor corporal dos passageiros, identificando áreas de aglomeração. Assim, consegue piorizar viagens que diminuam o número de pessoas em uma mesma plataforma e até mesmo verificar sinais de febre em um indivíduo. 

O coronavírus têm mostrado um potencial de contaminação muito rápido, estando próximo de alcançar o número de casos registrados de Ebola e já tendo superado em quase quatro vezes as ocorrências de SARS. Felizmente, seu percentual de letalidade (2,0% dos casos) é bem inferior ao dessas duas doenças (43,9% e 9,6%, respectivamente) e do H1N1 (17,4%). 

Seguimos todos – humanos e algoritmos – na expectativa de que o surto seja contido.

(Crédito da imagem: _freakwave_ por Pixabay)

Raio-X da Inteligência Artificial na Saúde

23/01/2020 Posted by Tecnologia, Tendências 0 thoughts on “Raio-X da Inteligência Artificial na Saúde”

Entidade norte-americana publica relatório com panorama da interface entre IA e medicina.

 

A National Academy of Medicine (NAM), entidade que reúne profissionais e estudiosos de medicina dos Estados Unidos, publicou em dezembro um relatório com informações sobre o cenário atual da interface entre o campo da saúde e as ferramentas e aplicações de Inteligência Artificial. 

A publicação “Artificial Intelligence in Health Care: The Hope, the Hype, the Promise, the Peril” tem entre seus co-editores Michael Matheny, do Centro Médico da Universidade Vanderbilt. Ele comenta:

“É fundamental que a comunidade de assistência médica aprenda com os sucessos, mas também com os desafios e as falhas recentes no uso dessas ferramentas. Decidimos catalogar exemplos importantes na IA de assistência médica, destacar as melhores práticas em torno do desenvolvimento e implementação da IA e oferecer pontos-chave que precisam ser discutidos para que se chegue a um consenso sobre como abordá-los como comunidade e sociedade”.

O relatório aborda, entre vários tópicos, soluções em IA atuais e que estarão disponíveis no curto prazo, elenca desafios, limitações e práticas recomendadas para desenvolver, adotar e manter funcionalidades de IA, traça um panorama do cenário legal e regulatório dessas ferramentas para o uso em serviços de saúde, destaca a necessidade de uma visão plural e igualitária e um viés de direitos humanos na programação desses sistemas e aponta caminhos para o avanço na área. 

Algumas práticas vêm demonstrando resultados bastante positivos e têm se disseminado em hospitais e centros de pesquisa, como já abordamos em outro artigo. Por outro lado, também têm sido discutida, entre outros dilemas e questões, a ocorrência de vieses preconceituosos nos algoritmos, a chamada “discriminação algorítmica”, assunto do qual também já falamos por aqui

A expectativa de Matheny e dos demais colaboradores do trabalho é que ele possa contribuir para o diálogo sobre a inclusão e tratamento justo dos pacientes com o auxílio da IA. Como resume a NAM, em comunicado oficial: “A IA tem potencial para revolucionar os cuidados de saúde. No entanto, à medida que avançamos juntos para um futuro apoiado pela tecnologia, devemos garantir altos padrões de qualidade dos dados, que a equidade e a inclusividade sempre sejam priorizadas, que novas as tecnologias sejam apoiadas por educação e treinamento apropriados e adequados, e que todas as tecnologias sejam adequadamente regulamentadas e embasadas por legislação específica e adaptada”. 

(Crédito da imagem: EVG Photos)

Inteligência artificial: uma aliada dos psicólogos e psiquiatras

28/11/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Inteligência artificial: uma aliada dos psicólogos e psiquiatras”

Aplicações de IA vêm sendo desenvolvidas para auxiliar no tratamento de questões da mente humana.

A integração da Inteligência Artificial com a área da saúde é uma tendência em franco desenvolvimento. Já falamos dessa interface aqui no blog, mostrando alguns softwares e dispositivos médicos dotados de IA, do auxílio que os algoritmos podem dar na análise de exames de imagem ou mesmo abordando as previsões para os próximos focos de inovação em saúde.

E é ainda importante destacar que a Saúde é uma área pioneira na análise de dados, com o desenvolvimento, ainda nos anos 1970, da corrente prática chamada de “Medicina Baseada em Evidências” (MBE), antecedendo práticas similares na educação, segurança e outras. Na definição da Revista da Associação Médica Brasileira, a “MBE se traduz pela prática da medicina em um contexto em que a experiência clínica é integrada com a capacidade de analisar criticamente e aplicar de forma racional a informação científica de forma a melhorar a qualidade da assistência médica”. 

As áreas de psicologia e psiquiatria estão entre as que se beneficiam dessa “dobradinha”. Enquanto algumas patologias podem ser diagnosticadas por exames de sangue ou de imagem, as doenças psíquicas têm causas complexas e multifatoriais. Para aumentar a assertividade de prescrições e evitar custos e desgaste aos pacientes, sobretudo em casos refratários (nos quais não há resposta aos tratamentos convencionais), é valioso prever qual tratamento surtirá melhor resultado, com menos efeitos colaterais. Já existem bons exemplos. 

Um grupo de pesquisadores da Universidade de Yale desenvolveu um modelo baseado em Machine Learning (ML) para identificar quais pacientes alcançariam remissão sintomática após 12 semanas utilizando o antidepressivo Citalopram. Das 164 variáveis coletadas entre os pacientes, concluíram que com apenas 25 eram capazes de identificar com 64,60% de acurácia quais deles responderiam bem ao tratamento. 

Outro trabalho, que envolveu pesquisadores suecos, holandeses e britânicos, apontou com 91,70% de acerto quais pacientes com Transtorno de Ansiedade Social se beneficiariam da Terapia Cognitiva Comportamental, fazendo uso de imagens de ressonância magnética funcional. 

Por sua vez, pesquisadores dos EUA, Canadá e China elaboraram um modelo preditivo que indicou os níveis de resposta de pacientes com esquizofrenia ao antipsicótico Risperidona e outro que, a partir de exames de imagem, identificava pacientes com esse distúrbio com 78,60% de assertividade. 

A IA também pode ser usada como auxiliar dos psicólogos e psiquiatras na avaliação dos tradicionais testes gráficos. Um exemplo é o trabalho desenvolvido no Departamento de Ciência da Computação da Universidade da Virginia que resultou em uma versão digital do teste neuropsicológico do relógio, associada a outras duas atividades, de repetir e recordar palavras. O resultado é um aplicativo simples capaz de promover a triagem de quadros demenciais com 99,53% de acurácia. 

Os exemplos, como vimos, já são muitos e as possibilidades são inúmeras. É a tecnologia, mais uma vez, prometendo auxiliar na busca por mais saúde e bem estar.

Um algoritmo que não faz bem para a saúde

28/10/2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo que não faz bem para a saúde”

Software de operadoras de saúde nos EUA apresenta viés que privilegia brancos em detrimento de negros.

 

A palavra algoritmo permaneceu décadas restrita ao vocabulário dos estudiosos e profissionais da Ciência da Computação. A disseminação dos serviços e plataformas digitais trouxe o termo para o cotidiano. É o algoritmo do Uber quem escolhe a melhor rota no trânsito, e o do Facebook determina quem aparece ou não na sua timeline. Ele pode ser definido como uma sequência de raciocínios, instruções ou operações para alcançar determinado objetivo, com etapas cumpridas de forma sistemática.

O desenvolvimento tecnológico vem possibilitando a criação de algoritmos matemáticos cada vez mais complexos, com o objetivo de realizar as mais variadas e ousadas tarefas. Computadores e robôs são programados e dotados de inteligência artificial para trabalhar de forma autônoma, e até mesmo aprender – o tão falado machine learning.

Uma das questões mais discutidas atualmente nesse assunto, da qual já falamos em outro artigo, é a existência de vieses que podem distorcer análises e predições, e até mesmo reproduzir preconceitos. A chamada “discriminação algorítmica” é real e já tem até seu verbete na Wikipédia

Mais um estudo recente abordou essa ocorrência, dessa vez realizado por pesquisadores de Berkeley. Publicada na Revista Science, a pesquisa mostrou como um algoritmo utilizado por vários provedores de saúde nos Estados Unidos privilegiava pacientes brancos em detrimento dos negros ao prever quais usuários necessitavam de mais cuidados extras. 

O sistema – cujo nome foi omitido pelos estudiosos mas foi identificado pelo jornal Washington Post como sendo o software Optum – é utilizado, segundo a detentora UnitedHealth, para gerenciar mais de 70 milhões de vidas. Ao analisar quase 50 mil registros médicos de um grande hospital acadêmico, os cientistas observaram que o algoritmo atribuiu níveis de risco mais altos a pessoas brancas em comparação com pessoas negras igualmente doentes. A proporção de negros que foram selecionados para obter cuidados complementares foi reduzida a mais da metade em função da distorção do software. Os 10 sistemas mais usados no segmento de saúde nos EUA apresentam a mesma falha. 

O viés surgiu a partir da utilização dos históricos médicos para prever o quanto os usuários provavelmente custariam ao sistema de saúde. Por razões socioeconômicas e afins, pacientes negros costumam incorrer em menores custos com assistência médica do que os brancos com as mesmas enfermidades. Assim, o algoritmo conferiu aos brancos pontuações iguais à de negros consideravelmente mais doentes. 

Após as pesquisas os envolvidos trabalharam para corrigir o problema do Optum, conseguindo reduzir a disparidade em mais de 80%, em uma versão capaz de prever os custos futuros de um paciente e quantas vezes uma condição crônica pode surgir no ano seguinte. 

O estudo evidenciou mais uma vez a necessidade de atenção por parte dos desenvolvedores dos algoritmos. Problemas como esse têm sido recorrentes, não apenas na área da saúde, como também na seleção e contratação de pessoas, pontuação de crédito, seguros, justiça criminal e muitas outras. 

Nathana Sharma, professora da Singularity University, em entrevista recente, apontou caminhos:

“O que podemos fazer, de forma prática, é criar um sistema de origem ou sistema de armazenamento de informações que reúna os dados que nós queremos informar aos algoritmos e então vemos como esses algoritmos performam. E podemos usar esse mesmo sistema para julgar os vieses e então depois podemos dar um passo atrás e consertá-los. Podemos adicionar outros dados, que ajudem os algoritmos a tomarem decisões menos preconceituosas do que qualquer humano faria.”

E completou: “Mas é difícil chegar até aqui porque muitos dos desenvolvedores são homens brancos e partem de dados enviesados. Muitos dos algoritmos que vemos hoje estão enviesados. Em breve, precisaremos dar um próximo passo em busca de um mundo mais justo.”