Herdeiras da imperfeição: as máquinas que erram como os humanos

24 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Herdeiras da imperfeição: as máquinas que erram como os humanos”

Sistemas de machine learning carregam e reproduzem visões de mundo dos humanos – nem sempre positivas.

Por décadas algumas das principais missões da ciência da computação giravam em torno de desenvolver algoritmos eficientes, além de códigos e equipamentos que funcionassem cada vez mais rápidos. Hoje, contudo, os holofotes se direcionam para os dados e a inteligência artificial para apontar as principais tendências tecnológicas que vão nos levar ao futuro – que, aliás, já vai se concretizando.

Grandes volumes de dados servem de subsídio para o funcionamento de sistemas de inteligência artificial, sobretudo os da vertente de machine learning e suas variáveis. As máquinas dotadas da capacidade de aprender o fazem a partir do aporte de informações recolhidas previamente, das quais sairão os parâmetros para suas predições, ações e reações.

Mas isso enseja uma das questões éticas da inteligência artificial: por mais “independentes” que possam ser, esses dispositivos são programados e alimentados por humanos e seus dados, podendo carregar, então, muitos de seus vieses pessoais, visões de mundo e distorções.

Até mesmo a discriminação de raça ou gênero pode ser replicada por algoritmos. Um notório estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens fotografados na cozinha. Afetadas pela tendência observada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos.

Em outro exemplo, a Amazon teve de abandonar uma ferramenta de recrutamento que tendia a eliminar mulheres do processo de seleção, mesmo quando uma adaptação foi feita para tornar o programa neutro para palavras com gênero. Uma das hipóteses para a distorção é que o sistema tenha aprendido com o histórico de contratação da empresa, constituinte do banco de dados. Por terem sido decisões tomadas por humanos, estão ali presentes todos os fatores discriminatórios neste tipo de situação. As fontes de aprendizado do sistema da empresa foram as escolhas feitas por recrutadores em sua maioria homens e brancos.

Os defensores da democratização do conhecimento na área de inteligência artificial e do desenvolvimento de soluções abertas se pautam em questões como essa para levantar sua bandeira. Já que é inegável o potencial transformador desse ramo da tecnologia, que ele se desenvolva sob condições de transparência e auditabilidade.

Várias ferramentas funcionam muitíssimo bem, mas são verdadeiras caixas-pretas, das quais só se conhece o produto, nunca o processo. Estes conjuntos de instruções ganharam um nome em inglês: black box algorithms. Há quem defenda sua importância e quem se empenhe em abri-las. Mas isso é assunto para o próximo post.

Tags: , ,

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn