Posts in Data Science

Data Science salva vidas!

20/09/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Data Science salva vidas!”

A medicina está usando Inteligência Artificial e Machine Learning para aprimorar seus serviços.

A Inteligência Artificial e o Machine Learning possuem grande potencial transformador nos serviços de saúde. Os fabricantes de dispositivos médicos estão aproveitando a quantidade imensa de dados que são gerados todos os dias na área para desenvolver tecnologias e inovar seus produtos. Avanços na detecção precoce de doenças, diagnósticos mais precisos, identificação de novas observações ou padrões na fisiologia humana e desenvolvimento de diagnósticos personalizados estão no radar.

Os softwares destinados para fins médicos são os grandes alvos da IA e do Machine Learning. O Fórum Internacional de Reguladores de Dispositivos Médicos (IMDRF) define Software como Dispositivo Médico (SaDM) como todo aquele que executa finalidades médicas sem fazer parte de um hardware. A área já recebeu diversos avanços, mas os SaDM ainda podem se aprimorar conforme se evoluem as tecnologias de IA e ML, melhorando diretamente os cuidados de saúde dos pacientes.

Podemos citar alguns exemplos de SaDM baseadas em IA/ML, como o Software de Unidade de Terapia Intensiva, o Aplicativo Médico de Lesão de Pele e o Software de identificação de desvio de Tubos de Alimentação em Raios X. A seguir, vamos falar um pouco sobre eles.

O Software de Unidade de Terapia Intensiva com aplicação de IA/ML recebe eletrocardiograma, sangue, sinais de pressão e oximetria do pulso do paciente. Os sinais fisiológicos são processados e analisados para detectar padrões que ocorrem no início da instabilidade fisiológica. Se detectada, um sinal é gerado para indicação clínica imediata. Esse aplicativo conduz o gerenciamento clínico em uma situação crítica de saúde.

O Aplicativo Médico de Lesão de Pele com aplicação de IA/ML usa imagens tiradas pela câmera do smartphone do paciente para fornecer informações a um dermatologista sobre as características físicas de uma lesão cutânea. Isso permite que o médico rotule a lesão como benigna ou maligna. O aplicativo impulsionará o gerenciamento clínico em situações sérias de saúde.

O Software de identificação de desvio de Tubos de Alimentação em Raios X com aplicação de IA/ML analisa radiografias de tórax de pacientes internados após a colocação de um tubo de alimentação. Isso permite que o programa avalie quaisquer colocações incorretas e realize uma espécie de triagem, conduzindo o gerenciamento clínico em situações graves.

Esses são só alguns exemplos citados pela U.S. Food and Drug Administration (FDA), em um relatório que busca trazer uma discussão sobre a regulamentação e eventuais modificações a serem feitas em alguns destes softwares, no intuito de aumentar a precisão e melhorar a tecnologia atrelada ao sistema de saúde.

A Data Science está com um leque de aplicações cada vez mais amplo, e sua implementação pode ser extremamente benéfica, mudando drasticamente certos hábitos e costumes, além de melhorar a qualidade de vida, prospecção de negócios e impactando substancialmente áreas como a saúde. Quando bem explorada, ela pode fazer diferença e até salvar a vida de milhões de pessoas.

Uma breve história da (computação em) nuvem

28/08/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Uma breve história da (computação em) nuvem”

O conceito de cloud computing nasceu em 1960, conheça as origens desse mercado que movimenta bilhões.

O mercado de Cloud Computing está em alta. Em 2018, movimentou 200 bilhões de dólares, e há expectativas de que alcance a casa dos 300 bilhões em 2022, de acordo com a IDC – International Data Corporation. No dia a dia, os usuários encontram nesses serviços a facilidade de ampliar o armazenamento de seu smartphone, compartilhar arquivos com outras pessoas, mas a nuvem não se resume a isso. Quando uma empresa adere a esse serviço, ela pode desfrutar de maior produtividade, escalabilidade e segurança, elevando seu rendimento em diversos âmbitos.

A nuvem se tornou uma ferramenta acessível para qualquer um que possua um smartphone ou computador, mas apesar de parecer uma tecnologia recente, já se discutia sobre ela há muitas décadas. Os primeiros registros do que seria a base da nuvem nasceram com o americano John McCarthy, que em 1960, nove anos antes da criação da internet, já sugeria o conceito de computer utility, uma computação compartilhada simultaneamente entre dois ou mais usuários, onde você paga apenas pelo que usa. Suas palavras, em 1961, foram proféticas:

A computação poderá ser usufruída de forma pública, como hoje usamos a telefonia. Cada usuário pagará somente pelo que usar, mas com acesso às ferramentas de um sistema completo. Esta capacidade da comutação poderá ser a base de uma nova e importante indústria.

Outro nome importante para a criação e popularização da Cloud Computing é o físico Joseph Carl, que permitiu o compartilhamento de dados e a comunicação em escala global com a ARPANET, predecessora da internet. Joseph Carl é hoje considerado um dos pais esquecidos da internet.

Nos anos 1990, já com a World Wide Web, houve uma série de avanços nos sistemas de telecomunicação, como o aumento da banda larga, fácil acesso a computadores e a proliferação de internet de alta velocidade, abrindo portas para o futuro na nuvem. Assim, em 1997, foi usado pela primeira vez o termo Cloud Computing, em uma palestra ministrada pelo professor de Sistemas de Informação Ramnath Chellappa. A terminologia nasceu do símbolo da internet, algo que está “no ar”. Em 1999, a empresa Salesforce foi a primeira a disponibilizar aplicações empresariais pela web, mas foi somente em meados dos anos 2000 que tivemos o mais importante passo para popularização desse mercado no meio empresarial.

O ponto de inflexão na tecnologia é o ano de 2006, quando lançada a primeira versão da EC2, ou Elastic Compute Cloud, desenvolvida pela Amazon Web Services. É a origem do que hoje chamamos de Infrastructure-as-a-Service (IaaS). Ao permitir o acesso remoto ao processamento, na prática “alugando” computadores às empresas, a Amazon ofereceu uma nova visão sobre o sistema. O serviço permitia às empresas eliminar a necessidade de um investimento inicial em hardware, facilitando o desenvolvimento e implantação de serviços e aplicativos com mais rapidez e menos investimento em hardware.

De 2006 para cá aconteceram muitas outras mudanças, avanços e novidades na computação em nuvem. Sobre algumas, já falamos aqui, destacando o potencial, por exemplo, da Data Analytics as a Service. De acordo com a ABES – Associação Brasileira das Empresas de Software, somente no Brasil, de 2015 a 2017, foi registrado um aumento de 86,92% no faturamento desse segmento.  A nuvem apresenta uma série de soluções empresariais, que podem se aplicar a qualquer tipo de negócio. É necessário, entretanto, avaliar cada caso, uma vez que há riscos em relação a segurança das plataformas e à capacidade de atendimento das redes, especialmente em determinadas áreas e países.

Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô

23/08/2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô”

Conheça profissões que podem surgir e se popularizar nos próximos dez anos.

 

Quem viveu as últimas décadas assistiu à extinção de várias profissões e ao surgimento de tantas outras. E, acompanhando a curva cada vez mais acentuada do avanço tecnológico, inúmeros empregos atuais deixarão de existir. Nós mesmos já falamos disso por aqui

O Center for the Future of Work, criado pela empresa de serviços tecnológicos Cognizant, elencou dezenas de atividades que possivelmente surgirão, analisando variados aspectos que caracterizam o mundo atual, dentre os quais, é claro, os tecnológicos: automação, biotecnologia, física quântica, inteligência artificial, cibersegurança, realidade virtual e outros. 

Algumas dessas formas de trabalho soam bastante curiosas, embora não sejam improváveis e ainda pareçam um pouco distantes no horizonte. Entre eles estão desenvolvedores de órgãos humanos, professores de inglês como segunda língua para robôs, agricultores verticais urbanos, drone jockeys, manobristas de frotas autônomas e até mesmo terapeutas de dependência do Facebook. 

As profissões que, na avaliação dos estudiosos do Centro, estão prestes a se tornar relevantes e têm potencial de empregar centenas de milhares de pessoas, são o foco principal do relatório “21 jobs of the future: a guide to getting – and staying – employed over the next 10 years”. Veja alguns exemplos:

  • Data detective – devem vasculhar grandes volumes de dados para resolver questões complexas, verdadeiros enigmas surgidos na reunião das informações coletadas por dispositivos IoT, sensores, monitores biométricos, entre outros. 
  • AI-Assisted Healthcare Technician – técnicos que saibam lidar com o auxílio da Inteligência artificial serão cada vez mais necessários, dada a progressiva inserção dessa tecnologia no ramo da saúde. 
  • Cyber City Analyst – esse analista garantirá o funcionamento eficiente dos sistemas integrados nas chamadas “cidades inteligentes”. Cuidarão para que os fluxos de dados automatizados sigam bem, corrigindo erros, evitando e resolvendo ataques hacker.
  • Man-Machine Teaming Manager – será o responsável por gerir as relações entre humanos e máquinas, de modo a articular as principais qualidades e mitigar as limitações deles no trabalho, e desenvolverá os sistemas que permitam que essas equipes híbridas se comuniquem bem.
  • Personal Data Broker – como as tendências atuais determinam que os dados são propriedade dos indivíduos, e não das corporações, surgirá a figura do corretor de dados. Ele fará o monitoramento e a comercialização dos dados gerados por seu cliente. 
  • Personal Memory Curator – fará uso de ambientes virtuais e realidade aumentada para que idosos possam “habitar”, resgatando experiências e contextos passados que ofereçam conforto psicológico, sobretudo em casos de perda de memória (algo semelhante com o que é mostrado no episódio “San Junipero”, da série Black Mirror).
  • Augmented Reality Journey Builder – assim como há os escritores, os cineastas e os compositores, surgirão os construtores de narrativas em realidade aumentada, capazes de criar, projetar, construir, gamificar e personalizar a próxima geração de narrativas.

Resta agora saber quais dessas previsões se concretizará, de fato, nos próximos anos. Para qual delas você se candidataria? 

O líder e a transformação digital

07/08/2019 Posted by Data Science, Negócios, Tecnologia 0 thoughts on “O líder e a transformação digital”

Gestores em tecnologia precisam estar antenados e ter visão sistêmica para liderar processo.

O século 21 consolidou a presença da internet e das novas tecnologias no cotidiano, resultando em uma das mudanças mais importantes de todos os tempos. Esses artifícios levaram a sociedade a mudar diversos hábitos e se acostumar a um ritmo completamente novo, o que não afetou somente a vida pessoal dos indivíduos e a forma com que eles se relacionam, mas também as empresas que se consolidaram antes da internet. Enquanto algumas delas se mantiveram resistentes a mudanças e acabaram se tornando obsoletas, como já dissemos aqui, outras empresas optaram pela Transformação Digital, utilizando a tecnologia a seu favor para ganhar mercado.

Resumidamente, a transformação digital é o uso da tecnologia para obter resultados para um negócio. Quando implementada, pode (e deve) ser aplicada em todas as áreas da empresa, trabalhando para integrar desde a cúpula estratégica até a base operacional, facilitando todos os processos. Também não há nenhuma restrição quanto ao tipo de empresa que pode se beneficiar por essa transformação, mesmo que não atue no segmento de tecnologia. Hoje, esse é um caminho sem alternativa equivalente. A transformação é imprescindível.

Normalmente o responsável pela implementação do processo de transformação digital em uma empresa é o CIO (Chief Information Officer), mas a aplicação dessas mudanças não deve se limitar a essa figura. É extremamente importante que haja uma aproximação dos gestores da empresa com o condutor do processo, para que a tecnologia funcione de forma coesa e orgânica no contexto organizacional.

Para que essas mudanças sejam aplicadas de forma eficiente, o CIO deve se manter atento a uma série de fatores, se atualizando constantemente e buscando informações sobre novas tecnologias disponíveis. O CIO também deve assumir a função de estrategista de negócios e se mostrar apto em habilidades analíticas, inteligência de negócios, machine learning e conhecimento em IA. As tecnologias low-code e no-code podem ser muito úteis, pois permitem a programação sem um conhecimento aprofundado em códigos, e é extremamente importante que o gestor entenda sobre as principais plataformas de nuvem do mercado, que devem integrar todo o sistema vigente na empresa.

Ao se aprimorar e buscar conhecer mais do processo de transformação digital, um CIO consegue nortear toda uma mudança estratégica e operacional dentro da empresa. As mudanças, se bem implementadas, podem ser significativas, tanto para o ambiente interno da empresa quanto em relação a experiência final de um cliente com a empresa.

Você acredita na sua moeda?

03/08/2019 Posted by Data Science, Tecnologia 0 thoughts on “Você acredita na sua moeda?”

Artigo instigante de Ariano Cavalcanti sobre a produção, uso e legitimação da moeda. Se a confiança é o seu grande insumo, o que fazer, quando ela falta? 


Trecho extraído do texto original escrito pelo autor. Leia na íntegra

“A magnitude da transformação proposta pelas criptomoedas ou criptoativos é imensurável. Constituindo um sistema econômico alternativo (peer-to-peer), traz consigo uma proposta de sistema bancário livre e independente do estado, algo absolutamente impensável há poucos anos. Mas não é só isso. Permitindo transações financeiras sem intermediários, mas verificadas por todos usuários (nós) da rede, configura o melhor exemplo de uma estrutura sem uma entidade administradora central, inibindo qualquer autoridade financeira ou governamental de manipular a sua emissão, o seu valor e sobretudo, o de induzir a inflação com a produção de mais dinheiro. Isso não tem precedentes.

Bem, se o cenário atual conduz para um questionamento acerca da legitimidade das autoridades monetárias, acatar a possibilidade de ruptura desse padrão parece no mínimo razoável. No entanto, esse debate não é novo. O assunto já foi amplamente abordado pelo Prêmio Nobel de 1974, Friedrich Hayek, famoso economista austríaco que em seu livro A Desestatização do Dinheiro, já grifava que as vantagens das moedas competitivas (não estatais) não são apenas no sentido de que retirariam das mãos dos governos o poder de inflacionar a oferta monetária, mas também de que muito fariam para impedir as oscilações desestabilizantes que foram, no correr do último século de “ciclos econômicos”, precipitadas pelo monopólio governamental sobre o dinheiro, e também para tornar mais difícil para o governo aumentar excessivamente seus próprios gastos, já que esses aumentos se constituem num dos problemas mais cruciais da nossa era. Para Hayek, o papel-moeda fiduciário e de curso forçado (estatal) é uma criação nefasta do estado, que esse dinheiro fictício é o responsável pelos ciclos econômicos, e que o livre mercado sempre escolheria uma commodity (como o ouro, ou poderia ser uma criptomodeda?) para ser a moeda-base de qualquer economia. Isso soa familiar? Os brasileiros sabem bem disso…

Se o estado não tivesse o poder de emitir dinheiro, como estaria a gestão dos gastos públicos? E como seria a política sem o poder da moeda? E se o padrão de reserva internacional migrasse espontaneamente para uma moeda descentralizada no lugar das estatais? Sobre isso cabe outro pensamento de Hayek: “Fracionar ou descentralizar o poder corresponde, forçosamente, a reduzir a soma absoluta de poder, e o sistema de concorrência é o único capaz de reduzir ao mínimo, pela descentralização, o poder exercido pelo homem sobre o homem.“ — Friedrich August von Hayek

Um bom exemplo para ilustrar essa síntese é a Venezuela. O país é hoje o maior usuário da criptomoeda Dash, alternativa encontrada pela população para se proteger da hiperinflação de mais de 1.000.000% que assola o país. O Dash é amplamente utilizado tanto para pagamentos corriqueiros quanto por meio de ATM’s. e, convergindo com o exposto, um caso bem sucedido de uma moeda competindo com a do estado. Mas se a premissa da moeda estatal é a fidúcia, no caso venezuelano restará a ela apenas a força legal.

Não se pretende aqui, introduzir qualquer apologia contra as moedas e nem tampouco os estados, mas apenas questionar o que nunca ousamos pensar. Dados macroeconômicos estão piscando em alertas que as vezes não queremos enxergar. Talvez nunca tenhamos presenciado elementos e condições tão reais e alinhadas na direção de rupturas estruturais. A reunião de fatores como os legados da crise de 2008, o quantitative easing, o comportamento dos bancos centrais e o avanço das criptomoedas, merecem a nossa atenção sob pena de não nos prepararmos adequadamente para que possa vir.”

Esse sorriso não me engana!

02/08/2019 Posted by Data Science, Tecnologia 1 thought on “Esse sorriso não me engana!”

Com algoritmo que analisa sorrisos, cientistas avançam na área de reconhecimento facial e inteligência artificial.

O desenvolvimento das técnicas de reconhecimento facial anda de vento em popa, como já tratamos em outros artigos. Os benefícios são vários mas há também uma série de controvérsias – o que não tem sido raro quando analisamos os impactos das novas tecnologias. 

Na academia os pesquisadores buscam expandir os limites desse campo. Na Universidade de Bradford, Grã-Bretanha, cientistas deram um passo adiante: desenvolveram um software capaz de distinguir falsas expressões faciais

A partir dos algoritmos, é possível detectar se um sorriso é genuíno ou forçado. Primeiro o sistema mapeia os traços da face, identificando olhos, boca, bochechas e nariz. Depois ele registra o movimento no decorrer do sorriso e compara com as imagens já armazenadas de sorrisos legítimos e falsos. 

“Um sorriso é talvez a mais comum das expressões faciais e é uma maneira poderosa de sinalizar emoções positivas”, afirmou o coordenador da pesquisa Hassan Ugail, professor de computação visual da Universidade de Bradford. Curiosamente, os movimentos mais significativos característicos dos sorrisos verdadeiros aconteciam ao redor dos olhos, o que vai de encontro à popular afirmação de que um sorriso pode ser visto nos olhos de quem sorri.

Ainda que pareça um experimento simplório e aparentemente sem muitas aplicações práticas, o estudo é promissor e relevante. “Técnicas para analisar expressões faciais humanas avançaram dramaticamente nos últimos anos, mas a distinção entre sorrisos genuínos e posados ??continua sendo um desafio porque os humanos não são bons em captar as pistas relevantes”, comenta o professor Hassan. 

Com o desenvolvimento dessas possibilidades, o sistema pode auxiliar na interação entre humanos e computadores e colaborar, por exemplo, em processos de identificação biométrica. Para os cientistas sociais e da área clínica, pode também ajudar na obtenção de mais informações sobre emoções e comportamento. 

Aprender e não esquecer: um desafio para o futuro da inteligência artificial

21/05/2019 Posted by Data Science, Tecnologia 0 thoughts on “Aprender e não esquecer: um desafio para o futuro da inteligência artificial”

Sistemas podem esquecer como desempenhar tarefas anteriores ao aprenderem coisas novas. Pesquisadores buscam uma solução.

Não é raro que nós, humanos, fiquemos “enferrujados” no desempenho de alguma atividade que há muito não colocamos em prática. Mas, em geral é como naquela história de andar de bicicleta: esquecer a gente não esquece.

É curioso que as superpotentes máquinas e seus elaborados algoritmos podem sofrer do mesmo mal. Os sistemas de Inteligência Artificial e Deep Learning, sobretudo redes neurais profundas, programadas para tarefas muito específicas, muitas vezes, ao assumirem uma tarefa, se esquecem do que aprenderam antes para cumprir outra função. É o que os estudiosos do ramo chamam de “esquecimento catastrófico”.

Para superar esses limites, pesquisadores da Universidade Estadual da Carolina do Norte, nos EUA, estão desenvolvendo um framework de IA que não apenas aprende novas tarefas como melhora seu desempenho para tarefas já executadas, num processo chamado de backward transfer. Os resultados foram divulgados esta semana. Um robô utilizado em missões de segurança pode aprender a se locomover em um ambiente urbano mas precisa ser capaz de fazê-lo novamente em um lugar que visitou anteriormente, como um bosque, por exemplo. A pesquisa foi financiada pelo Exército dos Estados Unidos.

O framework foi batizado de “Learn to grow” (algo como “aprender a crescer”) e está estruturado como em um sistema no qual cada camada manipula os dados para ajudar o conjunto a desempenhar a tarefa e, para cada decisão a ser tomada, há quatro caminhos possíveis: pular a camada; usá-la da mesma forma que foi usada em tarefas anteriores, modificar levemente a atuação com base em uma ação prévia ou criar uma camada totalmente nova.

Assim, o sistema aprende qual é o melhor caminho, camada a camada, para concluir seu objetivo, sem descartar inputs e insights anteriores.  “O que é mais interessante é que, com a topologia otimizada – ou “aprendida ” – uma rede treinada para executar novas tarefas esquece muito pouco do que é necessário para executar as tarefas mais antigas, mesmo que as tarefas antigas não sejam similares”, comenta Xilai Li, um dos autores do estudo.

Em vários testes, o “Learn to Grow” se saiu melhor que outros sistemas na execução de tarefas antigas e mostrou também aprimoramento nelas. Caiming Xiong, diretor de pesquisa da Salesforce Research e parceiro de Xilai Li, explica: “Isso é chamado de transferência para trás e ocorre quando você descobre que aprender uma nova tarefa o torna melhor em uma tarefa antiga. Nós vemos isso nas pessoas o tempo todo, não tanto na IA.”

Aplicações com foco em deep neural networks e deep learning têm recebido crescente atenção da indústria. Já falamos sobre elas aqui e em outros posts. Ele está na base dos sistemas de reconhecimento facial, por por exemplo, e nos mais novos sistemas de inteligência artificial, como o Alexa. Fique de olho!

Business Intelligence versus Business Analytics: temos que escolher um lado?

07/05/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Business Intelligence versus Business Analytics: temos que escolher um lado?”

Entenda as diferenças entre os dois campos. Se é que elas de fato existem.

Tão logo os computadores comerciais foram ficando acessíveis, teve início o uso de ferramentas do que convencionou chamar-se de Business Intelligence (BI). A tecnologia e a crescente capacidade de armazenamento e processamento permitiram o desenvolvimento desse ramo, que reúne uma série de atividades e objetivos envolvendo a manipulação de dados estratégicos de uma organização.

Os gestores de médias e grandes empresas vêm, desde então, tendo como aliadas as ferramentas e técnicas de BI no planejamento e execução de suas atividades. Softwares, dashboards e relatórios dos mais diversos dão subsídio para acompanhar, manter, otimizar e/ou simplificar processos e operações.

Na última década, com o avanço do campo de Big Data, novos horizontes foram sendo abertos e as possibilidades de usar dados para a gestão estratégica aumentaram. É quando passa a ser usado o termo Business Analytics (BA), basicamente uma vertente potencializada do BI.

Enquanto o BI se vale de dados históricos do negócio e indicadores atuais para oferecer seu panorama, a visão de BA reúne esse arsenal e, fazendo uso de estatística, data mining e análises quantitativas para propor previsões e projeções para embasar a tomada de decisões. Em outras palavras, enquanto o BI otimiza o desempenho presente, o BA serve de base para preparar uma organização para o que está por vir.

E parece que não é só a dúvida entre a diferença entre os termos que é um problema para as empresas. Um estudo da Gartner Inc. apontou que 87% das organizações têm níveis baixos de maturidade em BI e BA. Parte delas utilizam-se apenas de ferramentas limitadas de BI, como planilhas e dados coletados pelos profissionais em seu dia a dia. Outro segmento observa iniciativas de coleta e análise de dados em alguns de seus setores ou unidades, mas sem qualquer liderança ou orientação integrada.

Estruturas de TI antiquadas ou muito simples, limitações na colaboração entre os membros da organização, dados esparsos ou pouco claros e até mesmo gargalos gerados pela equipe de TI podem retardar o desenvolvimento em matéria de Business Intelligence e Analytics.

Junto dos indicadores, a Gartner aponta quatro etapas a serem seguidas para desenvolver as capacidades e potencializar o impacto nos negócios:

  • Desenvolver dados de forma holística e traçar estratégias de forma clara e integrada, reunindo as visões dos gestores de TI, negócios e outras;
  • Criar uma estrutura organizacional flexível, explorar os recursos de análise e implementar treinamento contínuo para os responsáveis por essa função;
  • Implementar um programa sólido de governança de dados;
  • Criar plataformas integradas de análise que suportem amplas possibilidades de uso.

A implementação da cultura de BI e BA pode não ser fácil ou não acontecer da noite pro dia, mas, pelo visto, um lugar de destaque no mercado cada vez mais competitivo está reservado para quem emprega esforços e recursos nisso. A transformação digital já não é mais um caminho possível. É uma via obrigatória.

Caixinhas de segredos: as máquinas que não conseguimos decifrar

26/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Caixinhas de segredos: as máquinas que não conseguimos decifrar”

Uso de “algoritmos caixa-preta” levantam controvérsia. Devemos usar máquinas que “pensam” sem que saibamos exatamente como?

A ameaça dos computadores insurgentes que renderam à literatura e ao cinema ótimas histórias, todas envolvendo a humanidade posta em risco pela rebeldia de suas criações, não é realidade. Pelo menos ainda.

Mas outra questão envolvendo a Inteligência Artificial (IA) tem provocado um grande dilema: muitos dos sistemas de machine learning, modalidade que abrange as máquinas capazes de aprender, são verdadeiras caixas-pretas. Falamos disso em outro artigo.

Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões.

As convolutional neural networks (redes neurais convolucionais) são um exemplo. Com seus neurônios artificiais conectados de forma a tentar mimetizar a estrutura de um cérebro humano, é difícil acompanhar e “enxergar” o que se dá nelas. Rápidas e complexas, elas complicam a vida de quem quer quer compreendê-las. Resta aos curiosos analisar seus resultados e, por inferência, supor o processo. Daí o motivo de muitos especialistas se posicionarem como contrários ao uso de algoritmos caixa-preta, ou ao menos preocupados com algumas das consequências de seu uso.

Elizabeth Holm, professora de ciência e engenharia de materiais na Universidade Carnegie Mellon, posiciona-se favoravelmente ao uso desses recursos. Primeiramente ela ressalta que, tal qual nesses sistemas, alguns processos do pensamento humano também são insondáveis. Não raro confiamos em resultados de pensamentos que não podemos descrever ou explicar, por exemplo, e que nem por isso são necessariamente ruins ou prejudiciais. Para ela, o que vale para os humanos, nesse caso, deve valer também para a máquina.

Seus argumentos seguem em torno de três regras, estabelecidas por ela. A primeira, a mais simples, determina que se o custo de uma decisão ruim é pequeno e, por sua vez, o valor de uma decisão acertada é alto, vale a pena usar.

No segundo caso, mesmo com custos altos, vale a pena usar essas caixas-pretas quando é a melhor opção para fazer determinado trabalho. Um exemplo são os algoritmos utilizados em carros autônomos, que certamente serão condutores melhores que os humanos, mas que ainda assim, se houver falha em seus processos, podem causar graves acidentes.

A terceira situação em que se justifica o uso dos black box algorithms é quando a máquina é capaz de fazer algo de maneira diferente que os humanos, ou mesmo coisas das quais não somos capazes. Aí a decisão se aproxima da opção entre fazer ou não fazer algo, entre avançar ou não em algum aspecto.

Para Andrew McAfee, especialista em machine learning e automação, impor barreiras regulatórias para o uso de caixas-pretas na IA e exigir altos níveis de interpretabilidade nos sistemas poderia retardar o progresso da tecnologia.

Há, porém, muitos outros que defendem que esse progresso não pode vir a qualquer custo. Se não é possível entender exatamente como o sistemas caixa-preta funcionam e quais parâmetros utilizam, fica mais fácil duvidar deles ou perder a confiança neles.

A IBM, gigante no setor tecnológico, respondeu a essa corrente disponibilizando na nuvem, um serviço que torna visíveis os parâmetros de IA dos sistemas da empresa e permite a detecção de vieses durante seu funcionamento. Dados de um relatório elaborado pelo Institute for Business Value, vinculado à corporação, mostraram que 82% das empresas observadas consideram implementar IA em seus processos, mas delas 60% ainda têm receio quanto a questões de responsabilidade e compliance e 63% não dispõem de recursos humanos e/ou tecnológicos adequados para incorporar a tecnologia de forma confiável.

A ideia é que a ferramenta seja aplicável também a outros modelos, ambientes e sistemas tais como Tensorflow, Watson, AWS SageMaker, AzureMA e SparkML e seja personalizável para sistemas internos das organizações. Ela permite a entrada de dados para complementar ao modelo para diminuir a tendência de viés e mostra o caminho da tomada de decisões enquanto em execução.

Além disso, já inclui parâmetros que atendem a padrões de conformidade e regulação, como é o caso do GDPR (Regulamento Geral sobre a Proteção de Dados, implementado pela União Europeia). A companhia também vai disponibilizar ferramentas open source e materiais que fomentem a colaboração da comunidade tecnológica em torno do assunto.

É fato que a evolução não pára e a IA veio para ficar de vez, e provavelmente questões como essa, de ordem prática e ética, se sucederão. A controvérsia dos algoritmos caixa-preta é uma das bolas da vez.

Herdeiras da imperfeição: as máquinas que erram como os humanos

24/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Herdeiras da imperfeição: as máquinas que erram como os humanos”

Sistemas de machine learning carregam e reproduzem visões de mundo dos humanos – nem sempre positivas.

Por décadas algumas das principais missões da ciência da computação giravam em torno de desenvolver algoritmos eficientes, além de códigos e equipamentos que funcionassem cada vez mais rápidos. Hoje, contudo, os holofotes se direcionam para os dados e a inteligência artificial para apontar as principais tendências tecnológicas que vão nos levar ao futuro – que, aliás, já vai se concretizando.

Grandes volumes de dados servem de subsídio para o funcionamento de sistemas de inteligência artificial, sobretudo os da vertente de machine learning e suas variáveis. As máquinas dotadas da capacidade de aprender o fazem a partir do aporte de informações recolhidas previamente, das quais sairão os parâmetros para suas predições, ações e reações.

Mas isso enseja uma das questões éticas da inteligência artificial: por mais “independentes” que possam ser, esses dispositivos são programados e alimentados por humanos e seus dados, podendo carregar, então, muitos de seus vieses pessoais, visões de mundo e distorções.

Até mesmo a discriminação de raça ou gênero pode ser replicada por algoritmos. Um notório estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens fotografados na cozinha. Afetadas pela tendência observada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos.

Em outro exemplo, a Amazon teve de abandonar uma ferramenta de recrutamento que tendia a eliminar mulheres do processo de seleção, mesmo quando uma adaptação foi feita para tornar o programa neutro para palavras com gênero. Uma das hipóteses para a distorção é que o sistema tenha aprendido com o histórico de contratação da empresa, constituinte do banco de dados. Por terem sido decisões tomadas por humanos, estão ali presentes todos os fatores discriminatórios neste tipo de situação. As fontes de aprendizado do sistema da empresa foram as escolhas feitas por recrutadores em sua maioria homens e brancos.

Os defensores da democratização do conhecimento na área de inteligência artificial e do desenvolvimento de soluções abertas se pautam em questões como essa para levantar sua bandeira. Já que é inegável o potencial transformador desse ramo da tecnologia, que ele se desenvolva sob condições de transparência e auditabilidade.

Várias ferramentas funcionam muitíssimo bem, mas são verdadeiras caixas-pretas, das quais só se conhece o produto, nunca o processo. Estes conjuntos de instruções ganharam um nome em inglês: black box algorithms. Há quem defenda sua importância e quem se empenhe em abri-las. Mas isso é assunto para o próximo post.