Posts in Data Science

O líder e a transformação digital

7 de agosto de 2019 Posted by Data Science, Negócios, Tecnologia 0 thoughts on “O líder e a transformação digital”

Gestores em tecnologia precisam estar antenados e ter visão sistêmica para liderar processo.

O século 21 consolidou a presença da internet e das novas tecnologias no cotidiano, resultando em uma das mudanças mais importantes de todos os tempos. Esses artifícios levaram a sociedade a mudar diversos hábitos e se acostumar a um ritmo completamente novo, o que não afetou somente a vida pessoal dos indivíduos e a forma com que eles se relacionam, mas também as empresas que se consolidaram antes da internet. Enquanto algumas delas se mantiveram resistentes a mudanças e acabaram se tornando obsoletas, como já dissemos aqui, outras empresas optaram pela Transformação Digital, utilizando a tecnologia a seu favor para ganhar mercado.

Resumidamente, a transformação digital é o uso da tecnologia para obter resultados para um negócio. Quando implementada, pode (e deve) ser aplicada em todas as áreas da empresa, trabalhando para integrar desde a cúpula estratégica até a base operacional, facilitando todos os processos. Também não há nenhuma restrição quanto ao tipo de empresa que pode se beneficiar por essa transformação, mesmo que não atue no segmento de tecnologia. Hoje, esse é um caminho sem alternativa equivalente. A transformação é imprescindível.

Normalmente o responsável pela implementação do processo de transformação digital em uma empresa é o CIO (Chief Information Officer), mas a aplicação dessas mudanças não deve se limitar a essa figura. É extremamente importante que haja uma aproximação dos gestores da empresa com o condutor do processo, para que a tecnologia funcione de forma coesa e orgânica no contexto organizacional.

Para que essas mudanças sejam aplicadas de forma eficiente, o CIO deve se manter atento a uma série de fatores, se atualizando constantemente e buscando informações sobre novas tecnologias disponíveis. O CIO também deve assumir a função de estrategista de negócios e se mostrar apto em habilidades analíticas, inteligência de negócios, machine learning e conhecimento em IA. As tecnologias low-code e no-code podem ser muito úteis, pois permitem a programação sem um conhecimento aprofundado em códigos, e é extremamente importante que o gestor entenda sobre as principais plataformas de nuvem do mercado, que devem integrar todo o sistema vigente na empresa.

Ao se aprimorar e buscar conhecer mais do processo de transformação digital, um CIO consegue nortear toda uma mudança estratégica e operacional dentro da empresa. As mudanças, se bem implementadas, podem ser significativas, tanto para o ambiente interno da empresa quanto em relação a experiência final de um cliente com a empresa.

Você acredita na sua moeda?

3 de agosto de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Você acredita na sua moeda?”

Artigo instigante de Ariano Cavalcanti sobre a produção, uso e legitimação da moeda. Se a confiança é o seu grande insumo, o que fazer, quando ela falta? 


Trecho extraído do texto original escrito pelo autor. Leia na íntegra

“A magnitude da transformação proposta pelas criptomoedas ou criptoativos é imensurável. Constituindo um sistema econômico alternativo (peer-to-peer), traz consigo uma proposta de sistema bancário livre e independente do estado, algo absolutamente impensável há poucos anos. Mas não é só isso. Permitindo transações financeiras sem intermediários, mas verificadas por todos usuários (nós) da rede, configura o melhor exemplo de uma estrutura sem uma entidade administradora central, inibindo qualquer autoridade financeira ou governamental de manipular a sua emissão, o seu valor e sobretudo, o de induzir a inflação com a produção de mais dinheiro. Isso não tem precedentes.

Bem, se o cenário atual conduz para um questionamento acerca da legitimidade das autoridades monetárias, acatar a possibilidade de ruptura desse padrão parece no mínimo razoável. No entanto, esse debate não é novo. O assunto já foi amplamente abordado pelo Prêmio Nobel de 1974, Friedrich Hayek, famoso economista austríaco que em seu livro A Desestatização do Dinheiro, já grifava que as vantagens das moedas competitivas (não estatais) não são apenas no sentido de que retirariam das mãos dos governos o poder de inflacionar a oferta monetária, mas também de que muito fariam para impedir as oscilações desestabilizantes que foram, no correr do último século de “ciclos econômicos”, precipitadas pelo monopólio governamental sobre o dinheiro, e também para tornar mais difícil para o governo aumentar excessivamente seus próprios gastos, já que esses aumentos se constituem num dos problemas mais cruciais da nossa era. Para Hayek, o papel-moeda fiduciário e de curso forçado (estatal) é uma criação nefasta do estado, que esse dinheiro fictício é o responsável pelos ciclos econômicos, e que o livre mercado sempre escolheria uma commodity (como o ouro, ou poderia ser uma criptomodeda?) para ser a moeda-base de qualquer economia. Isso soa familiar? Os brasileiros sabem bem disso…

Se o estado não tivesse o poder de emitir dinheiro, como estaria a gestão dos gastos públicos? E como seria a política sem o poder da moeda? E se o padrão de reserva internacional migrasse espontaneamente para uma moeda descentralizada no lugar das estatais? Sobre isso cabe outro pensamento de Hayek: “Fracionar ou descentralizar o poder corresponde, forçosamente, a reduzir a soma absoluta de poder, e o sistema de concorrência é o único capaz de reduzir ao mínimo, pela descentralização, o poder exercido pelo homem sobre o homem.“ — Friedrich August von Hayek

Um bom exemplo para ilustrar essa síntese é a Venezuela. O país é hoje o maior usuário da criptomoeda Dash, alternativa encontrada pela população para se proteger da hiperinflação de mais de 1.000.000% que assola o país. O Dash é amplamente utilizado tanto para pagamentos corriqueiros quanto por meio de ATM’s. e, convergindo com o exposto, um caso bem sucedido de uma moeda competindo com a do estado. Mas se a premissa da moeda estatal é a fidúcia, no caso venezuelano restará a ela apenas a força legal.

Não se pretende aqui, introduzir qualquer apologia contra as moedas e nem tampouco os estados, mas apenas questionar o que nunca ousamos pensar. Dados macroeconômicos estão piscando em alertas que as vezes não queremos enxergar. Talvez nunca tenhamos presenciado elementos e condições tão reais e alinhadas na direção de rupturas estruturais. A reunião de fatores como os legados da crise de 2008, o quantitative easing, o comportamento dos bancos centrais e o avanço das criptomoedas, merecem a nossa atenção sob pena de não nos prepararmos adequadamente para que possa vir.”

Esse sorriso não me engana!

2 de agosto de 2019 Posted by Data Science, Tecnologia 1 thought on “Esse sorriso não me engana!”

Com algoritmo que analisa sorrisos, cientistas avançam na área de reconhecimento facial e inteligência artificial.

O desenvolvimento das técnicas de reconhecimento facial anda de vento em popa, como já tratamos em outros artigos. Os benefícios são vários mas há também uma série de controvérsias – o que não tem sido raro quando analisamos os impactos das novas tecnologias. 

Na academia os pesquisadores buscam expandir os limites desse campo. Na Universidade de Bradford, Grã-Bretanha, cientistas deram um passo adiante: desenvolveram um software capaz de distinguir falsas expressões faciais

A partir dos algoritmos, é possível detectar se um sorriso é genuíno ou forçado. Primeiro o sistema mapeia os traços da face, identificando olhos, boca, bochechas e nariz. Depois ele registra o movimento no decorrer do sorriso e compara com as imagens já armazenadas de sorrisos legítimos e falsos. 

“Um sorriso é talvez a mais comum das expressões faciais e é uma maneira poderosa de sinalizar emoções positivas”, afirmou o coordenador da pesquisa Hassan Ugail, professor de computação visual da Universidade de Bradford. Curiosamente, os movimentos mais significativos característicos dos sorrisos verdadeiros aconteciam ao redor dos olhos, o que vai de encontro à popular afirmação de que um sorriso pode ser visto nos olhos de quem sorri.

Ainda que pareça um experimento simplório e aparentemente sem muitas aplicações práticas, o estudo é promissor e relevante. “Técnicas para analisar expressões faciais humanas avançaram dramaticamente nos últimos anos, mas a distinção entre sorrisos genuínos e posados ​​continua sendo um desafio porque os humanos não são bons em captar as pistas relevantes”, comenta o professor Hassan. 

Com o desenvolvimento dessas possibilidades, o sistema pode auxiliar na interação entre humanos e computadores e colaborar, por exemplo, em processos de identificação biométrica. Para os cientistas sociais e da área clínica, pode também ajudar na obtenção de mais informações sobre emoções e comportamento. 

Aprender e não esquecer: um desafio para o futuro da inteligência artificial

21 de maio de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Aprender e não esquecer: um desafio para o futuro da inteligência artificial”

Sistemas podem esquecer como desempenhar tarefas anteriores ao aprenderem coisas novas. Pesquisadores buscam uma solução.

Não é raro que nós, humanos, fiquemos “enferrujados” no desempenho de alguma atividade que há muito não colocamos em prática. Mas, em geral é como naquela história de andar de bicicleta: esquecer a gente não esquece.

É curioso que as superpotentes máquinas e seus elaborados algoritmos podem sofrer do mesmo mal. Os sistemas de Inteligência Artificial e Deep Learning, sobretudo redes neurais profundas, programadas para tarefas muito específicas, muitas vezes, ao assumirem uma tarefa, se esquecem do que aprenderam antes para cumprir outra função. É o que os estudiosos do ramo chamam de “esquecimento catastrófico”.

Para superar esses limites, pesquisadores da Universidade Estadual da Carolina do Norte, nos EUA, estão desenvolvendo um framework de IA que não apenas aprende novas tarefas como melhora seu desempenho para tarefas já executadas, num processo chamado de backward transfer. Os resultados foram divulgados esta semana. Um robô utilizado em missões de segurança pode aprender a se locomover em um ambiente urbano mas precisa ser capaz de fazê-lo novamente em um lugar que visitou anteriormente, como um bosque, por exemplo. A pesquisa foi financiada pelo Exército dos Estados Unidos.

O framework foi batizado de “Learn to grow” (algo como “aprender a crescer”) e está estruturado como em um sistema no qual cada camada manipula os dados para ajudar o conjunto a desempenhar a tarefa e, para cada decisão a ser tomada, há quatro caminhos possíveis: pular a camada; usá-la da mesma forma que foi usada em tarefas anteriores, modificar levemente a atuação com base em uma ação prévia ou criar uma camada totalmente nova.

Assim, o sistema aprende qual é o melhor caminho, camada a camada, para concluir seu objetivo, sem descartar inputs e insights anteriores.  “O que é mais interessante é que, com a topologia otimizada – ou “aprendida ” – uma rede treinada para executar novas tarefas esquece muito pouco do que é necessário para executar as tarefas mais antigas, mesmo que as tarefas antigas não sejam similares”, comenta Xilai Li, um dos autores do estudo.

Em vários testes, o “Learn to Grow” se saiu melhor que outros sistemas na execução de tarefas antigas e mostrou também aprimoramento nelas. Caiming Xiong, diretor de pesquisa da Salesforce Research e parceiro de Xilai Li, explica: “Isso é chamado de transferência para trás e ocorre quando você descobre que aprender uma nova tarefa o torna melhor em uma tarefa antiga. Nós vemos isso nas pessoas o tempo todo, não tanto na IA.”

Aplicações com foco em deep neural networks e deep learning têm recebido crescente atenção da indústria. Já falamos sobre elas aqui e em outros posts. Ele está na base dos sistemas de reconhecimento facial, por por exemplo, e nos mais novos sistemas de inteligência artificial, como o Alexa. Fique de olho!

Business Intelligence versus Business Analytics: temos que escolher um lado?

7 de maio de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Business Intelligence versus Business Analytics: temos que escolher um lado?”

Entenda as diferenças entre os dois campos. Se é que elas de fato existem.

Tão logo os computadores comerciais foram ficando acessíveis, teve início o uso de ferramentas do que convencionou chamar-se de Business Intelligence (BI). A tecnologia e a crescente capacidade de armazenamento e processamento permitiram o desenvolvimento desse ramo, que reúne uma série de atividades e objetivos envolvendo a manipulação de dados estratégicos de uma organização.

Os gestores de médias e grandes empresas vêm, desde então, tendo como aliadas as ferramentas e técnicas de BI no planejamento e execução de suas atividades. Softwares, dashboards e relatórios dos mais diversos dão subsídio para acompanhar, manter, otimizar e/ou simplificar processos e operações.

Na última década, com o avanço do campo de Big Data, novos horizontes foram sendo abertos e as possibilidades de usar dados para a gestão estratégica aumentaram. É quando passa a ser usado o termo Business Analytics (BA), basicamente uma vertente potencializada do BI.

Enquanto o BI se vale de dados históricos do negócio e indicadores atuais para oferecer seu panorama, a visão de BA reúne esse arsenal e, fazendo uso de estatística, data mining e análises quantitativas para propor previsões e projeções para embasar a tomada de decisões. Em outras palavras, enquanto o BI otimiza o desempenho presente, o BA serve de base para preparar uma organização para o que está por vir.

E parece que não é só a dúvida entre a diferença entre os termos que é um problema para as empresas. Um estudo da Gartner Inc. apontou que 87% das organizações têm níveis baixos de maturidade em BI e BA. Parte delas utilizam-se apenas de ferramentas limitadas de BI, como planilhas e dados coletados pelos profissionais em seu dia a dia. Outro segmento observa iniciativas de coleta e análise de dados em alguns de seus setores ou unidades, mas sem qualquer liderança ou orientação integrada.

Estruturas de TI antiquadas ou muito simples, limitações na colaboração entre os membros da organização, dados esparsos ou pouco claros e até mesmo gargalos gerados pela equipe de TI podem retardar o desenvolvimento em matéria de Business Intelligence e Analytics.

Junto dos indicadores, a Gartner aponta quatro etapas a serem seguidas para desenvolver as capacidades e potencializar o impacto nos negócios:

  • Desenvolver dados de forma holística e traçar estratégias de forma clara e integrada, reunindo as visões dos gestores de TI, negócios e outras;
  • Criar uma estrutura organizacional flexível, explorar os recursos de análise e implementar treinamento contínuo para os responsáveis por essa função;
  • Implementar um programa sólido de governança de dados;
  • Criar plataformas integradas de análise que suportem amplas possibilidades de uso.

A implementação da cultura de BI e BA pode não ser fácil ou não acontecer da noite pro dia, mas, pelo visto, um lugar de destaque no mercado cada vez mais competitivo está reservado para quem emprega esforços e recursos nisso. A transformação digital já não é mais um caminho possível. É uma via obrigatória.

Caixinhas de segredos: as máquinas que não conseguimos decifrar

26 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Caixinhas de segredos: as máquinas que não conseguimos decifrar”

Uso de “algoritmos caixa-preta” levantam controvérsia. Devemos usar máquinas que “pensam” sem que saibamos exatamente como?

A ameaça dos computadores insurgentes que renderam à literatura e ao cinema ótimas histórias, todas envolvendo a humanidade posta em risco pela rebeldia de suas criações, não é realidade. Pelo menos ainda.

Mas outra questão envolvendo a Inteligência Artificial (IA) tem provocado um grande dilema: muitos dos sistemas de machine learning, modalidade que abrange as máquinas capazes de aprender, são verdadeiras caixas-pretas. Falamos disso em outro artigo.

Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões.

As convolutional neural networks (redes neurais convolucionais) são um exemplo. Com seus neurônios artificiais conectados de forma a tentar mimetizar a estrutura de um cérebro humano, é difícil acompanhar e “enxergar” o que se dá nelas. Rápidas e complexas, elas complicam a vida de quem quer quer compreendê-las. Resta aos curiosos analisar seus resultados e, por inferência, supor o processo. Daí o motivo de muitos especialistas se posicionarem como contrários ao uso de algoritmos caixa-preta, ou ao menos preocupados com algumas das consequências de seu uso.

Elizabeth Holm, professora de ciência e engenharia de materiais na Universidade Carnegie Mellon, posiciona-se favoravelmente ao uso desses recursos. Primeiramente ela ressalta que, tal qual nesses sistemas, alguns processos do pensamento humano também são insondáveis. Não raro confiamos em resultados de pensamentos que não podemos descrever ou explicar, por exemplo, e que nem por isso são necessariamente ruins ou prejudiciais. Para ela, o que vale para os humanos, nesse caso, deve valer também para a máquina.

Seus argumentos seguem em torno de três regras, estabelecidas por ela. A primeira, a mais simples, determina que se o custo de uma decisão ruim é pequeno e, por sua vez, o valor de uma decisão acertada é alto, vale a pena usar.

No segundo caso, mesmo com custos altos, vale a pena usar essas caixas-pretas quando é a melhor opção para fazer determinado trabalho. Um exemplo são os algoritmos utilizados em carros autônomos, que certamente serão condutores melhores que os humanos, mas que ainda assim, se houver falha em seus processos, podem causar graves acidentes.

A terceira situação em que se justifica o uso dos black box algorithms é quando a máquina é capaz de fazer algo de maneira diferente que os humanos, ou mesmo coisas das quais não somos capazes. Aí a decisão se aproxima da opção entre fazer ou não fazer algo, entre avançar ou não em algum aspecto.

Para Andrew McAfee, especialista em machine learning e automação, impor barreiras regulatórias para o uso de caixas-pretas na IA e exigir altos níveis de interpretabilidade nos sistemas poderia retardar o progresso da tecnologia.

Há, porém, muitos outros que defendem que esse progresso não pode vir a qualquer custo. Se não é possível entender exatamente como o sistemas caixa-preta funcionam e quais parâmetros utilizam, fica mais fácil duvidar deles ou perder a confiança neles.

A IBM, gigante no setor tecnológico, respondeu a essa corrente disponibilizando na nuvem, um serviço que torna visíveis os parâmetros de IA dos sistemas da empresa e permite a detecção de vieses durante seu funcionamento. Dados de um relatório elaborado pelo Institute for Business Value, vinculado à corporação, mostraram que 82% das empresas observadas consideram implementar IA em seus processos, mas delas 60% ainda têm receio quanto a questões de responsabilidade e compliance e 63% não dispõem de recursos humanos e/ou tecnológicos adequados para incorporar a tecnologia de forma confiável.

A ideia é que a ferramenta seja aplicável também a outros modelos, ambientes e sistemas tais como Tensorflow, Watson, AWS SageMaker, AzureMA e SparkML e seja personalizável para sistemas internos das organizações. Ela permite a entrada de dados para complementar ao modelo para diminuir a tendência de viés e mostra o caminho da tomada de decisões enquanto em execução.

Além disso, já inclui parâmetros que atendem a padrões de conformidade e regulação, como é o caso do GDPR (Regulamento Geral sobre a Proteção de Dados, implementado pela União Europeia). A companhia também vai disponibilizar ferramentas open source e materiais que fomentem a colaboração da comunidade tecnológica em torno do assunto.

É fato que a evolução não pára e a IA veio para ficar de vez, e provavelmente questões como essa, de ordem prática e ética, se sucederão. A controvérsia dos algoritmos caixa-preta é uma das bolas da vez.

Herdeiras da imperfeição: as máquinas que erram como os humanos

24 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Herdeiras da imperfeição: as máquinas que erram como os humanos”

Sistemas de machine learning carregam e reproduzem visões de mundo dos humanos – nem sempre positivas.

Por décadas algumas das principais missões da ciência da computação giravam em torno de desenvolver algoritmos eficientes, além de códigos e equipamentos que funcionassem cada vez mais rápidos. Hoje, contudo, os holofotes se direcionam para os dados e a inteligência artificial para apontar as principais tendências tecnológicas que vão nos levar ao futuro – que, aliás, já vai se concretizando.

Grandes volumes de dados servem de subsídio para o funcionamento de sistemas de inteligência artificial, sobretudo os da vertente de machine learning e suas variáveis. As máquinas dotadas da capacidade de aprender o fazem a partir do aporte de informações recolhidas previamente, das quais sairão os parâmetros para suas predições, ações e reações.

Mas isso enseja uma das questões éticas da inteligência artificial: por mais “independentes” que possam ser, esses dispositivos são programados e alimentados por humanos e seus dados, podendo carregar, então, muitos de seus vieses pessoais, visões de mundo e distorções.

Até mesmo a discriminação de raça ou gênero pode ser replicada por algoritmos. Um notório estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens fotografados na cozinha. Afetadas pela tendência observada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos.

Em outro exemplo, a Amazon teve de abandonar uma ferramenta de recrutamento que tendia a eliminar mulheres do processo de seleção, mesmo quando uma adaptação foi feita para tornar o programa neutro para palavras com gênero. Uma das hipóteses para a distorção é que o sistema tenha aprendido com o histórico de contratação da empresa, constituinte do banco de dados. Por terem sido decisões tomadas por humanos, estão ali presentes todos os fatores discriminatórios neste tipo de situação. As fontes de aprendizado do sistema da empresa foram as escolhas feitas por recrutadores em sua maioria homens e brancos.

Os defensores da democratização do conhecimento na área de inteligência artificial e do desenvolvimento de soluções abertas se pautam em questões como essa para levantar sua bandeira. Já que é inegável o potencial transformador desse ramo da tecnologia, que ele se desenvolva sob condições de transparência e auditabilidade.

Várias ferramentas funcionam muitíssimo bem, mas são verdadeiras caixas-pretas, das quais só se conhece o produto, nunca o processo. Estes conjuntos de instruções ganharam um nome em inglês: black box algorithms. Há quem defenda sua importância e quem se empenhe em abri-las. Mas isso é assunto para o próximo post.

Pequenos guardas de trânsito para grandes tráfegos de dados

16 de abril de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Pequenos guardas de trânsito para grandes tráfegos de dados”

Cientistas de Berkeley desenvolvem estrutura que pode revolucionar supercomputadores e data centers.

O fluxo de dados gerados e processados a cada segundo pelo uso praticamente onipresente da tecnologia nos dias de hoje não para. Aliás, só cresce, e com eles os desafios inerentes a essa demanda. Torna-se um imperativo, então, buscar as soluções para viabilizar que os sistemas funcionem a contento.

Verdadeiros exércitos de pesquisadores se empenham em desenvolver aprimoramentos e inovações, como é o caso da ainda incipiente internet quântica, da qual já falamos aqui. Em outra frente, cientistas de Berkeley, na Califórnia, estão trabalhando em uma solução que pode revolucionar o tráfego de dados nos data centers e computadores de alta performance.

Trata-se de um “interruptor fotônico”, dispositivo que controla a direção da luz no interior das fibras ópticas, atuando como um guarda de trânsito, organizando o tráfego. Ele é formado por mais de 50 mil estruturas que redirecionam um dos 240 feixes microscópicos de luz que transitam nas fibras, fazendo com que façam uma curva de 90 graus ou sigam em linha reta, conforme esteja ligado ou desligado o interruptor, gravado sobre uma pastilha de silício e cobre pouco maior que um selo postal.

Segundo o coordenador do projeto, Ming Wu, professor de engenharia elétrica e ciências da computação em Berkeley, os “switches” são 10 mil vezes mais rápidos do que os atuais, e podem, por isso, mudar as redes de dados e os sistemas de inteligência artificial que conhecemos hoje. Os interruptores utilizados atualmente são formados por sistemas de espelhos e lentes que precisam ser girados fisicamente para redirecionar os feixes, o que leva muito tempo: um décimo de segundo. As estruturas que estão sendo desenvolvidas fazem isso em uma fração de microssegundo.

O trabalho conduzido pelo professor Wu surge como alternativa para a conexão de redes de servidores, hoje feita com a utilização de interruptores elétricos. Esses dispositivos geram muito calor e, dentro de alguns anos, podem não dar mais conta do recado. Além disso, superam os comutadores fotônicos usados atualmente em versatilidade e eficiência, pois acomodam mais conexões e não se afetam por perda de sinal.

Ao que tudo indica não deve demorar muito para que os pequenos agentes de tráfego de dados do professor Wu estejam ao nosso serviço – mesmo que não vejamos o intenso e rápido fluxos que eles estão gerenciando.

Respostas rápidas e pensamentos profundos: o futuro do Machine Learning

5 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Respostas rápidas e pensamentos profundos: o futuro do Machine Learning”

Aprendizagem de máquina sobreviveu ao quase esquecimento para voltar ao foco das empresas e cientistas.

Avanços tecnológicos surpreendentes, robôs, algoritmos complexos, computadores cada vez mais potentes e rápidos: bem-vindos à espantosa década de 1960. O mundo vivia suas revoluções e a inteligência artificial era um trending topic, com quadrinhos, seriados, filmes e livros investindo no tema. Por pouco tempo. A decepção com a falta de resultados concretos levou o assunto ao descrédito e ao esquecimento por um longo período. Foi necessário um duelo épico, mais de 30 anos depois, para as atenções se voltarem novamente para as máquinas pensantes.

Em fevereiro de 1996, o então campeão mundial de xadrez Garry Kasparov enfrentou Deep Blue, o supercomputador desenvolvido pela IBM, com 256 coprocessadores e um banco de dados com mais de 700 mil partidas de mestres do jogo. Kasparov perdeu a primeira rodada, recuperando-se ao longo das seguintes e vencendo ao final por 4 x 2. Confira os lances aqui. O evento atraiu atenção mundial e despertou o público para a possibilidade de computadores realmente estarem ganhando novos poderes.

Um ano depois, os dois voltaram-se a se enfrentar para uma revanche. Deep Blue recebera uma atualização completa, mas foi um erro de programação o responsável por seu desempenho surpreendente. Na primeira partida, o hoje famoso “lance 44” do Deep Blue desconcertou o enxadrista russo, que, mesmo vencendo a rodada, perdeu ou empatou todas as seguintes. Documentário de 2014 afirma que um bug no programa levou o computador a tomar uma decisão ilógica.

Deep Blue era um legítimo sistema Machine Learning, capaz de tomar suas decisões e predizer os movimentos do adversário por meio de algoritmos de análise de dados. À época do duelo, os termos Inteligência Artificial e Machine Learning já haviam se tornado distintos. Pesquisadores de Inteligência Artificial focaram abordagens mais lógicas e menos dependentes de algoritmos, enquanto o investimento nas redes neurais, teoria das probabilidades e métodos estatísticos definiu o caminho do Machine Learning.

No início dos anos 2000, com a disseminação da internet, o mundo da Tecnologia da Informação percebe o valor dos sistemas focados na análise de dados e o Machine Learning inicia sua ascensão. Afinal, os dados tornam-se abundantes e é evidente a relação entre a quantidade dessas informações e a capacidade dos sistemas em aprender com elas. Mais dados, melhores resultados.

Um breakthrough definidor, neste período, foi a publicação do artigo “A fast learning algorithm for deep beliefs nets”, em 2006. O algoritmo proposto pelos autores resolvia um dos maiores desafios das redes neurais e, a partir dele, com algumas poucas contribuições, surgiu o que hoje denominamos Deep Learning e as respectivas Deep Neural Networks (DNN).

A empresa de identificação de tendências Gartner aponta que o termo Inteligência Artificial está superexposto, abrangendo uma série de inovações em diferentes estágios de desenvolvimento e com opiniões divergentes. Entretanto, em seu mais recente relatório sobre Machine Learning, faz um alerta específico aos investidores sobre a importância da DNN e suas tecnologias associadas, como ensemble learning e análise preditiva e prescritiva. A questão, apontam seus especialistas, não é o que ela é capaz de fazer e sim qual problema pode ser por ela solucionado.

Atualmente, os sistemas de Machine Learning estão presentes em tecnologias chave para o futuro, como os aparelhos Google Home e Amazon Echo. Pelo crescente investimento, é possível afirmar que esta breve história contada até aqui deve continuar pelas próximas décadas.

Poesia, espiões e duelos épicos: origens do Machine Learning

3 de abril de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Poesia, espiões e duelos épicos: origens do Machine Learning”

Saiba mais sobre o surgimento e o desenvolvimento das máquinas que aprenderam a aprender.

Machine learning é um ramo da Inteligência Artificial com foco em sistemas capazes de aprender e evoluir de forma automática. Estes programas acessam e usam os dados disponíveis para descobrir padrões e tomar decisões sem intervenção humana. Gostamos de falar sobre o tema, como aqui e ali, mas embora seja um hot topic não podemos dizer que é novidade. Sua história já tem mais de um século e é repleta de drama, aventura, poesia e perseguições em laboratórios secretos.

Na matemática, sagrada musa de todos os programadores, o machine learning sustenta-se em fundamentos de desbravadores do século 19, entre eles o matemático russo Andrei Andreyevich Markov. Amante da poesia, aplicou fórmulas de probabilidade em poemas e, quando a Rússia fervilhava em revoluções, apresentou os conceitos do que viria a ser conhecido como Markov Chains. É uma técnica de análise em que, em uma sequência de variáveis randômicas, uma variável futura é determinada pela variável presente, sem necessidade de conhecimento do estado anterior. Ou, de forma mais simples, permite previsões do futuro baseadas apenas nos dados atuais, independentemente do que aconteceu no passado. É usada rotineiramente em sistemas atuais de machine learning. Está na base do Google.

O trabalho de Markov, assim como o de estatísticos e matemáticos como Thomas Bayes, Laplace e Legendre, todos ainda no século 19, formaram as bases para a programação. Bastava, apenas, é claro, o surgimento do computador. Para a história do machine learning, especificamente computadores capazes de armazenar programas (ou instruções) em sua memória, o que ocorre no final da década de 1940. São eles o Manchester Small-Scale Experimental Machine (1948), o Cambridge EDSAC e Manchester Mark 1 (1949) e o EDVAC da Universidade da Pennsylvania (1951).

É deste período uma das publicações mais instigantes de Alan Turing, um dos mais famosos e influentes pioneiros da computação e da Inteligência Artificial. Sua vida é um drama, e fica aqui nossa dica de filme: The imitation game. Um enredo com nazistas, espiões, laboratórios secretos e muita matemática, sem final feliz.

À mesma época, Marvin Minsky e Dean Edmonds construíram a primeira simulação, em computador, da capacidade de aprendizagem humana. O Stochastic Neural Analog Reinforcement Computer (SNARC), de 1951, feito de válvulas, tubos e uma memória mínima, procurava reproduzir as tentativas de um rato para encontrar a saída de um labirinto. E com sucesso. Minsky se tornaria um dos mais importantes pesquisadores do tema inteligência artificial ao longo das décadas seguintes.

É da década de 60 a descoberta do processamento multicamadas, que abriu um novo ramo na pesquisa por redes neurais, levando à backpropagation. Desenvolvido nos anos 1970, o algoritmo permitia às redes neurais adaptarem-se a novas situações, por meio análise de erros e reprogramação. É hoje usada nas deep neural networks, um dos mais avançados sistemas de machine learning.

A virada dos 1960 para os 1970 é marcada por estes avanços e a popularização do tema na cultura pop, em filmes como 2001: Uma odisseia no espaço, de Stanley Kubrick (assessorado por Minsky), com sua inteligência artificial psicopata HAL 9000.

Entretanto, longe das telas, era lento o desenvolvimento das ferramentas de análise de dados baseadas em inteligência artificial. Os anos sem o surgimento de descobertas ou invenções de impacto reduziram as expectativas de todos e foi somente na década de 1980, com um épico duelo transmitido mundialmente, que o mundo voltou a se ocupar do tema. Contaremos esta história no próximo post.

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn