Posts tagged "Machine Learning"

2019 chega ao fim e Data Science segue em alta

12/12/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “2019 chega ao fim e Data Science segue em alta”

Dados, Inteligência Artificial e Machine Learning dominaram o ano.

A última década marcou avanços extraordinários na tecnologia, abrindo caminhos para um novo ciclo que promete ser ainda mais disruptivo. Às portas dos anos 2020, a Ciência de Dados, a Inteligência Artificial (IA) e outros segmentos afins consolidaram sua posição de destaque e seguirão na pauta.

O relatório anual “Data Science and Machine Learning Market Study”, da Dresner Advisory Services, trouxe uma série de insights e informações sobre esse contexto. A começar pelo fato de que iniciativas relacionadas a Data Science e Machine Learning (ML), tais como análises preditivas, algoritmos avançados e mineração de dados, apareceram no oitavo lugar entre 37 tecnologias e práticas consideradas como prioritárias por empresas que adotaram IA e ML em 2019.

Os departamentos de marketing e vendas são os que demonstraram valorizar mais a ciência de dados como instrumento para ajudar a alcançar suas metas e resultados. Quatro em cada dez equipes afirmaram que os dados são essenciais para o sucesso de seus setores. Na sequência, apareceram os segmentos de Business Intelligence Competency Centers (BICC), Pesquisa e Desenvolvimento (P&D) e Gerência de Público.

O alto nível de interesse compartilhado por esses departamentos reflete esforços para definir novos modelos de receitas e melhorar a experiência dos usuários usando dados,  IA e ML. Um terço das empresas entrevistadas adotou alguma ferramenta do tipo, a maioria delas utilizando até 25 modelos diversos.

Entre os setores que mais acreditam no potencial de dados, ML e IA para seu sucesso no mercado estão os serviços financeiros e de seguros, assistência médica, atacado e varejo.

Outro dado interessante e que mostra o poder dessas tecnologias no mundo corporativo atual apontou que 70% dos departamentos de P&D têm maior probabilidade de adotar Data Science, ML e AI. Para o time da Dresner, isso é um indicativo de que o desenvolvimento dessas ferramentas deve aumentar ainda mais nos próximos anos.

Além do mais, 2019 foi o ano recorde em matéria de interesse das empresas nesse tipo de recurso. O levantamento, que começou a ser feito em 2014, vem mostrando ano após ano o crescimento desse interesse. “Desde então, expandimos nossa cobertura para refletir mudanças de opinião e adoção e adicionamos novos critérios, incluindo uma seção que abrange redes neurais”, comenta Howard Dresner, fundador e diretor de pesquisa da Dresner.

Desvendando os mistérios do passado com a ajuda da Inteligência Artificial

09/10/2019 Posted by Tecnologia, Tendências 0 thoughts on “Desvendando os mistérios do passado com a ajuda da Inteligência Artificial”

Ferramentas de machine learning são as novas aliadas dos arqueólogos.

Herculano e Pompéia eram prósperas cidades romanas, na Baía de Nápoles. Ao meio dia de 24 de agosto de 79 d.C foram atingidas pela erupção do Vesúvio, e soterradas por lama, lava e cinzas. Redescobertas no início do século passado, as duas são verdadeiras cápsulas do tempo, oferecendo aos pesquisadores um retrato da vida e costumes da Roma antiga. Um de seus tesouros mais preciosos, entretanto, permanece inacessível. São dois rolos de pergaminho (foto) resgatados nas escavações de Herculano, íntegros, mas carbonizados. Com o uso de técnicas de machine learning, pesquisadores da Universidade do Kentucky trabalham para revelar os segredos destes textos, escritos há mais de dois mil anos. É um dos exemplos de como ferramentas de última geração são usadas na exploração do passado. Cientistas afirmam que a Inteligência Artificial e a Big Data podem revolucionar a arqueologia.

A iniciativa para restauração digital dos documentos de Herculano utiliza o synchotron, um equipamento que acelera elétrons a uma velocidade próxima à da luz, emitindo um brilho maior que o sol, e com elevada capacidade de foco. Os cientistas utilizam então a luz para registrar cada uma das frágeis camadas do pergaminho. As imagens da “tinta de herculano” são de difícil compreensão e os pesquisadores propuseram, em um artigo deste ano, usar uma única página do pergaminho como base para treinar um programa de machine learning a identificar os padrões e, assim, permitir a “tradução” de todo o texto. E o que eles esperam encontrar? Mesmo uma simples lista de compras nos ajuda a compreender melhor a história da época, mas as expectativas são altas e não faltam apostas em textos originais de filosofia ou mesmo sobre os primeiros anos do Cristianismo.

Outros usos estão em estudo ou com resultados já apresentados. Um dos mais conhecidos foi a localização de um antigo assentamento viking no Canadá, via leitura de imagens por satélite. A descoberta muda a maneira como conhecemos a ocupação da América pelos europeus. As mesmas técnicas, baseadas na já reconhecida capacidade leitura de imagens por ferramentas de Inteligência Artificial, está em uso na busca de ocupações desaparecidas há milênios tanto nas selvas mexicanas como nos vales da mesopotâmia e Egito. Ou no reconhecimento das primeiras civilizações a ocupar a Índia, na Era do Bronze.

O arqueólogo Iris Kramer, da Universidade de Southampton, na Inglaterra, destaca algumas de suas vantagens: “Os algoritmos baseados em deep learning permitem aos arqueólogos investir mais tempo na identificação das peças do que simplesmente verificando se determinada imagem é de uma peça histórica ou não”.

Data Science salva vidas!

20/09/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Data Science salva vidas!”

A medicina está usando Inteligência Artificial e Machine Learning para aprimorar seus serviços.

A Inteligência Artificial e o Machine Learning possuem grande potencial transformador nos serviços de saúde. Os fabricantes de dispositivos médicos estão aproveitando a quantidade imensa de dados que são gerados todos os dias na área para desenvolver tecnologias e inovar seus produtos. Avanços na detecção precoce de doenças, diagnósticos mais precisos, identificação de novas observações ou padrões na fisiologia humana e desenvolvimento de diagnósticos personalizados estão no radar.

Os softwares destinados para fins médicos são os grandes alvos da IA e do Machine Learning. O Fórum Internacional de Reguladores de Dispositivos Médicos (IMDRF) define Software como Dispositivo Médico (SaDM) como todo aquele que executa finalidades médicas sem fazer parte de um hardware. A área já recebeu diversos avanços, mas os SaDM ainda podem se aprimorar conforme se evoluem as tecnologias de IA e ML, melhorando diretamente os cuidados de saúde dos pacientes.

Podemos citar alguns exemplos de SaDM baseadas em IA/ML, como o Software de Unidade de Terapia Intensiva, o Aplicativo Médico de Lesão de Pele e o Software de identificação de desvio de Tubos de Alimentação em Raios X. A seguir, vamos falar um pouco sobre eles.

O Software de Unidade de Terapia Intensiva com aplicação de IA/ML recebe eletrocardiograma, sangue, sinais de pressão e oximetria do pulso do paciente. Os sinais fisiológicos são processados e analisados para detectar padrões que ocorrem no início da instabilidade fisiológica. Se detectada, um sinal é gerado para indicação clínica imediata. Esse aplicativo conduz o gerenciamento clínico em uma situação crítica de saúde.

O Aplicativo Médico de Lesão de Pele com aplicação de IA/ML usa imagens tiradas pela câmera do smartphone do paciente para fornecer informações a um dermatologista sobre as características físicas de uma lesão cutânea. Isso permite que o médico rotule a lesão como benigna ou maligna. O aplicativo impulsionará o gerenciamento clínico em situações sérias de saúde.

O Software de identificação de desvio de Tubos de Alimentação em Raios X com aplicação de IA/ML analisa radiografias de tórax de pacientes internados após a colocação de um tubo de alimentação. Isso permite que o programa avalie quaisquer colocações incorretas e realize uma espécie de triagem, conduzindo o gerenciamento clínico em situações graves.

Esses são só alguns exemplos citados pela U.S. Food and Drug Administration (FDA), em um relatório que busca trazer uma discussão sobre a regulamentação e eventuais modificações a serem feitas em alguns destes softwares, no intuito de aumentar a precisão e melhorar a tecnologia atrelada ao sistema de saúde.

A Data Science está com um leque de aplicações cada vez mais amplo, e sua implementação pode ser extremamente benéfica, mudando drasticamente certos hábitos e costumes, além de melhorar a qualidade de vida, prospecção de negócios e impactando substancialmente áreas como a saúde. Quando bem explorada, ela pode fazer diferença e até salvar a vida de milhões de pessoas.

Algoritmos contra o preconceito

12/07/2019 Posted by Pessoas, Tendências 2 thoughts on “Algoritmos contra o preconceito”

Universidade desenvolve ferramenta para reduzir risco de resultados discriminatórios em sistemas de Inteligência Artificial.

 

Um dos maiores temores em relação à disseminação da Inteligência Artificial é a limitação de acesso ao processo de aprendizagem – cada vez mais complexo, como nos cérebros humanos – e consequente incerteza em relação aos resultados. Com algoritmos exponencialmente sofisticados, como os usados nas máquinas de deep learning e suas redes neurais, é muitas vezes impossível acompanhar o “raciocínio” seguido até determinada solução. Um desafio ainda maior devido à acelerada adoção de sistemas de machine learning nas áreas de segurança, educação, finanças e negócios, entre outras. Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões. São os sistemas black box, que já falamos aqui.

As máquinas com capacidade de aprender o fazem a partir de informações recolhidas previamente, das quais sairão os parâmetros para predições, ações e reações. Mas, por mais “independentes”, esses dispositivos são programados e alimentados por humanos e seus dados. Eles carregam vieses pessoais, visões de mundo e distorções. Como resultado, o risco de sistemas preconceituosos ou discriminatórios.

Um famoso estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens na cozinha. Afetadas pela tendência registrada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos. Situações semelhantes já foram encontradas em programas para identificar suspeitos, por meio de reconhecimento facial, e outros.

Pesquisadores da Penn State e Columbia University acabam de apresentar uma ferramenta com o objetivo de identificar discriminação indesejável nos sistemas de inteligência artificial.

“Sistemas como este são treinados por uma imensa quantidade de dados, mas se os dados são enviesados, eles afetarão o resultado”

Vasant Honavar, professor da Penn State, cita como exemplo um algoritmo destinado a identificar os melhores candidatos para uma vaga de emprego, baseado em determinadas habilidades. Mas como os dados trazem uma série histórica em que mais homens foram empregados, no passado, o sistema tem a tendência de também privilegiar os homens em detrimento das mulheres. “Não há nada de errado com os algoritmos, eles fazem o que devem fazer, mas os dados usados aumentam o potencial para recomendações injustas. Se nenhuma mulher foi contratada no passado para determinada posição, é provável que o sistema não recomende mulheres para uma nova vaga no futuro”, completa o professor.

A menos que modificações sejam introduzidas nos algoritmos, como as desenvolvidas pela universidade. Os cientistas testaram o novo método usando diversos tipos de dados disponíveis, como a renda e demografia do censo norte-americano. A ferramenta de inteligência artificial foi capaz de detectar o risco de discriminação atribuído a determinados atributos, como gênero e raça.

Universidade high-tech

24/05/2019 Posted by Tecnologia, Tendências 0 thoughts on “Universidade high-tech”

Conheça algumas tendências de impacto da tecnologia na educação superior.

As universidades são importantes espaços para o avanço científico, desde o período medieval. Compartilhada por estudantes, professores e pesquisadores, os campi tornaram-se não apenas local de inovação, mas também objetos de estudo e aplicação de novas tecnologias. Muitas com grande potencial de impacto no ensino superior, fazendo com que a academia se beneficie de algo que ajudou a desenvolver, conforme aponta o Gartner Inc.. O estudo apresenta uma série de inovações e sua incorporação vale como diferencial competitivo para instituições privadas e para a excelência de centros públicos. Não por acaso, as edtechs estão em ascensão, com o chegada ao mercado de novas empresas e soluções em educação.

Conheça quatro inovações das universidades high-techs:

• Plataformas híbridas de integração são um exemplo já em uso e em franco desenvolvimento. Esses sistemas mesclam ferramentas na nuvem e armazenadas localmente para a gestão do relacionamento com os alunos e de seu aprendizado. A partir dessas plataformas e dos dados que coletam e armazenam – uma espécie de CRM da vida acadêmica – é possível traçar uma visão em 360 graus da universidade e do aluno, constituindo um rico panorama desse contexto.

Torna-se possível, também, colocar em jogo práticas de análise preditiva, que reconhece nos dados históricos padrões e resultados prováveis, utilizando-se de ferramentas de estatística ou machine learning. A ideia é estimar a demanda por determinado curso, mensurar materiais e insumos necessários para as atividades acadêmicas, antever tendências de reprovação, trancamento de matrícula, evasão, entre outros.

A chamada Nudge Tech é outra aliada. Tecnologias de nuvem, móveis, sociais e de dados são utilizadas para criar interação personalizada e rápida com os alunos, professores e outros colaboradores. Nudge pode ser traduzido por “cutucar”, e indica a intenção por trás do uso desse conjunto de tecnologias para impactar o comportamento do usuário, como por exemplo ajudar no controle de momentos de estudo e lazer, promover comunicação em tempo real, encaminhar lembretes, etc.

Frentes mais incipientes, mas bastante promissoras, envolvem a Internet das Coisas (IoT) no desenvolvimento de um conceito de Campus Inteligente, quer seja físico ou digital, no qual os membros da comunidade acadêmica têm experiências imersivas e automatizadas, potencializando o aprendizado. Realidade virtual, realidade aumentada e soluções robóticas aparecem como aliados.

Todo esse contexto envolvendo sistemas, algoritmos e dados levanta, como não poderia de ser, questões relacionadas à segurança e ao gerenciamento de risco. Junto dos avanços que estão sendo ou prometem ser implementados nas instituições superiores, é preciso atentar para a conformidade com os padrões regulatórios em vigor e garantir a privacidade e confiabilidade aos envolvidos.

Inteligência artificial cura até coração partido

30/04/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Inteligência artificial cura até coração partido”

Bioengenheiros desenvolvem cateter que navega pelo sistema cardiovascular com o uso de inteligência artificial.

Se lembra dos carros autônomos, dos quais falamos neste artigo? Pois bem. Um sistema baseado em princípios semelhantes envolvendo inteligência artificial e reconhecimento de imagens está em desenvolvimento por bioengenheiros do Hospital Infantil de Boston, com a promessa de encontrar e ajudar a sanar problemas cardíacos. A primeira demonstração foi bem sucedida e relatada na Science Robotics.

O grupo de pesquisadores, liderado por Pierre Dupont, criou um cateter cuja missão era encontrar vazamentos em válvulas do coração. Há mais de uma década já há pequenos robôs guiados por controle remoto para esse fim e catéteres dirigidos com o uso de magnetismo, mas em ambos os casos a condução exige muita perícia e esforço dos médicos. Incluir inteligência artificial no dispositivo tem como objetivo desobrigar os profissionais dessa função para que possam se dedicar apenas à solução do problema.

O sistema de inteligência artificial que conduz o cateter é alimentado previamente com informações dos exames pré-operatórios. A partir disso, por meio de sensores, ele avalia o ambiente em seu redor em intervalos regulares, decidindo qual o próximo passo a dar, tal como fazem os insetos com suas antenas ou roedores com seus bigodes. Uma câmera na ponta do aparelho completa seus “sentidos”, permitindo usar a identificação de imagens para compor a avaliação da ação.

No teste, realizado em válvulas artificiais imitando tecidos humanos, o cateter foi capaz de percorrer o coração desde sua base, passando pela parede do ventrículo e percorrendo a válvula danificada até encontrar o vazamento milimétrico. O tempo médio gasto pelo aparelho para localizar o vazamento foi praticamente igual àquele registrado por humanos.

Além de automatizar um processo até então essencialmente humano, essa descoberta pode eliminar a necessidade de exames fluoroscópicos, comumente utilizados em procedimentos como esse e que expõem os pacientes à radiação e efeitos colaterais.

Para Dupont, chefe de cardiologia pediátrica do hospital, esse foi o primeiro registro de algo equivalente a um carro autônomo utilizado no campo da saúde, transitando no sistema circulatório humano. Esperamos de coração que a técnica seja aprimorada e em breve esteja a serviço de muitas pessoas.

Caixinhas de segredos: as máquinas que não conseguimos decifrar

26/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Caixinhas de segredos: as máquinas que não conseguimos decifrar”

Uso de “algoritmos caixa-preta” levantam controvérsia. Devemos usar máquinas que “pensam” sem que saibamos exatamente como?

A ameaça dos computadores insurgentes que renderam à literatura e ao cinema ótimas histórias, todas envolvendo a humanidade posta em risco pela rebeldia de suas criações, não é realidade. Pelo menos ainda.

Mas outra questão envolvendo a Inteligência Artificial (IA) tem provocado um grande dilema: muitos dos sistemas de machine learning, modalidade que abrange as máquinas capazes de aprender, são verdadeiras caixas-pretas. Falamos disso em outro artigo.

Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões.

As convolutional neural networks (redes neurais convolucionais) são um exemplo. Com seus neurônios artificiais conectados de forma a tentar mimetizar a estrutura de um cérebro humano, é difícil acompanhar e “enxergar” o que se dá nelas. Rápidas e complexas, elas complicam a vida de quem quer quer compreendê-las. Resta aos curiosos analisar seus resultados e, por inferência, supor o processo. Daí o motivo de muitos especialistas se posicionarem como contrários ao uso de algoritmos caixa-preta, ou ao menos preocupados com algumas das consequências de seu uso.

Elizabeth Holm, professora de ciência e engenharia de materiais na Universidade Carnegie Mellon, posiciona-se favoravelmente ao uso desses recursos. Primeiramente ela ressalta que, tal qual nesses sistemas, alguns processos do pensamento humano também são insondáveis. Não raro confiamos em resultados de pensamentos que não podemos descrever ou explicar, por exemplo, e que nem por isso são necessariamente ruins ou prejudiciais. Para ela, o que vale para os humanos, nesse caso, deve valer também para a máquina.

Seus argumentos seguem em torno de três regras, estabelecidas por ela. A primeira, a mais simples, determina que se o custo de uma decisão ruim é pequeno e, por sua vez, o valor de uma decisão acertada é alto, vale a pena usar.

No segundo caso, mesmo com custos altos, vale a pena usar essas caixas-pretas quando é a melhor opção para fazer determinado trabalho. Um exemplo são os algoritmos utilizados em carros autônomos, que certamente serão condutores melhores que os humanos, mas que ainda assim, se houver falha em seus processos, podem causar graves acidentes.

A terceira situação em que se justifica o uso dos black box algorithms é quando a máquina é capaz de fazer algo de maneira diferente que os humanos, ou mesmo coisas das quais não somos capazes. Aí a decisão se aproxima da opção entre fazer ou não fazer algo, entre avançar ou não em algum aspecto.

Para Andrew McAfee, especialista em machine learning e automação, impor barreiras regulatórias para o uso de caixas-pretas na IA e exigir altos níveis de interpretabilidade nos sistemas poderia retardar o progresso da tecnologia.

Há, porém, muitos outros que defendem que esse progresso não pode vir a qualquer custo. Se não é possível entender exatamente como o sistemas caixa-preta funcionam e quais parâmetros utilizam, fica mais fácil duvidar deles ou perder a confiança neles.

A IBM, gigante no setor tecnológico, respondeu a essa corrente disponibilizando na nuvem, um serviço que torna visíveis os parâmetros de IA dos sistemas da empresa e permite a detecção de vieses durante seu funcionamento. Dados de um relatório elaborado pelo Institute for Business Value, vinculado à corporação, mostraram que 82% das empresas observadas consideram implementar IA em seus processos, mas delas 60% ainda têm receio quanto a questões de responsabilidade e compliance e 63% não dispõem de recursos humanos e/ou tecnológicos adequados para incorporar a tecnologia de forma confiável.

A ideia é que a ferramenta seja aplicável também a outros modelos, ambientes e sistemas tais como Tensorflow, Watson, AWS SageMaker, AzureMA e SparkML e seja personalizável para sistemas internos das organizações. Ela permite a entrada de dados para complementar ao modelo para diminuir a tendência de viés e mostra o caminho da tomada de decisões enquanto em execução.

Além disso, já inclui parâmetros que atendem a padrões de conformidade e regulação, como é o caso do GDPR (Regulamento Geral sobre a Proteção de Dados, implementado pela União Europeia). A companhia também vai disponibilizar ferramentas open source e materiais que fomentem a colaboração da comunidade tecnológica em torno do assunto.

É fato que a evolução não pára e a IA veio para ficar de vez, e provavelmente questões como essa, de ordem prática e ética, se sucederão. A controvérsia dos algoritmos caixa-preta é uma das bolas da vez.

Herdeiras da imperfeição: as máquinas que erram como os humanos

24/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Herdeiras da imperfeição: as máquinas que erram como os humanos”

Sistemas de machine learning carregam e reproduzem visões de mundo dos humanos – nem sempre positivas.

Por décadas algumas das principais missões da ciência da computação giravam em torno de desenvolver algoritmos eficientes, além de códigos e equipamentos que funcionassem cada vez mais rápidos. Hoje, contudo, os holofotes se direcionam para os dados e a inteligência artificial para apontar as principais tendências tecnológicas que vão nos levar ao futuro – que, aliás, já vai se concretizando.

Grandes volumes de dados servem de subsídio para o funcionamento de sistemas de inteligência artificial, sobretudo os da vertente de machine learning e suas variáveis. As máquinas dotadas da capacidade de aprender o fazem a partir do aporte de informações recolhidas previamente, das quais sairão os parâmetros para suas predições, ações e reações.

Mas isso enseja uma das questões éticas da inteligência artificial: por mais “independentes” que possam ser, esses dispositivos são programados e alimentados por humanos e seus dados, podendo carregar, então, muitos de seus vieses pessoais, visões de mundo e distorções.

Até mesmo a discriminação de raça ou gênero pode ser replicada por algoritmos. Um notório estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens fotografados na cozinha. Afetadas pela tendência observada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos.

Em outro exemplo, a Amazon teve de abandonar uma ferramenta de recrutamento que tendia a eliminar mulheres do processo de seleção, mesmo quando uma adaptação foi feita para tornar o programa neutro para palavras com gênero. Uma das hipóteses para a distorção é que o sistema tenha aprendido com o histórico de contratação da empresa, constituinte do banco de dados. Por terem sido decisões tomadas por humanos, estão ali presentes todos os fatores discriminatórios neste tipo de situação. As fontes de aprendizado do sistema da empresa foram as escolhas feitas por recrutadores em sua maioria homens e brancos.

Os defensores da democratização do conhecimento na área de inteligência artificial e do desenvolvimento de soluções abertas se pautam em questões como essa para levantar sua bandeira. Já que é inegável o potencial transformador desse ramo da tecnologia, que ele se desenvolva sob condições de transparência e auditabilidade.

Várias ferramentas funcionam muitíssimo bem, mas são verdadeiras caixas-pretas, das quais só se conhece o produto, nunca o processo. Estes conjuntos de instruções ganharam um nome em inglês: black box algorithms. Há quem defenda sua importância e quem se empenhe em abri-las. Mas isso é assunto para o próximo post.

Respostas rápidas e pensamentos profundos: o futuro do Machine Learning

05/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Respostas rápidas e pensamentos profundos: o futuro do Machine Learning”

Aprendizagem de máquina sobreviveu ao quase esquecimento para voltar ao foco das empresas e cientistas.

Avanços tecnológicos surpreendentes, robôs, algoritmos complexos, computadores cada vez mais potentes e rápidos: bem-vindos à espantosa década de 1960. O mundo vivia suas revoluções e a inteligência artificial era um trending topic, com quadrinhos, seriados, filmes e livros investindo no tema. Por pouco tempo. A decepção com a falta de resultados concretos levou o assunto ao descrédito e ao esquecimento por um longo período. Foi necessário um duelo épico, mais de 30 anos depois, para as atenções se voltarem novamente para as máquinas pensantes.

Em fevereiro de 1996, o então campeão mundial de xadrez Garry Kasparov enfrentou Deep Blue, o supercomputador desenvolvido pela IBM, com 256 coprocessadores e um banco de dados com mais de 700 mil partidas de mestres do jogo. Kasparov perdeu a primeira rodada, recuperando-se ao longo das seguintes e vencendo ao final por 4 x 2. Confira os lances aqui. O evento atraiu atenção mundial e despertou o público para a possibilidade de computadores realmente estarem ganhando novos poderes.

Um ano depois, os dois voltaram-se a se enfrentar para uma revanche. Deep Blue recebera uma atualização completa, mas foi um erro de programação o responsável por seu desempenho surpreendente. Na primeira partida, o hoje famoso “lance 44” do Deep Blue desconcertou o enxadrista russo, que, mesmo vencendo a rodada, perdeu ou empatou todas as seguintes. Documentário de 2014 afirma que um bug no programa levou o computador a tomar uma decisão ilógica.

Deep Blue era um legítimo sistema Machine Learning, capaz de tomar suas decisões e predizer os movimentos do adversário por meio de algoritmos de análise de dados. À época do duelo, os termos Inteligência Artificial e Machine Learning já haviam se tornado distintos. Pesquisadores de Inteligência Artificial focaram abordagens mais lógicas e menos dependentes de algoritmos, enquanto o investimento nas redes neurais, teoria das probabilidades e métodos estatísticos definiu o caminho do Machine Learning.

No início dos anos 2000, com a disseminação da internet, o mundo da Tecnologia da Informação percebe o valor dos sistemas focados na análise de dados e o Machine Learning inicia sua ascensão. Afinal, os dados tornam-se abundantes e é evidente a relação entre a quantidade dessas informações e a capacidade dos sistemas em aprender com elas. Mais dados, melhores resultados.

Um breakthrough definidor, neste período, foi a publicação do artigo “A fast learning algorithm for deep beliefs nets”, em 2006. O algoritmo proposto pelos autores resolvia um dos maiores desafios das redes neurais e, a partir dele, com algumas poucas contribuições, surgiu o que hoje denominamos Deep Learning e as respectivas Deep Neural Networks (DNN).

A empresa de identificação de tendências Gartner aponta que o termo Inteligência Artificial está superexposto, abrangendo uma série de inovações em diferentes estágios de desenvolvimento e com opiniões divergentes. Entretanto, em seu mais recente relatório sobre Machine Learning, faz um alerta específico aos investidores sobre a importância da DNN e suas tecnologias associadas, como ensemble learning e análise preditiva e prescritiva. A questão, apontam seus especialistas, não é o que ela é capaz de fazer e sim qual problema pode ser por ela solucionado.

Atualmente, os sistemas de Machine Learning estão presentes em tecnologias chave para o futuro, como os aparelhos Google Home e Amazon Echo. Pelo crescente investimento, é possível afirmar que esta breve história contada até aqui deve continuar pelas próximas décadas.

Poesia, espiões e duelos épicos: origens do Machine Learning

03/04/2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Poesia, espiões e duelos épicos: origens do Machine Learning”

Saiba mais sobre o surgimento e o desenvolvimento das máquinas que aprenderam a aprender.

Machine learning é um ramo da Inteligência Artificial com foco em sistemas capazes de aprender e evoluir de forma automática. Estes programas acessam e usam os dados disponíveis para descobrir padrões e tomar decisões sem intervenção humana. Gostamos de falar sobre o tema, como aqui e ali, mas embora seja um hot topic não podemos dizer que é novidade. Sua história já tem mais de um século e é repleta de drama, aventura, poesia e perseguições em laboratórios secretos.

Na matemática, sagrada musa de todos os programadores, o machine learning sustenta-se em fundamentos de desbravadores do século 19, entre eles o matemático russo Andrei Andreyevich Markov. Amante da poesia, aplicou fórmulas de probabilidade em poemas e, quando a Rússia fervilhava em revoluções, apresentou os conceitos do que viria a ser conhecido como Markov Chains. É uma técnica de análise em que, em uma sequência de variáveis randômicas, uma variável futura é determinada pela variável presente, sem necessidade de conhecimento do estado anterior. Ou, de forma mais simples, permite previsões do futuro baseadas apenas nos dados atuais, independentemente do que aconteceu no passado. É usada rotineiramente em sistemas atuais de machine learning. Está na base do Google.

O trabalho de Markov, assim como o de estatísticos e matemáticos como Thomas Bayes, Laplace e Legendre, todos ainda no século 19, formaram as bases para a programação. Bastava, apenas, é claro, o surgimento do computador. Para a história do machine learning, especificamente computadores capazes de armazenar programas (ou instruções) em sua memória, o que ocorre no final da década de 1940. São eles o Manchester Small-Scale Experimental Machine (1948), o Cambridge EDSAC e Manchester Mark 1 (1949) e o EDVAC da Universidade da Pennsylvania (1951).

É deste período uma das publicações mais instigantes de Alan Turing, um dos mais famosos e influentes pioneiros da computação e da Inteligência Artificial. Sua vida é um drama, e fica aqui nossa dica de filme: The imitation game. Um enredo com nazistas, espiões, laboratórios secretos e muita matemática, sem final feliz.

À mesma época, Marvin Minsky e Dean Edmonds construíram a primeira simulação, em computador, da capacidade de aprendizagem humana. O Stochastic Neural Analog Reinforcement Computer (SNARC), de 1951, feito de válvulas, tubos e uma memória mínima, procurava reproduzir as tentativas de um rato para encontrar a saída de um labirinto. E com sucesso. Minsky se tornaria um dos mais importantes pesquisadores do tema inteligência artificial ao longo das décadas seguintes.

É da década de 60 a descoberta do processamento multicamadas, que abriu um novo ramo na pesquisa por redes neurais, levando à backpropagation. Desenvolvido nos anos 1970, o algoritmo permitia às redes neurais adaptarem-se a novas situações, por meio análise de erros e reprogramação. É hoje usada nas deep neural networks, um dos mais avançados sistemas de machine learning.

A virada dos 1960 para os 1970 é marcada por estes avanços e a popularização do tema na cultura pop, em filmes como 2001: Uma odisseia no espaço, de Stanley Kubrick (assessorado por Minsky), com sua inteligência artificial psicopata HAL 9000.

Entretanto, longe das telas, era lento o desenvolvimento das ferramentas de análise de dados baseadas em inteligência artificial. Os anos sem o surgimento de descobertas ou invenções de impacto reduziram as expectativas de todos e foi somente na década de 1980, com um épico duelo transmitido mundialmente, que o mundo voltou a se ocupar do tema. Contaremos esta história no próximo post.