Saiba mais sobre o surgimento e o desenvolvimento das máquinas que aprenderam a aprender.
Machine learning é um ramo da Inteligência Artificial com foco em sistemas capazes de aprender e evoluir de forma automática. Estes programas acessam e usam os dados disponíveis para descobrir padrões e tomar decisões sem intervenção humana. Gostamos de falar sobre o tema, como aqui e ali, mas embora seja um hot topic não podemos dizer que é novidade. Sua história já tem mais de um século e é repleta de drama, aventura, poesia e perseguições em laboratórios secretos.
Na matemática, sagrada musa de todos os programadores, o machine learning sustenta-se em fundamentos de desbravadores do século 19, entre eles o matemático russo Andrei Andreyevich Markov. Amante da poesia, aplicou fórmulas de probabilidade em poemas e, quando a Rússia fervilhava em revoluções, apresentou os conceitos do que viria a ser conhecido como Markov Chains. É uma técnica de análise em que, em uma sequência de variáveis randômicas, uma variável futura é determinada pela variável presente, sem necessidade de conhecimento do estado anterior. Ou, de forma mais simples, permite previsões do futuro baseadas apenas nos dados atuais, independentemente do que aconteceu no passado. É usada rotineiramente em sistemas atuais de machine learning. Está na base do Google.
O trabalho de Markov, assim como o de estatísticos e matemáticos como Thomas Bayes, Laplace e Legendre, todos ainda no século 19, formaram as bases para a programação. Bastava, apenas, é claro, o surgimento do computador. Para a história do machine learning, especificamente computadores capazes de armazenar programas (ou instruções) em sua memória, o que ocorre no final da década de 1940. São eles o Manchester Small-Scale Experimental Machine (1948), o Cambridge EDSAC e Manchester Mark 1 (1949) e o EDVAC da Universidade da Pennsylvania (1951).
É deste período uma das publicações mais instigantes de Alan Turing, um dos mais famosos e influentes pioneiros da computação e da Inteligência Artificial. Sua vida é um drama, e fica aqui nossa dica de filme: The imitation game. Um enredo com nazistas, espiões, laboratórios secretos e muita matemática, sem final feliz.
À mesma época, Marvin Minsky e Dean Edmonds construíram a primeira simulação, em computador, da capacidade de aprendizagem humana. O Stochastic Neural Analog Reinforcement Computer (SNARC), de 1951, feito de válvulas, tubos e uma memória mínima, procurava reproduzir as tentativas de um rato para encontrar a saída de um labirinto. E com sucesso. Minsky se tornaria um dos mais importantes pesquisadores do tema inteligência artificial ao longo das décadas seguintes.
É da década de 60 a descoberta do processamento multicamadas, que abriu um novo ramo na pesquisa por redes neurais, levando à backpropagation. Desenvolvido nos anos 1970, o algoritmo permitia às redes neurais adaptarem-se a novas situações, por meio análise de erros e reprogramação. É hoje usada nas deep neural networks, um dos mais avançados sistemas de machine learning.
A virada dos 1960 para os 1970 é marcada por estes avanços e a popularização do tema na cultura pop, em filmes como 2001: Uma odisseia no espaço, de Stanley Kubrick (assessorado por Minsky), com sua inteligência artificial psicopata HAL 9000.
Entretanto, longe das telas, era lento o desenvolvimento das ferramentas de análise de dados baseadas em inteligência artificial. Os anos sem o surgimento de descobertas ou invenções de impacto reduziram as expectativas de todos e foi somente na década de 1980, com um épico duelo transmitido mundialmente, que o mundo voltou a se ocupar do tema. Contaremos esta história no próximo post.