Posts tagged "Machine Learning"

Algoritmos contra o preconceito

12 de julho de 2019 Posted by Pessoas, Tendências 1 thought on “Algoritmos contra o preconceito”

Universidade desenvolve ferramenta para reduzir risco de resultados discriminatórios em sistemas de Inteligência Artificial.

Um dos maiores temores em relação à disseminação da Inteligência Artificial é a limitação de acesso ao processo de aprendizagem – cada vez mais complexo, como nos cérebros humanos – e consequente incerteza em relação aos resultados. Com algoritmos exponencialmente sofisticados, como os usados nas máquinas de deep learning e suas redes neurais, é muitas vezes impossível acompanhar o “raciocínio” seguido até determinada solução. Um desafio ainda maior devido à acelerada adoção de sistemas de machine learning nas áreas de segurança, educação, finanças e negócios, entre outras. Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões. São os sistemas black box, que já falamos aqui.

As máquinas com capacidade de aprender o fazem a partir de informações recolhidas previamente, das quais sairão os parâmetros para predições, ações e reações. Mas, por mais “independentes”, esses dispositivos são programados e alimentados por humanos e seus dados. Eles carregam vieses pessoais, visões de mundo e distorções. Como resultado, o risco de sistemas preconceituosos ou discriminatórios.

Um famoso estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens na cozinha. Afetadas pela tendência registrada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos. Situações semelhantes já foram encontradas em programas para identificar suspeitos, por meio de reconhecimento facial, e outros.

Pesquisadores da Penn State e Columbia University acabam de apresentar uma ferramenta com o objetivo de identificar discriminação indesejável nos sistemas de inteligência artificial.

“Sistemas como este são treinados por uma imensa quantidade de dados, mas se os dados são enviesados, eles afetarão o resultado”

Vasant Honavar, professor da Penn State, cita como exemplo um algoritmo destinado a identificar os melhores candidatos para uma vaga de emprego, baseado em determinadas habilidades. Mas como os dados trazem uma série histórica em que mais homens foram empregados, no passado, o sistema tem a tendência de também privilegiar os homens em detrimento das mulheres. “Não há nada de errado com os algoritmos, eles fazem o que devem fazer, mas os dados usados aumentam o potencial para recomendações injustas. Se nenhuma mulher foi contratada no passado para determinada posição, é provável que o sistema não recomende mulheres para uma nova vaga no futuro”, completa o professor.

A menos que modificações sejam introduzidas nos algoritmos, como as desenvolvidas pela universidade. Os cientistas testaram o novo método usando diversos tipos de dados disponíveis, como a renda e demografia do censo norte-americano. A ferramenta de inteligência artificial foi capaz de detectar o risco de discriminação atribuído a determinados atributos, como gênero e raça.

Universidade high-tech

24 de maio de 2019 Posted by Tecnologia, Tendências 0 thoughts on “Universidade high-tech”

Conheça algumas tendências de impacto da tecnologia na educação superior.

As universidades são importantes espaços para o avanço científico, desde o período medieval. Compartilhada por estudantes, professores e pesquisadores, os campi tornaram-se não apenas local de inovação, mas também objetos de estudo e aplicação de novas tecnologias. Muitas com grande potencial de impacto no ensino superior, fazendo com que a academia se beneficie de algo que ajudou a desenvolver, conforme aponta o Gartner Inc.. O estudo apresenta uma série de inovações e sua incorporação vale como diferencial competitivo para instituições privadas e para a excelência de centros públicos. Não por acaso, as edtechs estão em ascensão, com o chegada ao mercado de novas empresas e soluções em educação.

Conheça quatro inovações das universidades high-techs:

• Plataformas híbridas de integração são um exemplo já em uso e em franco desenvolvimento. Esses sistemas mesclam ferramentas na nuvem e armazenadas localmente para a gestão do relacionamento com os alunos e de seu aprendizado. A partir dessas plataformas e dos dados que coletam e armazenam – uma espécie de CRM da vida acadêmica – é possível traçar uma visão em 360 graus da universidade e do aluno, constituindo um rico panorama desse contexto.

Torna-se possível, também, colocar em jogo práticas de análise preditiva, que reconhece nos dados históricos padrões e resultados prováveis, utilizando-se de ferramentas de estatística ou machine learning. A ideia é estimar a demanda por determinado curso, mensurar materiais e insumos necessários para as atividades acadêmicas, antever tendências de reprovação, trancamento de matrícula, evasão, entre outros.

A chamada Nudge Tech é outra aliada. Tecnologias de nuvem, móveis, sociais e de dados são utilizadas para criar interação personalizada e rápida com os alunos, professores e outros colaboradores. Nudge pode ser traduzido por “cutucar”, e indica a intenção por trás do uso desse conjunto de tecnologias para impactar o comportamento do usuário, como por exemplo ajudar no controle de momentos de estudo e lazer, promover comunicação em tempo real, encaminhar lembretes, etc.

Frentes mais incipientes, mas bastante promissoras, envolvem a Internet das Coisas (IoT) no desenvolvimento de um conceito de Campus Inteligente, quer seja físico ou digital, no qual os membros da comunidade acadêmica têm experiências imersivas e automatizadas, potencializando o aprendizado. Realidade virtual, realidade aumentada e soluções robóticas aparecem como aliados.

Todo esse contexto envolvendo sistemas, algoritmos e dados levanta, como não poderia de ser, questões relacionadas à segurança e ao gerenciamento de risco. Junto dos avanços que estão sendo ou prometem ser implementados nas instituições superiores, é preciso atentar para a conformidade com os padrões regulatórios em vigor e garantir a privacidade e confiabilidade aos envolvidos.

Inteligência artificial cura até coração partido

30 de abril de 2019 Posted by Pessoas, Tecnologia 0 thoughts on “Inteligência artificial cura até coração partido”

Bioengenheiros desenvolvem cateter que navega pelo sistema cardiovascular com o uso de inteligência artificial.

Se lembra dos carros autônomos, dos quais falamos neste artigo? Pois bem. Um sistema baseado em princípios semelhantes envolvendo inteligência artificial e reconhecimento de imagens está em desenvolvimento por bioengenheiros do Hospital Infantil de Boston, com a promessa de encontrar e ajudar a sanar problemas cardíacos. A primeira demonstração foi bem sucedida e relatada na Science Robotics.

O grupo de pesquisadores, liderado por Pierre Dupont, criou um cateter cuja missão era encontrar vazamentos em válvulas do coração. Há mais de uma década já há pequenos robôs guiados por controle remoto para esse fim e catéteres dirigidos com o uso de magnetismo, mas em ambos os casos a condução exige muita perícia e esforço dos médicos. Incluir inteligência artificial no dispositivo tem como objetivo desobrigar os profissionais dessa função para que possam se dedicar apenas à solução do problema.

O sistema de inteligência artificial que conduz o cateter é alimentado previamente com informações dos exames pré-operatórios. A partir disso, por meio de sensores, ele avalia o ambiente em seu redor em intervalos regulares, decidindo qual o próximo passo a dar, tal como fazem os insetos com suas antenas ou roedores com seus bigodes. Uma câmera na ponta do aparelho completa seus “sentidos”, permitindo usar a identificação de imagens para compor a avaliação da ação.

No teste, realizado em válvulas artificiais imitando tecidos humanos, o cateter foi capaz de percorrer o coração desde sua base, passando pela parede do ventrículo e percorrendo a válvula danificada até encontrar o vazamento milimétrico. O tempo médio gasto pelo aparelho para localizar o vazamento foi praticamente igual àquele registrado por humanos.

Além de automatizar um processo até então essencialmente humano, essa descoberta pode eliminar a necessidade de exames fluoroscópicos, comumente utilizados em procedimentos como esse e que expõem os pacientes à radiação e efeitos colaterais.

Para Dupont, chefe de cardiologia pediátrica do hospital, esse foi o primeiro registro de algo equivalente a um carro autônomo utilizado no campo da saúde, transitando no sistema circulatório humano. Esperamos de coração que a técnica seja aprimorada e em breve esteja a serviço de muitas pessoas.

Caixinhas de segredos: as máquinas que não conseguimos decifrar

26 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Caixinhas de segredos: as máquinas que não conseguimos decifrar”

Uso de “algoritmos caixa-preta” levantam controvérsia. Devemos usar máquinas que “pensam” sem que saibamos exatamente como?

A ameaça dos computadores insurgentes que renderam à literatura e ao cinema ótimas histórias, todas envolvendo a humanidade posta em risco pela rebeldia de suas criações, não é realidade. Pelo menos ainda.

Mas outra questão envolvendo a Inteligência Artificial (IA) tem provocado um grande dilema: muitos dos sistemas de machine learning, modalidade que abrange as máquinas capazes de aprender, são verdadeiras caixas-pretas. Falamos disso em outro artigo.

Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões.

As convolutional neural networks (redes neurais convolucionais) são um exemplo. Com seus neurônios artificiais conectados de forma a tentar mimetizar a estrutura de um cérebro humano, é difícil acompanhar e “enxergar” o que se dá nelas. Rápidas e complexas, elas complicam a vida de quem quer quer compreendê-las. Resta aos curiosos analisar seus resultados e, por inferência, supor o processo. Daí o motivo de muitos especialistas se posicionarem como contrários ao uso de algoritmos caixa-preta, ou ao menos preocupados com algumas das consequências de seu uso.

Elizabeth Holm, professora de ciência e engenharia de materiais na Universidade Carnegie Mellon, posiciona-se favoravelmente ao uso desses recursos. Primeiramente ela ressalta que, tal qual nesses sistemas, alguns processos do pensamento humano também são insondáveis. Não raro confiamos em resultados de pensamentos que não podemos descrever ou explicar, por exemplo, e que nem por isso são necessariamente ruins ou prejudiciais. Para ela, o que vale para os humanos, nesse caso, deve valer também para a máquina.

Seus argumentos seguem em torno de três regras, estabelecidas por ela. A primeira, a mais simples, determina que se o custo de uma decisão ruim é pequeno e, por sua vez, o valor de uma decisão acertada é alto, vale a pena usar.

No segundo caso, mesmo com custos altos, vale a pena usar essas caixas-pretas quando é a melhor opção para fazer determinado trabalho. Um exemplo são os algoritmos utilizados em carros autônomos, que certamente serão condutores melhores que os humanos, mas que ainda assim, se houver falha em seus processos, podem causar graves acidentes.

A terceira situação em que se justifica o uso dos black box algorithms é quando a máquina é capaz de fazer algo de maneira diferente que os humanos, ou mesmo coisas das quais não somos capazes. Aí a decisão se aproxima da opção entre fazer ou não fazer algo, entre avançar ou não em algum aspecto.

Para Andrew McAfee, especialista em machine learning e automação, impor barreiras regulatórias para o uso de caixas-pretas na IA e exigir altos níveis de interpretabilidade nos sistemas poderia retardar o progresso da tecnologia.

Há, porém, muitos outros que defendem que esse progresso não pode vir a qualquer custo. Se não é possível entender exatamente como o sistemas caixa-preta funcionam e quais parâmetros utilizam, fica mais fácil duvidar deles ou perder a confiança neles.

A IBM, gigante no setor tecnológico, respondeu a essa corrente disponibilizando na nuvem, um serviço que torna visíveis os parâmetros de IA dos sistemas da empresa e permite a detecção de vieses durante seu funcionamento. Dados de um relatório elaborado pelo Institute for Business Value, vinculado à corporação, mostraram que 82% das empresas observadas consideram implementar IA em seus processos, mas delas 60% ainda têm receio quanto a questões de responsabilidade e compliance e 63% não dispõem de recursos humanos e/ou tecnológicos adequados para incorporar a tecnologia de forma confiável.

A ideia é que a ferramenta seja aplicável também a outros modelos, ambientes e sistemas tais como Tensorflow, Watson, AWS SageMaker, AzureMA e SparkML e seja personalizável para sistemas internos das organizações. Ela permite a entrada de dados para complementar ao modelo para diminuir a tendência de viés e mostra o caminho da tomada de decisões enquanto em execução.

Além disso, já inclui parâmetros que atendem a padrões de conformidade e regulação, como é o caso do GDPR (Regulamento Geral sobre a Proteção de Dados, implementado pela União Europeia). A companhia também vai disponibilizar ferramentas open source e materiais que fomentem a colaboração da comunidade tecnológica em torno do assunto.

É fato que a evolução não pára e a IA veio para ficar de vez, e provavelmente questões como essa, de ordem prática e ética, se sucederão. A controvérsia dos algoritmos caixa-preta é uma das bolas da vez.

Herdeiras da imperfeição: as máquinas que erram como os humanos

24 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Herdeiras da imperfeição: as máquinas que erram como os humanos”

Sistemas de machine learning carregam e reproduzem visões de mundo dos humanos – nem sempre positivas.

Por décadas algumas das principais missões da ciência da computação giravam em torno de desenvolver algoritmos eficientes, além de códigos e equipamentos que funcionassem cada vez mais rápidos. Hoje, contudo, os holofotes se direcionam para os dados e a inteligência artificial para apontar as principais tendências tecnológicas que vão nos levar ao futuro – que, aliás, já vai se concretizando.

Grandes volumes de dados servem de subsídio para o funcionamento de sistemas de inteligência artificial, sobretudo os da vertente de machine learning e suas variáveis. As máquinas dotadas da capacidade de aprender o fazem a partir do aporte de informações recolhidas previamente, das quais sairão os parâmetros para suas predições, ações e reações.

Mas isso enseja uma das questões éticas da inteligência artificial: por mais “independentes” que possam ser, esses dispositivos são programados e alimentados por humanos e seus dados, podendo carregar, então, muitos de seus vieses pessoais, visões de mundo e distorções.

Até mesmo a discriminação de raça ou gênero pode ser replicada por algoritmos. Um notório estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens fotografados na cozinha. Afetadas pela tendência observada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos.

Em outro exemplo, a Amazon teve de abandonar uma ferramenta de recrutamento que tendia a eliminar mulheres do processo de seleção, mesmo quando uma adaptação foi feita para tornar o programa neutro para palavras com gênero. Uma das hipóteses para a distorção é que o sistema tenha aprendido com o histórico de contratação da empresa, constituinte do banco de dados. Por terem sido decisões tomadas por humanos, estão ali presentes todos os fatores discriminatórios neste tipo de situação. As fontes de aprendizado do sistema da empresa foram as escolhas feitas por recrutadores em sua maioria homens e brancos.

Os defensores da democratização do conhecimento na área de inteligência artificial e do desenvolvimento de soluções abertas se pautam em questões como essa para levantar sua bandeira. Já que é inegável o potencial transformador desse ramo da tecnologia, que ele se desenvolva sob condições de transparência e auditabilidade.

Várias ferramentas funcionam muitíssimo bem, mas são verdadeiras caixas-pretas, das quais só se conhece o produto, nunca o processo. Estes conjuntos de instruções ganharam um nome em inglês: black box algorithms. Há quem defenda sua importância e quem se empenhe em abri-las. Mas isso é assunto para o próximo post.

Respostas rápidas e pensamentos profundos: o futuro do Machine Learning

5 de abril de 2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Respostas rápidas e pensamentos profundos: o futuro do Machine Learning”

Aprendizagem de máquina sobreviveu ao quase esquecimento para voltar ao foco das empresas e cientistas.

Avanços tecnológicos surpreendentes, robôs, algoritmos complexos, computadores cada vez mais potentes e rápidos: bem-vindos à espantosa década de 1960. O mundo vivia suas revoluções e a inteligência artificial era um trending topic, com quadrinhos, seriados, filmes e livros investindo no tema. Por pouco tempo. A decepção com a falta de resultados concretos levou o assunto ao descrédito e ao esquecimento por um longo período. Foi necessário um duelo épico, mais de 30 anos depois, para as atenções se voltarem novamente para as máquinas pensantes.

Em fevereiro de 1996, o então campeão mundial de xadrez Garry Kasparov enfrentou Deep Blue, o supercomputador desenvolvido pela IBM, com 256 coprocessadores e um banco de dados com mais de 700 mil partidas de mestres do jogo. Kasparov perdeu a primeira rodada, recuperando-se ao longo das seguintes e vencendo ao final por 4 x 2. Confira os lances aqui. O evento atraiu atenção mundial e despertou o público para a possibilidade de computadores realmente estarem ganhando novos poderes.

Um ano depois, os dois voltaram-se a se enfrentar para uma revanche. Deep Blue recebera uma atualização completa, mas foi um erro de programação o responsável por seu desempenho surpreendente. Na primeira partida, o hoje famoso “lance 44” do Deep Blue desconcertou o enxadrista russo, que, mesmo vencendo a rodada, perdeu ou empatou todas as seguintes. Documentário de 2014 afirma que um bug no programa levou o computador a tomar uma decisão ilógica.

Deep Blue era um legítimo sistema Machine Learning, capaz de tomar suas decisões e predizer os movimentos do adversário por meio de algoritmos de análise de dados. À época do duelo, os termos Inteligência Artificial e Machine Learning já haviam se tornado distintos. Pesquisadores de Inteligência Artificial focaram abordagens mais lógicas e menos dependentes de algoritmos, enquanto o investimento nas redes neurais, teoria das probabilidades e métodos estatísticos definiu o caminho do Machine Learning.

No início dos anos 2000, com a disseminação da internet, o mundo da Tecnologia da Informação percebe o valor dos sistemas focados na análise de dados e o Machine Learning inicia sua ascensão. Afinal, os dados tornam-se abundantes e é evidente a relação entre a quantidade dessas informações e a capacidade dos sistemas em aprender com elas. Mais dados, melhores resultados.

Um breakthrough definidor, neste período, foi a publicação do artigo “A fast learning algorithm for deep beliefs nets”, em 2006. O algoritmo proposto pelos autores resolvia um dos maiores desafios das redes neurais e, a partir dele, com algumas poucas contribuições, surgiu o que hoje denominamos Deep Learning e as respectivas Deep Neural Networks (DNN).

A empresa de identificação de tendências Gartner aponta que o termo Inteligência Artificial está superexposto, abrangendo uma série de inovações em diferentes estágios de desenvolvimento e com opiniões divergentes. Entretanto, em seu mais recente relatório sobre Machine Learning, faz um alerta específico aos investidores sobre a importância da DNN e suas tecnologias associadas, como ensemble learning e análise preditiva e prescritiva. A questão, apontam seus especialistas, não é o que ela é capaz de fazer e sim qual problema pode ser por ela solucionado.

Atualmente, os sistemas de Machine Learning estão presentes em tecnologias chave para o futuro, como os aparelhos Google Home e Amazon Echo. Pelo crescente investimento, é possível afirmar que esta breve história contada até aqui deve continuar pelas próximas décadas.

Poesia, espiões e duelos épicos: origens do Machine Learning

3 de abril de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Poesia, espiões e duelos épicos: origens do Machine Learning”

Saiba mais sobre o surgimento e o desenvolvimento das máquinas que aprenderam a aprender.

Machine learning é um ramo da Inteligência Artificial com foco em sistemas capazes de aprender e evoluir de forma automática. Estes programas acessam e usam os dados disponíveis para descobrir padrões e tomar decisões sem intervenção humana. Gostamos de falar sobre o tema, como aqui e ali, mas embora seja um hot topic não podemos dizer que é novidade. Sua história já tem mais de um século e é repleta de drama, aventura, poesia e perseguições em laboratórios secretos.

Na matemática, sagrada musa de todos os programadores, o machine learning sustenta-se em fundamentos de desbravadores do século 19, entre eles o matemático russo Andrei Andreyevich Markov. Amante da poesia, aplicou fórmulas de probabilidade em poemas e, quando a Rússia fervilhava em revoluções, apresentou os conceitos do que viria a ser conhecido como Markov Chains. É uma técnica de análise em que, em uma sequência de variáveis randômicas, uma variável futura é determinada pela variável presente, sem necessidade de conhecimento do estado anterior. Ou, de forma mais simples, permite previsões do futuro baseadas apenas nos dados atuais, independentemente do que aconteceu no passado. É usada rotineiramente em sistemas atuais de machine learning. Está na base do Google.

O trabalho de Markov, assim como o de estatísticos e matemáticos como Thomas Bayes, Laplace e Legendre, todos ainda no século 19, formaram as bases para a programação. Bastava, apenas, é claro, o surgimento do computador. Para a história do machine learning, especificamente computadores capazes de armazenar programas (ou instruções) em sua memória, o que ocorre no final da década de 1940. São eles o Manchester Small-Scale Experimental Machine (1948), o Cambridge EDSAC e Manchester Mark 1 (1949) e o EDVAC da Universidade da Pennsylvania (1951).

É deste período uma das publicações mais instigantes de Alan Turing, um dos mais famosos e influentes pioneiros da computação e da Inteligência Artificial. Sua vida é um drama, e fica aqui nossa dica de filme: The imitation game. Um enredo com nazistas, espiões, laboratórios secretos e muita matemática, sem final feliz.

À mesma época, Marvin Minsky e Dean Edmonds construíram a primeira simulação, em computador, da capacidade de aprendizagem humana. O Stochastic Neural Analog Reinforcement Computer (SNARC), de 1951, feito de válvulas, tubos e uma memória mínima, procurava reproduzir as tentativas de um rato para encontrar a saída de um labirinto. E com sucesso. Minsky se tornaria um dos mais importantes pesquisadores do tema inteligência artificial ao longo das décadas seguintes.

É da década de 60 a descoberta do processamento multicamadas, que abriu um novo ramo na pesquisa por redes neurais, levando à backpropagation. Desenvolvido nos anos 1970, o algoritmo permitia às redes neurais adaptarem-se a novas situações, por meio análise de erros e reprogramação. É hoje usada nas deep neural networks, um dos mais avançados sistemas de machine learning.

A virada dos 1960 para os 1970 é marcada por estes avanços e a popularização do tema na cultura pop, em filmes como 2001: Uma odisseia no espaço, de Stanley Kubrick (assessorado por Minsky), com sua inteligência artificial psicopata HAL 9000.

Entretanto, longe das telas, era lento o desenvolvimento das ferramentas de análise de dados baseadas em inteligência artificial. Os anos sem o surgimento de descobertas ou invenções de impacto reduziram as expectativas de todos e foi somente na década de 1980, com um épico duelo transmitido mundialmente, que o mundo voltou a se ocupar do tema. Contaremos esta história no próximo post.

Deep Learning na busca pelas origens do universo

14 de janeiro de 2019 Posted by Tecnologia 0 thoughts on “Deep Learning na busca pelas origens do universo”

Cientistas testam machine learning em estudo sobre o Big Bang.

Pesquisadores comemoraram, no início deste ano, os resultados da aplicação de machine learning na análise dos dados gerados pelo acelerador de partículas do Berkeley Lab, na Califórnia. O equipamento é usado no estudo das interações nucleares, promovendo o choque entre partículas atômicas. São colisões a velocidades próximas à da luz, entre elementos bem menores que átomos, simulando os eventos que ocorreram logo após o Big Bang, há bilhões de anos.

Os choques geram um pequeno universo de dados e um dos desafios é exatamente identificar quais resultados são relevantes e quais não são. Na Califórnia, as técnicas de machine learning foram testadas na interpretação de 18.000 imagens geradas pelo acelerador de partículas. O resultado foi uma taxa de sucesso de 95% no reconhecimento de padrões de interesse. Um índice muito superior ao alcançado pelos cientistas.

O próximo passo é usar os algoritmos em experimentos reais em busca das características de uma das mais misteriosas matérias do universo, o plasma quark-gluon. Formado pela quebra das partículas em sua forma mais fundamental, similar à ocorrida nos infinitesimais segundos após o Big Bang, o plasma quark-gluon desafia os cientistas. “Em física nuclear, o santo graal é entender as transições nestas reações de alta energia”, comenta o autor do estudo do Departamento de Física Nuclear do Berkeley Lab, Long-Gang Pang.

“Com este tipo de Machine Learning nós buscamos um conjunto de padrões capaz de identificar as equações para a transição de estado, e o sistema aprendeu e encontrou as mais relevantes”, completou Pang. Embora a programação tenha sido feita na Califórnia, o processamento utilizou máquinas na Alemanha e na China, com elevado poder de processamento.

As expectativas são elevadas devido ao método usado no experimento. Os cientistas aproveitaram-se da deep learning, um ramo do machine learning capaz de aprender de múltiplas formas. Ainda em desenvolvimento e dependente de uma capacidade muito elevada de processamento, o deep learning tem sido usado com sucesso no reconhecimento de padrões e processamento de linguagem, entre outras situações que envolvem um volume extraordinário de dados.

É a base para o que se espera da verdadeira Inteligência Artificial e, aliado à também incipiente computação quântica, as técnicas podem revolucionar o mundo. Há um universo de Big Data disponível no mundo, à espera de processamento. São informações demográficas, climáticas, econômicas e sociais, escondendo soluções para problemas que afligem a todos nós.

2018: o ano da transformação digital (por enquanto)

20 de dezembro de 2018 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “2018: o ano da transformação digital (por enquanto)”

Big Data, Inteligência Artificial e Machine Learning permanecem em alta.

O ano de 2018 marcou um novo patamar no desenvolvimento das tecnologias e da ciência de dados, em se tratando de Big Data, Inteligência Artificial (IA), Machine Learning e outras vertentes. Com funcionalidades mais eficientes e, consequentemente, mais difundidas mundo afora, podemos dizer que este foi – ao menos até que 2019 termine e assuma o posto – o ano da “transformação digital”. Várias das mais tradicionais companhias seguiram neste caminho, sejam elas desenvolvedoras de soluções do gênero, sejam meras usuárias.

Em IA, alguns avanços vieram a olhos vistos, literalmente. Para citar um exemplo, houve grandes melhorias nas Generative Adversarial Networks, redes neurais capazes de gerar, por meio de algoritmos, fotografias com algum nível de verossimilhança. Nos testes os observadores ainda conseguem com certa facilidade distinguir fotos verdadeiras das resultantes do processo artificial, mas a melhoria nos resultados é perceptível.

Sistemas de Machine Learning baseados nos princípios computacionais de nosso cérebro, tais como o Recursive Cortical Networks, seguem sendo aprimorados. O software desenvolvido pela empresa norte-americana Vicarious busca interpretar fotos, vídeos e outros dados visuais de forma semelhante a como fazemos nós, humanos. Um de seus principais desafios é alcançar altos níveis de assertividade em testes CAPTCHA – de leitura de caracteres distorcidos, em qualquer contexto.

Mas tamanho avanço na área de IA, sobretudo a partir do desenvolvimento de Deep Learning nos últimos anos, curiosamente faz com que muitos especialistas compartilhem um sentimento de “e agora?”. A base disso está no questionamento, feito por parte de alguns, dos fundamentos e das abordagens desse ramo da ciência. O receio nem é tanto pela ameaça de dominação do mundo pelas máquinas: é que a exagerada hype que o campo vive possa culminar em desapontamento e descrédito. A defesa é que o desenvolvimento continue, mas com aplicações práticas concretas e benéficas para a sociedade.

A reboque da adesão de mais e mais pessoas e organizações à tecnologia, aumentou também o conhecimento por parte do público das possíveis armadilhas que uma vida ultraconectada esconde. Mais pessoas estão cientes dos riscos que a massiva coleta e tráfego de dados pessoais pode oferecer. Casos com ampla repercussão como o da Equifax e da Cambridge Analytica colocaram uma pulga atrás da orelha de muita gente, e seus desdobramentos não param. Notícia recente aponta que o Facebook além de ter colaborado com a consultoria política que ajudou a eleger Donald Trump, também forneceu informações privadas de seus usuários para serviços como a Netflix e o Spotify.

A rede social de Mark Zuckerberg e a Google são detentoras dos dados coletados por suas ferramentas – pelos termos aos quais seus usuários aderem. A disponibilidade dessa matéria prima as coloca em posição privilegiada para identificar perfis, detectar tendências e identificar oportunidades, bem como para desenvolver IA e outras soluções.

Uma tendência que aparece como possibilidade para aumentar a segurança e mesmo permitir que outros players desenvolvam IA é a tecnologia Blockchain. O sistema promete altos níveis de confiabilidade, dando aos usuários mais tranquilidade em fornecer seus dados, que seriam processados de forma completamente anônima e irrastreável. Iniciativas nessa direção cresceram este ano, mas as dúvidas relativas à regulamentação das criptomoedas (intrínsecas ao blockchain) colocaram a tecnologia em modo de espera.

A capilarização da tecnologia nos âmbitos pessoais e profissionais amplia as funcionalidades oferecidas, mas sob o risco de abusos e crimes. Esta percepção das responsabilidades e riscos atrelados aos novos poderes oferecidos pelas tecnologias foi também crescente ao longo do ano e, assim como a transformação digital, promete crescer ainda mais em 2019. 

Machine Learning já é!

7 de novembro de 2018 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Machine Learning já é!”

O machine learning (ou aprendizagem de máquina) é um desenvolvimento das possibilidades de Inteligência Artificial. Entre os sistemas criados para emular a maneira como os humanos pensam, o machine learning é um que busca a capacidade de aprender “sem ser explicitamente programado”. Ou seja, todo machine learning é Inteligência Artificial, mas a recíproca não é verdadeira, pois há um universo de outras possibilidades de AI.

No aprendizado de máquina, técnicas estatísticas são aplicadas pelos computadores para aprender a identificar automaticamente padrões em dados. Como resultado, são capazes de fazer previsões com alto índice de acerto.

Nem precisamos dizer que não é coisa de ficção científica. Computadores já aprendiam a jogar damas ou xadrez, sozinhos, na década de 1960. E atualmente, eles estão nos sistemas de recomendação dos mecanismos de busca, no reconhecimento dos padrões de desenho manuscrito e na prevenção de fraudes bancárias, entre muitos outros.

E a tendência é crescer. De acordo com o IDC, organizações investiram US$ 12.5 bilhões em sistemas de AI, em 2017.

Veja aqui uma apresentação das mais bacanas e didáticas para entender a capacidade do machine learning em identificar padrões de dados e fazer previsões.

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn