Posts in Data Science

Pequenos guardas de trânsito para grandes tráfegos de dados

16/04/2019 Posted by Data Science, Tecnologia 0 thoughts on “Pequenos guardas de trânsito para grandes tráfegos de dados”

Cientistas de Berkeley desenvolvem estrutura que pode revolucionar supercomputadores e data centers.

O fluxo de dados gerados e processados a cada segundo pelo uso praticamente onipresente da tecnologia nos dias de hoje não para. Aliás, só cresce, e com eles os desafios inerentes a essa demanda. Torna-se um imperativo, então, buscar as soluções para viabilizar que os sistemas funcionem a contento.

Verdadeiros exércitos de pesquisadores se empenham em desenvolver aprimoramentos e inovações, como é o caso da ainda incipiente internet quântica, da qual já falamos aqui. Em outra frente, cientistas de Berkeley, na Califórnia, estão trabalhando em uma solução que pode revolucionar o tráfego de dados nos data centers e computadores de alta performance.

Trata-se de um “interruptor fotônico”, dispositivo que controla a direção da luz no interior das fibras ópticas, atuando como um guarda de trânsito, organizando o tráfego. Ele é formado por mais de 50 mil estruturas que redirecionam um dos 240 feixes microscópicos de luz que transitam nas fibras, fazendo com que façam uma curva de 90 graus ou sigam em linha reta, conforme esteja ligado ou desligado o interruptor, gravado sobre uma pastilha de silício e cobre pouco maior que um selo postal.

Segundo o coordenador do projeto, Ming Wu, professor de engenharia elétrica e ciências da computação em Berkeley, os “switches” são 10 mil vezes mais rápidos do que os atuais, e podem, por isso, mudar as redes de dados e os sistemas de inteligência artificial que conhecemos hoje. Os interruptores utilizados atualmente são formados por sistemas de espelhos e lentes que precisam ser girados fisicamente para redirecionar os feixes, o que leva muito tempo: um décimo de segundo. As estruturas que estão sendo desenvolvidas fazem isso em uma fração de microssegundo.

O trabalho conduzido pelo professor Wu surge como alternativa para a conexão de redes de servidores, hoje feita com a utilização de interruptores elétricos. Esses dispositivos geram muito calor e, dentro de alguns anos, podem não dar mais conta do recado. Além disso, superam os comutadores fotônicos usados atualmente em versatilidade e eficiência, pois acomodam mais conexões e não se afetam por perda de sinal.

Ao que tudo indica não deve demorar muito para que os pequenos agentes de tráfego de dados do professor Wu estejam ao nosso serviço – mesmo que não vejamos o intenso e rápido fluxos que eles estão gerenciando.

Respostas rápidas e pensamentos profundos: o futuro do Machine Learning

05/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Respostas rápidas e pensamentos profundos: o futuro do Machine Learning”

Aprendizagem de máquina sobreviveu ao quase esquecimento para voltar ao foco das empresas e cientistas.

Avanços tecnológicos surpreendentes, robôs, algoritmos complexos, computadores cada vez mais potentes e rápidos: bem-vindos à espantosa década de 1960. O mundo vivia suas revoluções e a inteligência artificial era um trending topic, com quadrinhos, seriados, filmes e livros investindo no tema. Por pouco tempo. A decepção com a falta de resultados concretos levou o assunto ao descrédito e ao esquecimento por um longo período. Foi necessário um duelo épico, mais de 30 anos depois, para as atenções se voltarem novamente para as máquinas pensantes.

Em fevereiro de 1996, o então campeão mundial de xadrez Garry Kasparov enfrentou Deep Blue, o supercomputador desenvolvido pela IBM, com 256 coprocessadores e um banco de dados com mais de 700 mil partidas de mestres do jogo. Kasparov perdeu a primeira rodada, recuperando-se ao longo das seguintes e vencendo ao final por 4 x 2. Confira os lances aqui. O evento atraiu atenção mundial e despertou o público para a possibilidade de computadores realmente estarem ganhando novos poderes.

Um ano depois, os dois voltaram-se a se enfrentar para uma revanche. Deep Blue recebera uma atualização completa, mas foi um erro de programação o responsável por seu desempenho surpreendente. Na primeira partida, o hoje famoso “lance 44” do Deep Blue desconcertou o enxadrista russo, que, mesmo vencendo a rodada, perdeu ou empatou todas as seguintes. Documentário de 2014 afirma que um bug no programa levou o computador a tomar uma decisão ilógica.

Deep Blue era um legítimo sistema Machine Learning, capaz de tomar suas decisões e predizer os movimentos do adversário por meio de algoritmos de análise de dados. À época do duelo, os termos Inteligência Artificial e Machine Learning já haviam se tornado distintos. Pesquisadores de Inteligência Artificial focaram abordagens mais lógicas e menos dependentes de algoritmos, enquanto o investimento nas redes neurais, teoria das probabilidades e métodos estatísticos definiu o caminho do Machine Learning.

No início dos anos 2000, com a disseminação da internet, o mundo da Tecnologia da Informação percebe o valor dos sistemas focados na análise de dados e o Machine Learning inicia sua ascensão. Afinal, os dados tornam-se abundantes e é evidente a relação entre a quantidade dessas informações e a capacidade dos sistemas em aprender com elas. Mais dados, melhores resultados.

Um breakthrough definidor, neste período, foi a publicação do artigo “A fast learning algorithm for deep beliefs nets”, em 2006. O algoritmo proposto pelos autores resolvia um dos maiores desafios das redes neurais e, a partir dele, com algumas poucas contribuições, surgiu o que hoje denominamos Deep Learning e as respectivas Deep Neural Networks (DNN).

A empresa de identificação de tendências Gartner aponta que o termo Inteligência Artificial está superexposto, abrangendo uma série de inovações em diferentes estágios de desenvolvimento e com opiniões divergentes. Entretanto, em seu mais recente relatório sobre Machine Learning, faz um alerta específico aos investidores sobre a importância da DNN e suas tecnologias associadas, como ensemble learning e análise preditiva e prescritiva. A questão, apontam seus especialistas, não é o que ela é capaz de fazer e sim qual problema pode ser por ela solucionado.

Atualmente, os sistemas de Machine Learning estão presentes em tecnologias chave para o futuro, como os aparelhos Google Home e Amazon Echo. Pelo crescente investimento, é possível afirmar que esta breve história contada até aqui deve continuar pelas próximas décadas.

Poesia, espiões e duelos épicos: origens do Machine Learning

03/04/2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Poesia, espiões e duelos épicos: origens do Machine Learning”

Saiba mais sobre o surgimento e o desenvolvimento das máquinas que aprenderam a aprender.

Machine learning é um ramo da Inteligência Artificial com foco em sistemas capazes de aprender e evoluir de forma automática. Estes programas acessam e usam os dados disponíveis para descobrir padrões e tomar decisões sem intervenção humana. Gostamos de falar sobre o tema, como aqui e ali, mas embora seja um hot topic não podemos dizer que é novidade. Sua história já tem mais de um século e é repleta de drama, aventura, poesia e perseguições em laboratórios secretos.

Na matemática, sagrada musa de todos os programadores, o machine learning sustenta-se em fundamentos de desbravadores do século 19, entre eles o matemático russo Andrei Andreyevich Markov. Amante da poesia, aplicou fórmulas de probabilidade em poemas e, quando a Rússia fervilhava em revoluções, apresentou os conceitos do que viria a ser conhecido como Markov Chains. É uma técnica de análise em que, em uma sequência de variáveis randômicas, uma variável futura é determinada pela variável presente, sem necessidade de conhecimento do estado anterior. Ou, de forma mais simples, permite previsões do futuro baseadas apenas nos dados atuais, independentemente do que aconteceu no passado. É usada rotineiramente em sistemas atuais de machine learning. Está na base do Google.

O trabalho de Markov, assim como o de estatísticos e matemáticos como Thomas Bayes, Laplace e Legendre, todos ainda no século 19, formaram as bases para a programação. Bastava, apenas, é claro, o surgimento do computador. Para a história do machine learning, especificamente computadores capazes de armazenar programas (ou instruções) em sua memória, o que ocorre no final da década de 1940. São eles o Manchester Small-Scale Experimental Machine (1948), o Cambridge EDSAC e Manchester Mark 1 (1949) e o EDVAC da Universidade da Pennsylvania (1951).

É deste período uma das publicações mais instigantes de Alan Turing, um dos mais famosos e influentes pioneiros da computação e da Inteligência Artificial. Sua vida é um drama, e fica aqui nossa dica de filme: The imitation game. Um enredo com nazistas, espiões, laboratórios secretos e muita matemática, sem final feliz.

À mesma época, Marvin Minsky e Dean Edmonds construíram a primeira simulação, em computador, da capacidade de aprendizagem humana. O Stochastic Neural Analog Reinforcement Computer (SNARC), de 1951, feito de válvulas, tubos e uma memória mínima, procurava reproduzir as tentativas de um rato para encontrar a saída de um labirinto. E com sucesso. Minsky se tornaria um dos mais importantes pesquisadores do tema inteligência artificial ao longo das décadas seguintes.

É da década de 60 a descoberta do processamento multicamadas, que abriu um novo ramo na pesquisa por redes neurais, levando à backpropagation. Desenvolvido nos anos 1970, o algoritmo permitia às redes neurais adaptarem-se a novas situações, por meio análise de erros e reprogramação. É hoje usada nas deep neural networks, um dos mais avançados sistemas de machine learning.

A virada dos 1960 para os 1970 é marcada por estes avanços e a popularização do tema na cultura pop, em filmes como 2001: Uma odisseia no espaço, de Stanley Kubrick (assessorado por Minsky), com sua inteligência artificial psicopata HAL 9000.

Entretanto, longe das telas, era lento o desenvolvimento das ferramentas de análise de dados baseadas em inteligência artificial. Os anos sem o surgimento de descobertas ou invenções de impacto reduziram as expectativas de todos e foi somente na década de 1980, com um épico duelo transmitido mundialmente, que o mundo voltou a se ocupar do tema. Contaremos esta história no próximo post.

Big data contra a fome

01/03/2019 Posted by Data Science, Pessoas 0 thoughts on “Big data contra a fome”

Análise de dados sobre comércio internacional de alimentos ajuda a entender a dinâmica da fome no planeta.

Por três anos consecutivos a Organização das Nações Unidas para a Alimentação e a Agricultura (FAO) vem registrando aumento nos indicadores da fome ao redor do mundo. Os dados de 2017, apresentados no final do ano passado, apontam que 821 milhões de pessoas vivem subalimentadas.

Contudo, o analisar os dados de produção e distribuição de alimentos, surgem questões morais relevantes: A fartura em alguns países e a carestia em outros é fruto apenas de fatores geográficos, significando que os países mais ricos têm terras mais férteis, ao contrário dos que passam por dificuldades? Ou o contexto socioeconômico mundial e as características do comércio internacional de alimentos influenciam na escassez em alguns territórios?

Um grupo de estudiosos liderados por Kyle Davis, do Data Science Institute, analisou dados oficiais das Nações Unidas sobre o comércio de alimentos em quase 180 países, ao longo do período entre 1986 e 2010. No estudo, foram exploradas 266 commodities – tais como arroz, soja, trigo e milho, bem como produtos de origem animal.

O objetivo da pesquisa foi entender como o comércio internacional auxilia ou prejudica o acesso equilibrado aos alimentos em todo o mundo. Identificando as quantidades de mercadorias produzidas, vendidas e compradas e traçados os fluxos delas a cada ano, os cientistas compararam o cenário com o de um mundo hipotético, no qual nenhuma transação fosse feita.

A principal descoberta foi que, apesar das distorções e desigualdades inerentes ao capitalismo atual, as transações efetuadas contribuem para uma distribuição mais equitativa dos alimentos pelo mundo. É por meio delas que países com grandes populações ou recursos agrícolas limitados podem ter acesso a alguns itens dos quais necessitam.

O próximo passo é compreender melhor como, depois de destinados aos países importadores, os suprimentos são distribuídos para as populações dessas nações. Para atender plenamente aos preceitos da Declaração Universal dos Direitos Humanos em matéria de alimentação, é preciso garantir que as populações mais pobres tenham acesso a comida tão facilmente como as camadas mais abastadas.

E a análise dos dados pode ajudar nisso. Tomara que o faça.

Big Data, grande desafio

25/02/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Big Data, grande desafio”

Lidar com volumes massivos de dados é um desafio para organizações e pessoas.

A profusão de dados gerados e armazenados a cada segundo pelas incontáveis interações contemporâneas mediadas pela tecnologia ganhou um nome que soa quase como um eufemismo: Big Data. O termo já nasceu defasado, o mais condizente com a realidade seria huge, enormous, gigantic ou outro adjetivo relacionado à imensidão. São dados que não acabam mais.

O volume cria um manancial de possibilidades, mas lidar com Big Data ainda é uma missão repleta de desafios. A começar por ser um campo novo e sujeito aos avanços vertiginosos (e, muitas vezes, inesperados) da tecnologia.

Não se encontram em qualquer esquina profissionais com as competências exigidas. Cientistas de dados e especialistas em Big Data estão entre os mais bem remunerados e cobiçados profissionais de TI. Para as organizações pode ser dispendioso contratar ou capacitar uma equipe, e acumular o conhecimento necessário não é algo que aconteça da noite pro dia. As mudanças, contudo, ocorrem com frequência. Uma tecnologia aplicada hoje pode ser superada em questão de meses.

Boa parte das ferramentas utilizadas são de código aberto, o que representa um alívio no orçamento, mas ainda assim não se trata de algo barato. Os gastos com equipe, hardware, manutenção e outros ainda oneram as organizações. Espaço de armazenamento, largura da banda de rede e outros recursos computacionais são imprescindíveis, podendo dificultar ou inviabilizar um projeto.Também é comum que tanto o investimento previsto quanto o tempo necessário para a implantação de iniciativas dessa natureza sejam superados.

A segurança dos sistemas e os parâmetros de compliance e governança atualmente adotados ao redor do mundo são outros elementos que tornam o cenário complexo. Quanto mais dados armazenados – sobretudo os confidenciais –, maior é o interesse de criminosos cibernéticos em arquitetar um ataque. E cabe à organização detentora dessas informações zelar por sua inviolabilidade e integridade. Os casos de invasão de bancos de dados e vazamento de informações se sucedem, indo desde o Facebook (no famoso caso Cambridge Analytica) até instâncias militares de grandes potências como os EUA, passando por dezenas de grandes redes de vendas e prestação de serviços.

Também não basta que os dados existam e sejam armazenados. Sua qualidade influencia diretamente no potencial que eles têm de transformarem-se em ativos realmente valiosos, e os sistemas precisam ser integrados. O material deve ser bem apurado, relevante e estar formatado uniformemente, possibilitando os usos para os quais for destinado. Insights gerados a partir de dados sem qualidade podem ser irrelevantes ou até mesmo equivocados e, se as áreas da organização não estão interconectadas, a visão que esses dados podem fornecer torna-se limitada.

Ou seja, Big Data é uma das grandes promessas da atualidade e suas potencialidades podem ser ainda maiores do que as que já conhecemos, mas é preciso estar preparado para entrar nessa onda. Afinal, com grandes poderes, vêm grandes responsabilidades – e desafios.

O futuro não perdoa

22/02/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “O futuro não perdoa”

Big Data e Inteligência Artificial tiram o sono dos executivos das grandes empresas.

Qual inovação põe as empresas em maior risco de serem expulsas do mercado? A história está repleta de casos de organizações líderes em seu setor que foram dizimadas por avanços tecnológicos. A pesquisa Big Data Survey, com 60 empresas de grande porte, divulgada recentemente, revelou que 79,4% dos executivos, ou quase quatro em cada cinco, temem perder mercado para concorrentes de raiz tecnológica. No ano anterior, nem 50% dos entrevistados percebiam o perigo. O resultado é claro: o medo está aumentando.

E há razões. As mudanças causadas por avanços tecnológicos podem ser rápidas e poderosas. Listamos três casos recentes de companhias que tinham recursos financeiros e humanos disponíveis para enfrentar as mudanças, mas, por teimosia, arrogância ou falta de visão, perderam valor e não passam hoje de memórias de um passado não tão distante.

· Kodak: um dos exemplos mais didáticos das possibilidades abertas por novas tecnologias. A gigante do ramo de fotografia, quase sinônimo de câmeras e filmes, foi à lona com a disseminação das câmeras digitais (ironicamente desenvolvidas por seu próprio departamento de pesquisas).

· Blockbuster: Sucesso no mundo e no Brasil, símbolo de aluguel de fitas de vídeo, foi eleita a 13ª marca mais conhecida dos Estados Unidos, em 1999. Insistiu no investimento em lojas físicas em um mundo que recebeu com alegria os canais de TV a cabo. Nem precisou dos serviços de streaming. Quando a Netflix chegou, a Blockbuster já não era mais que uma sombra do seu passado.

· Olivetti: no Brasil, a empresa vendeu mais de 10 milhões de unidades e era top of mind em máquinas de escrever. Apostou pesado nas datilográficas elétricas, mesmo com o mundo já de olho na dupla computador e impressora.

 

O olhar em retrospecto é sempre cruel, uma vez que as empresas falharam e foram severamente punidas. A lição é olhar o presente e refletir sobre o que está ao redor e é capaz de causar o tipo de mudança tectônica como as enfrentadas pelas organizações abatidas. Neste momento, os olhos se voltam para a dobradinha entre Inteligência Artificial e Big Data.

Embora o potencial de uma e de outra seja conhecido, é a percepção da capacidade do Big Data prover dados relevantes para alimentar os processos de Inteligência Artificial a matéria dos pesadelos (ou sonhos) da alta direção das grandes empresas.

Em mercados distintos, como alimentos, saúde, transportes, essas empresas percebem o crescente poder de companhias data-driven, tanto sejam os gigantes da área, como Amazon, Google, Apple e Facebook, como startups ágeis e agressivas.

 

#10YearsChallenge: brincadeira viral ou coleta de dados?

18/01/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “#10YearsChallenge: brincadeira viral ou coleta de dados?”

Desafio que movimentou a internet pode ser um grande negócio para as empresas de tecnologia.

As redes sociais foram invadidas nos últimos dias por mais um divertido desafio: postar lado a lado uma foto tirada 10 anos atrás e outra atual. Acompanhadas da hashtag “#10YearsChallenge”, as postagens chegaram a mais de 5,5 milhões só no Instagram. Além dos anônimos, celebridades e até autoridades entraram no jogo.

Mas por trás de uma onda aparentemente inofensiva pode estar um processo valioso de coleta de dados. Em um artigo na revista Wired, a especialista em estratégia digital Kate O’Neill alertou para a possibilidade de as grandes empresas de tecnologia aproveitarem-se das informações que podem ser obtidas a partir das fotos postadas.

Todas as big players nesse setor – como o Google e o Facebook – investem pesado no aprimoramento de seus sistemas de reconhecimento facial, ano após ano. E quanto maior for o volume de dados qualificados que conseguirem captar, maior será sua efetividade na tarefa de identificar pessoas pelos traços da face. Nisso o desafio ajuda muito: faz com que milhões de pessoas postem fotos de si mesmas, todas identificadas com uma tag que agrupa as postagens semelhantes.

A reflexão de O’Neill começou com um tweet, e sua intenção não é criar uma sensação de pânico, mas levantar um tema a se pensar. Muitos até rebateram seus argumentos dizendo que boa parte das fotos usadas na brincadeira já estavam publicadas nas redes sociais, ou seja, repostá-las não traria nada de novo em matéria de conteúdo. Ela propõe outro ponto de vista: as regras do desafio podem auxiliar a criação de um vasto banco de dados de progressão de idade, pois todas mostram como os participantes envelheceram em um período aproximado de tempo. “Em outras palavras, graças a esse meme, agora há um conjunto de dados muito grande de fotos cuidadosamente selecionadas de pessoas de cerca de 10 anos atrás e agora”, diz a autora.

As aplicações do reconhecimento facial podem ser as mais variadas, da identificação de pessoas desaparecidas e de terroristas, passando pela publicidade direcionada e chegando até a influenciar nos custos do plano de saúde – caso alguém esteja envelhecendo rápido demais para os parâmetros da empresa que escolher.

Em um cenário distópico – mas não inimaginável –, a tecnologia pode até nos aproximar de uma realidade orwelliana, onde impera a vigilância full time, como no clássico livro “1984”. Mas não será (apenas) o #10YearsChallenge que nos levará até lá…

Big data em expansão

17/01/2019 Posted by Data Science, Tendências 0 thoughts on “Big data em expansão”

População na internet cresce para 3.8 bilhões de usuários.

So big data!

Estamos cada vez mais conectados e o volume de dados em circulação no mundo virtual cresceu, mais uma vez, de forma espantosa. Como todos os anos, a Domo divulgou sua pesquisa sobre a geração de conteúdo online.

Em cada minuto de 2018: 3.877 milhões de pesquisas no Google, 49,3 mil fotos publicadas no Instagram, 473 mil tweetadas e 750 mil músicas tocadas no Spotify. Nossa vida é cada vez mais virtual e um dos destaques do ano é o aplicativo de encontros Tinder, com 6,9 mil matches por minuto. Os dados revelam a crescente integração com o mundo real, em casos como os da Amazon, que empacotou 1,1 mil produtos, ou a Uber, com suas 1,3 mil corridas por minuto, no ano passado.

Os números não param de crescer, assim como a população na internet, que atingiu os 3.8 bilhões de pessoas, e são a expressão de uma característica única da rede. Ela é um organismo alimentado por todos nós. Cresce à medida que migramos para o banco online, o streaming de vídeo ou música, o aplicativo para transporte ou compras e consideramos aceitável transferir para as redes sociais virtuais nossas conexões reais.

Os números são estimados, pois a rede é descentralizada e não há controle sobre quem cria o quê, mas são valores extraordinários e inimagináveis poucas décadas atrás. O volume de informação disponível atordoaria os iluministas (não os iluminatti!) do século 18.

2018: o ano da transformação digital (por enquanto)

20/12/2018 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “2018: o ano da transformação digital (por enquanto)”

Big Data, Inteligência Artificial e Machine Learning permanecem em alta.

O ano de 2018 marcou um novo patamar no desenvolvimento das tecnologias e da ciência de dados, em se tratando de Big Data, Inteligência Artificial (IA), Machine Learning e outras vertentes. Com funcionalidades mais eficientes e, consequentemente, mais difundidas mundo afora, podemos dizer que este foi – ao menos até que 2019 termine e assuma o posto – o ano da “transformação digital”. Várias das mais tradicionais companhias seguiram neste caminho, sejam elas desenvolvedoras de soluções do gênero, sejam meras usuárias.

Em IA, alguns avanços vieram a olhos vistos, literalmente. Para citar um exemplo, houve grandes melhorias nas Generative Adversarial Networks, redes neurais capazes de gerar, por meio de algoritmos, fotografias com algum nível de verossimilhança. Nos testes os observadores ainda conseguem com certa facilidade distinguir fotos verdadeiras das resultantes do processo artificial, mas a melhoria nos resultados é perceptível.

Sistemas de Machine Learning baseados nos princípios computacionais de nosso cérebro, tais como o Recursive Cortical Networks, seguem sendo aprimorados. O software desenvolvido pela empresa norte-americana Vicarious busca interpretar fotos, vídeos e outros dados visuais de forma semelhante a como fazemos nós, humanos. Um de seus principais desafios é alcançar altos níveis de assertividade em testes CAPTCHA – de leitura de caracteres distorcidos, em qualquer contexto.

Mas tamanho avanço na área de IA, sobretudo a partir do desenvolvimento de Deep Learning nos últimos anos, curiosamente faz com que muitos especialistas compartilhem um sentimento de “e agora?”. A base disso está no questionamento, feito por parte de alguns, dos fundamentos e das abordagens desse ramo da ciência. O receio nem é tanto pela ameaça de dominação do mundo pelas máquinas: é que a exagerada hype que o campo vive possa culminar em desapontamento e descrédito. A defesa é que o desenvolvimento continue, mas com aplicações práticas concretas e benéficas para a sociedade.

A reboque da adesão de mais e mais pessoas e organizações à tecnologia, aumentou também o conhecimento por parte do público das possíveis armadilhas que uma vida ultraconectada esconde. Mais pessoas estão cientes dos riscos que a massiva coleta e tráfego de dados pessoais pode oferecer. Casos com ampla repercussão como o da Equifax e da Cambridge Analytica colocaram uma pulga atrás da orelha de muita gente, e seus desdobramentos não param. Notícia recente aponta que o Facebook além de ter colaborado com a consultoria política que ajudou a eleger Donald Trump, também forneceu informações privadas de seus usuários para serviços como a Netflix e o Spotify.

A rede social de Mark Zuckerberg e a Google são detentoras dos dados coletados por suas ferramentas – pelos termos aos quais seus usuários aderem. A disponibilidade dessa matéria prima as coloca em posição privilegiada para identificar perfis, detectar tendências e identificar oportunidades, bem como para desenvolver IA e outras soluções.

Uma tendência que aparece como possibilidade para aumentar a segurança e mesmo permitir que outros players desenvolvam IA é a tecnologia Blockchain. O sistema promete altos níveis de confiabilidade, dando aos usuários mais tranquilidade em fornecer seus dados, que seriam processados de forma completamente anônima e irrastreável. Iniciativas nessa direção cresceram este ano, mas as dúvidas relativas à regulamentação das criptomoedas (intrínsecas ao blockchain) colocaram a tecnologia em modo de espera.

A capilarização da tecnologia nos âmbitos pessoais e profissionais amplia as funcionalidades oferecidas, mas sob o risco de abusos e crimes. Esta percepção das responsabilidades e riscos atrelados aos novos poderes oferecidos pelas tecnologias foi também crescente ao longo do ano e, assim como a transformação digital, promete crescer ainda mais em 2019. 

Um elétron de cada vez

28/11/2018 Posted by Data Science, Tecnologia, Tendências 1 thought on “Um elétron de cada vez”

Boas notícias para a computação quântica.

Qubits e seus múltiplos estados

 

A computação quântica aproveita-se da estranha habilidade das partículas subatômicas de existirem em mais de um estado ao mesmo tempo. Nos sistemas atuais, a informação é lida em dois estados: 1 ou 0. Ou seja, enquanto um bit atual pode armazenar apenas 1 ou 0, os quantum bits, ou qubits, podem armazenar muito mais. Como resultado, a capacidade de memória é extraordinariamente maior e as operações são feitas muito mais rapidamente e com reduzido uso de energia.

As aplicações são inúmeras e podem gerar uma revolução. “Não sabemos realmente o que será possível alcançar”, reconhece Prasanna Pakkiam, o Ph.D. autor do artigo recém-publicado aqui, com boas notícias para o desenvolvimento desta tecnologia capaz de revolucionar. Veja algumas das possibilidades:

 

  • Avanços no modelamento de reações químicas complexas, capazes de revolucionar a geração e o armazenamento de energia. Pense em um mundo com energia limpa, barata e abundante.
  • Simulação de comportamento molecular e consequente design de novas moléculas para uso na medicina e genética. Pense em um mundo sem doenças.
  • Modelos complexos de análises de dados e aumento exponencial da capacidade de previsão, aliada à possibilidade de intervir. Pense em mundo sem desastres naturais.

 

O caminho, entretanto, é longo. As máquinas operam com princípios totalmente diferentes dos atuais, o que torna alienígena tanto o hardware como a própria programação. Na prática, a pesquisa é uma luta diária para solucionar um problema depois do outro, com avanços ocorrendo “um elétron de cada vez”. Há times investindo pesado em desenvolvimento, como IBM, Intel e Alphabet, mas também startups e grupos independentes em universidades e centros de pesquisa ao redor do mundo.

O mais recente avanço veio da Austrália, com o time do Centre of Excellence for Quantum Computation and Communication Technology, da University of New South Wales. Eles anunciaram o desenvolvimento de uma solução para acessar as informações nos qubits.

Os sensores (chamados de gates) enfrentam o desafio de ler os dados no mundo ínfimo e instável dos átomos. As três gates usadas interferiam nos resultados. Eram grandes demais para operar nos espaços reduzidos do universo quântico. Os pesquisadores apresentaram uma solução que usa apenas uma gate e é capaz de obter leituras mais rápidas e consistentes, abrindo caminho para novas soluções. Ou novos problemas a enfrentar.