Posts by gotodata

Tecnologia à flor da pele

14 de janeiro de 2020 Posted by Tecnologia 0 thoughts on “Tecnologia à flor da pele”

“Pele” artificial promete ampliar as possibilidades de interface entre humanos e máquinas.

A computação e o uso das tecnologias digitais se popularizaram quando os inventores e as corporações conseguiram encontrar caminhos para tornar esse mundo mais próximo das pessoas comuns. A criação de interfaces instintivas e dispositivos de fácil utilização permitiu um mundo de interações e usos. Um exemplo longevo é o mouse, que ganhou aprimoramentos em suas décadas de existência mas ainda hoje se assemelha com seu projeto original (assunto do qual já falamos em um post muito interessante aqui no blog).

Pesquisadores da Faculdade de Engenharia da Universidade de Bristol, em parceria com a Telecomm ParisTech e a Universidade de Sorbonne, estão desenvolvendo uma tecnologia com potencial de abrir muitas outras possibilidades. Com a sua “Skin-On”, eles buscam imitar a pele humana e gerar inputs para computadores, tablets, smartphones e outros aparelhos. 

Imitando as camadas da pele humana, os protótipos possuem uma camada texturizada na superfície, uma de eletrodos e fios condutores e uma de “hipoderme”. Assim, a Skin-On permite sensações para muito além do toque detectável por touchpads ou telas de aparelhos celular. Ela é capaz de captar vários gestos, detectar localização e pressão e “sentir” cócegas, carícias, torções e beliscões. 

“A pele artificial é amplamente estudada no campo da robótica, mas com foco em objetivos de segurança, sensoriamento ou cosmético. Esta é a primeira pesquisa que conhecemos que analisa a exploração de pele artificial realista como um novo método de entrada para dispositivos de realidade aumentada”, comenta Marc Teyssier, principal autor da pesquisa.

Neste vídeo é possível ver uma demonstração das funcionalidades que a Skin-On oferece. A ideia é agregar aos aparelhos possibilidades de interação e comunicação. A Dra, Anne Roudaut, supervisora da pesquisa, professora associada de interação humano-computador da Universidade de Bristol, comenta o objetivo do experimento: “Este trabalho explora a interseção entre homem e máquina. Vimos muitos trabalhos tentando aprimorar humanos com partes de máquinas. Aqui, examinamos o contrário e tentamos tornar os dispositivos que usamos todos os dias mais parecidos conosco”, disse o Dr. Roudaut.

O artigo publicado descreve as etapas para replicar a pesquisa e os estudiosos interessados em integrar o desenvolvimento são convidados a entrar em contato. Os próximos passos devem envolver a incorporação de mais características da pele humana, tais como pelos e sensibilidade à temperatura. Os resultados prometem ser de arrepiar.

Computação quântica versus criptografia: uma ameaça?

9 de janeiro de 2020 Posted by Tecnologia, Tendências 0 thoughts on “Computação quântica versus criptografia: uma ameaça?”

Avanços da Computação Quântica impressionam, mas também preocupam especialistas em segurança.

Sinais concretos de uma Computação Quântica funcional já começam a aparecer. Após a notícia de que a Google pode ter alcançado esse feito com seu processador Sycamore, essa realidade parece cada vez mais próxima. Nesse contexto, é natural que cientistas e empresas busquem se aprimorar e sair na frente dessa corrida tecnológica.

Quanto mais estudos sobre o tema, mais se especula sobre as possibilidades que a Computação Quântica pode trazer, aumentando as expectativas mas também as preocupações, sendo a segurança uma das mais urgentes.

A criptografia é a base da segurança na internet e é essencial para comércio, privacidade e até mesmo segurança nacional. A criptografia moderna consiste na codificação de informações para que o acesso a elas seja limitado, normalmente por quem possui a “chave” para esse código, como é o caso das senhas em sistemas online. Esses dados estão relativamente seguros nos dias de hoje, ainda que a ação de crackers possa ser uma ameaça.

A Computação Quântica se  baseia em máquinas capazes de fazer cálculos muito mais rápidos que as atuais, aumentando a eficiência e até otimizando o consumo de energia, e isso abre portas para os mais diversos avanços, desde simulações, modelamentos e análises complexas. Mas esse poder de processamento também pode servir a pessoas mal-intencionadas. Especialistas temem que o processo de desencriptação seria muito mais fácil e rápido em computadores quânticos e, assim, boa parte da nossa base de dados estaria desprotegida.

A Dra. Jill Pipher, Presidente da Sociedade Americana de Matemática, pesquisadora das ameaças à segurança que vêm com essa nova vertente tecnológica, alerta: “devemos começar agora a preparar todos os nossos sistemas de segurança da informação para resistir à computação quântica. Primeiro, perceber o poder da computação quântica e [segundo] proteger contra os perigos que ela pode trazer.”

Pipher acredita que um método de criptografia que tem potencial de resistir à computação quântica é o que desenvolveu em 1996 com Jeffrey Hoffstein e Joseph Silverman, chamado NTRUEncrypt. Ele é mais eficiente que outros tipos tradicionalmente usados, como o RSA (Rivest-Shamir-Adelman) ou ECC (criptografia de curva elíptica). “Descobrimos que o sistema de criptografia que construímos não pode ser quebrado por um computador quântico”. Mas mesmo com essa aposta, ela conclama para que mais pesquisadores se empenhem em buscar soluções: “Precisamos de muito mais pesquisas nessa área”. 

O DNA das coisas

7 de janeiro de 2020 Posted by Tecnologia 0 thoughts on “O DNA das coisas”

Tecnologia em desenvolvimento permite armazenar em objetos instruções para que sejam replicados, servindo como o material genético para os seres vivos.

Seres vivos vêm se reproduzindo há milhões de anos na Terra graças a um segredo sofisticado da natureza: possuem em suas células as instruções exatas para gerar “cópias” que levem as características de sua espécie adiante no tempo. Por sua vez os objetos inanimados só podem ser replicados quando se dispõe das instruções exatas para sua fabricação e do conhecimento certeiro de seus componentes. É a desvantagem de não possuírem um DNA. Pelo menos por enquanto. 

Os pesquisadores Robert Grass e Yaniv Erlich estão trabalhando em uma possível solução para isso: “Com o método que estamos desenvolvendo, podemos integrar instruções de impressão 3D em um objeto, para que, após décadas ou mesmo séculos, seja possível obter essas instruções diretamente do próprio objeto”, explica Grass. 

O professor do Departamento de Química e Biociências Aplicadas da ETH Zurich desenvolveu uma forma de embutir em minúsculas contas de vidro uma espécie de “código de barras” passíveis de serem usados em diversos materiais, que podem servir como rastreadores em testes geológicos ou para identificar produtos de alta qualidade e distingui-los de falsificações, por exemplo. Por sua vez, Erlich trouxe um incremento ao modelo de Grass – capaz de armazenar no máximo 100 bits, ou seja, uma sequência com uma centena de algarismos 0 ou 1 – ao apresentar uma alternativa que em tese pode comportar até 215 mil terabytes de informações. 

O invento dos dois vem sendo chamado de “DNA das coisas”, pegando carona no badalado termo “Internet das Coisas” (do qual já falamos algumas vezes aqui no blog). 

Um dos testes consistiu na impressão em 3D de um coelho de plástico no qual foram inseridas suas instruções de impressão (cerca de 100 kilobytes de dados). “Assim como coelhos de verdade, nosso coelho também carrega seu próprio projeto”, comenta Grass. A equipe foi capaz de recuperar as informações de uma pequena parte do coelho e usá-las para imprimir um novo cinco vezes consecutivas, dando origem ao que seria o tataraneto do “coelho patriarca”.

A tecnologia também pode ser usada para ocultar informações em objetos do cotidiano, em uma aplicação da técnica chamada de esteganografia. Para demonstrar essa aplicação, Erlich e Grass fizeram uma referência ao passado, armazenando nas lentes de um óculos um curta-metragem sobre um arquivo secreto que é um dos raros registros da vida no Gueto de Varsóvia, durante a Segunda Guerra Mundial, escondidos em latas por um historiador judeu sobrevivente. “Não seria problema levar óculos como esse pela segurança do aeroporto e, assim, transportar informações de um lugar para outro sem ser detectado”, diz Erlich. 

As contas de vidro podem, supostamente, ser incorporadas em vários plásticos que não atinjam temperaturas muito altas durante sua fabricação, tais como epóxidos, poliéster, poliuretano e silicone. 

Além das aplicações já citadas, as “nanocontas” podem ter muitas outras funcionalidades, como marcar medicamentos, tintas ou colas, por exemplo. Autoridades médicas podem ler os resultados de testes de controle de qualidade diretamente do produto e trabalhadores podem acessar dados sobre o fabricante ou as propriedades de materiais que utilizam, entre diversas outras possibilidades. 

O método ainda é caro, mas segue sendo aprimorado em busca de se tornar mais acessível. A “tradução” das informações de impressão do coelho custou 2 mil francos suíços (mais de 8 mil reais).

O que deve estar na agenda dos CIOs?

2 de janeiro de 2020 Posted by Negócios, Tecnologia, Tendências 0 thoughts on “O que deve estar na agenda dos CIOs?”

Levantamento da Gartner mostra insights para líderes de informação e tecnologia.

“Há uma marcha implacável em direção à maturidade digital”. E mais: “o digital não é mais um diferencial”. Com essas frases categóricas – afirmações que já não são tão surpreendentes assim para você que acompanha o blog da GoToData e está ligado nas tendências –, o analista do Gartner Andy Rowsell-Jones apresentou os resultados da pesquisa CIO Agenda 2020

O levantamento, realizado anualmente pelo Gartner Inc., trouxe em sua última edição dados acerca dos processos de transformação digital. Dos mais de mil CIOs (Chief Information Officer) entrevistados, 40% afirmaram que conseguiram escalar iniciativas digitais que fomentaram a tecnologia para gerar mudanças significativas em seus negócios, o que representou um aumento de 17% em relação ao período anterior. 

Entretanto, a maior parte das organizações está só aprimorando os modelos de negócio já existentes, e não promovendo transformações a partir de suas vulnerabilidades. Desses insights surgem algumas dicas para enfrentar essas ameaças e os ciclos de disrupção digital:

  • É preciso analisar bem os horizontes do negócio e da empresa. Os melhores líderes examinam o contexto para identificar tendências e, assim, direcionam suas ações no sentido da onda de mudanças. Ao antecipar as curvas de mudança, consegue liderar seu time com coesão e sintonia.
  • Desenvolver processos e plataformas ágeis é outro diferencial. CIOs devem estar preparados para não apenas reagir, mas para sair na frente. 
  • É altamente valioso mostrar-se adaptável, dado o cenário de constante mudança. Equilíbrio entre planejamento e estratégias claras, de um lado, e capacidade de se adequar às demandas, de outro.
  • Também é importante para os CIOs investir com inteligência na tecnologia e construir relacionamentos sólidos. Quanto mais sintonizado está com os demais do C level, melhores os resultados e maior a capacidade de responder ao mercado. 

Rowsell-Jones dá ainda a tônica para o ano que está prestes a começar. Segundo ele, as empresas precisam estar preparadas para a eventualidade de crises, inflexões e disrupções: “O sucesso em 2020 significa aumentar a preparação da organização de TI e da empresa para suportar a interrupção iminente dos negócios, planejando-o com antecedência.”

Em busca do TechQuilibrium

26 de dezembro de 2019 Posted by Negócios, Tecnologia, Tendências 0 thoughts on “Em busca do TechQuilibrium”

Entenda o significado do mais novo termo no cenário da transformação digital.

Com o mercado cada vez mais competitivo e sujeito a disrupções, sobretudo pela influência dos avanços digitais, recai sobre os líderes de tecnologia das empresas a responsabilidade por equilibrar as demandas do cenário em que elas estão inseridas e suas possibilidades de ação e/ou reação diante disso. É o que o Gartner batizou de TechQuilibrium: o ponto de equilíbrio tecnológico capaz de definir o quão digital a empresa precisa ser para competir ou liderar a sociedade digital. 

“Atualmente, a maioria das organizações precisa acelerar suas iniciativas digitais para alcançar seu TechQuilibrium. Porque quanto mais longe a empresa estiver do ponto de TechQuilibrium de seu setor, maior será a probabilidade de sofrer algum tipo de interrupção”, afirma Don Scheibenreif, pesquisador vice-presidente do Gartner. O caminho, segundo a consultoria, passa por quatro aspectos: 

  • tomada de decisão corporativa;
  • liderança;
  • experiência do cliente; 
  • e sociedade digital.

Cada vez mais as empresas fazem uso da tecnologia para embasar a tomada de decisões. Os gestores precisam se manter informados e atualizados e o mote deve ser extrair o máximo possível de benefícios dessa relação. “O Gartner prevê que, até 2022, 40% dos funcionários consultarão um agente de Inteligência Artificial para suporte à decisão. A maioria dos ambientes, particularmente os complexos e ricos em dados, exigirá uma parceria entre humanos e máquinas, com máquinas realizando o trabalho pesado de processamento de dados e pessoas interpretando e reforçando as decisões”, comenta Scheibenreif. 

A pesquisa Board of Director 2020 do Gartner apontou que dois em cada três diretores enxergam as questões digitais e tecnológicas como o desafio de negócio mais importante. E mais da metade deles consideram que iniciativas digitais serão a prioridade número um nos próximos dois anos. Isso evidencia a importância de os líderes assumirem posturas mais proativas e ofensivas – e não só reativas – rumo ao TechQuilibrium. 

Os clientes num mundo tecnológico, por sua vez, querem cada vez mais resolver suas demandas pelo smartphone, o que por vezes gera uma situação conflitante: esperam ter todas as soluções disponíveis em um aplicativo móvel, mas que seja simples e fácil de usar. O desafio é promover cada vez mais experiências que gerem valor para que os consumidores se engajem com sua marca. “Para fazer isso, as organizações precisam de uma plataforma tecnológica que traga vida a essas experiências bem projetadas. O Gartner chama isso de plataforma de múltiplas experiências”, explica Helen Huntley, uma das vice-presidentes do Gartner.

Tudo isso está inserido num contexto de sociedade digital, repleta de interações entre pessoas, organizações e coisas. Inteligência artificial e Internet das Coisas, por exemplo, já não são mais ficção. Encontrar os dados não é mais um problema. A grande questão é como usá-los com excelência. “Três coisas são necessárias para equilibrar o valor e o uso responsável dos dados – a governança sólida da informação, a oferta de valor real baseado em informações para que as pessoas possam ver como o compartilhamento de dados pode beneficiá-las, e a oferta de mais transparência e controle para ganhar confiança”, comenta De’Onn Griffin, diretor sênior de pesquisa do Gartner.

Dito tudo isso, fica a pergunta: quão próximo você está de alcançar o TechQuilibrium? 

Crédito: Mike MacKenzie (www.vpnsrus.com)

Inteligência artificial: o assunto do ano

21 de dezembro de 2019 Posted by Tecnologia, Tendências 0 thoughts on “Inteligência artificial: o assunto do ano”

Em retrospectiva de 2019 no blog da GoToData, o tema foi dos que mais despertou o interesse dos leitores. 

A Inteligência Artificial (IA) saiu dos filmes de ficção científica e já está entre nós, às vezes muito mais do que nos damos conta. Não à toa o assunto apareceu por várias vezes aqui no blog da GoToData, e nem é necessário um algoritmo para atestar isso. Ao longo de 2019 trouxemos notícias e reflexões sobre diversos aspectos dessa tecnologia que revoluciona o mundo. 

As ferramentas que fazem uso da IA e passaram por aqui são as mais variadas e intrigantes. Desde o algoritmo capaz de encontrar a solução para um cubo mágico em questão de segundos e o sistema que auxilia a escolha dos filmes da Sessão da Tarde – e adora o Adam Sandler! –, até a tecnologia que permite a um catéter “navegar” pela corrente sanguínea em busca de vazamentos e um veículo a andar de forma inteligente e autônoma

Nessa jornada, descobrimos que até já existem máquinas incrivelmente competentes em escrever textos e ficamos preocupados com o futuro dos nossos redatores humanos! Uma brincadeira, é claro, mas que nos remete à atenção que vários especialistas têm dado às implicações do desenvolvimento da automação e da IA no mundo do trabalho. Falamos do receio de sermos superados ou até mesmo dominados pelas máquinas e de como a IA pode criar, na opinião do escritor e historiador israelense Yuval Noah Harari, uma “geração de inúteis” (do ponto de vista econômico e financeiro). Parece consenso que só os diferenciais dos humanos em relação às máquinas e um pacto global pelo desenvolvimento consciente e responsável da tecnologia podem nos salvar. 

Nesse sentido, refletimos sobre como a presença de uma visão humanista dentro das equipes que criam, aperfeiçoam e utilizam os sistemas de IA é cada vez mais necessária, para torná-los mais úteis e evitar, por exemplo, que reproduzam julgamentos e visões preconceituosas. Vários experimentos baseados na interlocução de humanos com robôs caminham no mesmo sentido de buscar equilíbrio e explorar o potencial positivo dessa relação, como o que colocou computadores para mediar conflitos, o que analisou a posição das pessoas diante de um dilema moral envolvendo robôs e o que testou o quanto os participantes se afetavam com a pressão exercida por um agente não-humano

Em 2020 e nos anos seguintes a aposta é que o assunto – tão atual e relevante que marcou presença forte até mesmo na última prova do ENEM – continuará na pauta do desenvolvimento científico e seguirá impactando nossas vidas. O futuro próximo promete grandes doses de inovação. Vamos juntos acompanhar as cenas dos próximos capítulos?

Um veterano retorna mais sensível ao espaço

17 de dezembro de 2019 Posted by Tecnologia 0 thoughts on “Um veterano retorna mais sensível ao espaço”

CIMON, Robô dotado de Inteligência Artificial, volta à Estação Espacial Internacional com a capacidade de analisar emoções humanas.

Em “2001: uma odisseia no espaço” – história de Arthur C. Clarke imortalizada no cinema sob direção de Stanley Kubrick – o computador HAL 9000 comanda a nave espacial Discovery, onde se passa boa parte da trama. Dotado de Inteligência Artificial (IA), ele interage com os tripulantes, joga xadrez, aprecia manifestações artísticas e é capaz de expressar e interpretar emoções humanas. 

Pouco mais de cinquenta anos após o lançamento do filme, pioneiro em abordar os limites e dilemas da ainda incipiente IA, vemos algo semelhante acontecendo na vida real. No início de dezembro a cápsula espacial Dragon, da SpaceX, levou pela segunda vez à Estação Espacial Internacional (ISS, na sigla em inglês) o robô CIMON, primeiro assistente de astronauta com IA. O dispositivo foi desenvolvido conjuntamente pela IBM, a Airbus e o Centro Aeroespacial Alemão (DLR).

O nome é derivado de Crew Interactive Mobile Companion (“Companheiro Móvel Interativo da Tripulação”, em tradução livre) e pronuncia-se Simon. Embora não tenha formato humanóide e ostente um “rosto” cartunesco, CIMON retorna ao espaço com aprimoramentos, sobretudo em relação à sua capacidade de lidar com as emoções humanas. 

“Quando implantado pela primeira vez na ISS, CIMON provou que podia entender não apenas o conteúdo dentro de um determinado contexto, mas também a intenção por trás dele”, comenta Matthias Biniok em comunicado da IBM. O sistema foi atualizado com o “Watson Tone Analyzer”, ferramenta que permite avaliar as emoções dos astronautas e responder às situações de maneira apropriada. “Com esta atualização, CIMON transformou-se de assistente científico em parceiro empático de conversação”.

O assistente tem se mostrado bem-sucedido na missão de auxiliar os tripulantes da ISS. Nos estreitos corredores da Estação Espacial, ele ajuda nos experimentos científicos realizados em ambientes sem gravidade, exibindo instruções, gravando imagens e avaliando o processo. Com isso, poupa tempo entre os procedimentos e facilita a consulta de informações. Em um ambiente hostil e estressante aos humanos, tem sido um bom companheiro. 

Veteranos do espaço, tais como CIMON, podem ser nossos olhos e ouvidos em viagens aos confins do universo. “Se você vai para a Lua ou para Marte, você não pode levar todos os engenheiros com você. Então, os astronautas estarão por conta própria. Mas com a inteligência artificial, você tem disponível instantaneamente todo o conhecimento da humanidade” comenta Christian Karrasch, líder do projeto no DLR. Só esperamos que CIMON cresça e torne-se um aliado, e não um psicopata, como seu colega da ficção. 

2019 chega ao fim e Data Science segue em alta

12 de dezembro de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “2019 chega ao fim e Data Science segue em alta”

Dados, Inteligência Artificial e Machine Learning dominaram o ano.

A última década marcou avanços extraordinários na tecnologia, abrindo caminhos para um novo ciclo que promete ser ainda mais disruptivo. Às portas dos anos 2020, a Ciência de Dados, a Inteligência Artificial (IA) e outros segmentos afins consolidaram sua posição de destaque e seguirão na pauta. 

O relatório anual “Data Science and Machine Learning Market Study”, da Dresner Advisory Services, trouxe uma série de insights e informações sobre esse contexto. A começar pelo fato de que iniciativas relacionadas a Data Science e Machine Learning (ML), tais como análises preditivas, algoritmos avançados e mineração de dados, apareceram no oitavo lugar entre 37 tecnologias e práticas consideradas como prioritárias por empresas que adotaram IA e ML em 2019. 

Os departamentos de marketing e vendas são os que demonstraram valorizar mais a ciência de dados como instrumento para ajudar a alcançar suas metas e resultados. Quatro em cada dez equipes afirmaram que os dados são essenciais para o sucesso de seus setores. Na sequência, apareceram os segmentos de Business Intelligence Competency Centers (BICC), Pesquisa e Desenvolvimento (P&D) e Gerência de Público. 

O alto nível de interesse compartilhado por esses departamentos reflete esforços para definir novos modelos de receitas e melhorar a experiência dos usuários usando dados,  IA e ML. Um terço das empresas entrevistadas adotou alguma ferramenta do tipo, a maioria delas utilizando até 25 modelos diversos. 

Entre os setores que mais acreditam no potencial de dados, ML e IA para seu sucesso no mercado estão os serviços financeiros e de seguros, assistência médica, atacado e varejo. 

Outro dado interessante e que mostra o poder dessas tecnologias no mundo corporativo atual apontou que 70% dos departamentos de P&D têm maior probabilidade de adotar Data Science, ML e AI. Para o time da Dresner, isso é um indicativo de que o desenvolvimento dessas ferramentas deve aumentar ainda mais nos próximos anos. 

Além do mais, 2019 foi o ano recorde em matéria de interesse das empresas nesse tipo de recurso. O levantamento, que começou a ser feito em 2014, vem mostrando ano após ano o crescimento desse interesse. “Desde então, expandimos nossa cobertura para refletir mudanças de opinião e adoção e adicionamos novos critérios, incluindo uma seção que abrange redes neurais”, comenta Howard Dresner, fundador e diretor de pesquisa da Dresner.

Ada Lovelace e o mistério do bug original

10 de dezembro de 2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Ada Lovelace e o mistério do bug original”

História e legado da condessa britânica considerada a primeira programadora da história vêm sendo redescobertos.

Hoje é aniversário de Ada Lovelace, pioneira da programação. Com sua inteligência brilhante, ela anteviu as possibilidades dos computadores, muito antes dos computadores serem construídos.

Nascida em 10 de dezembro de 1815, em Londres, Augusta Ada King teve uma vida curta e intensa. Sua mãe casou e rapidamente se separou do poeta, dândi e maluco Lord Byron. Recebeu uma educação esmerada (em ciências, não em etiqueta, como era de praxe na época para as mulheres) e desde criança demonstrou aptidão para a matemática. Casou-se com William King em 1835, recebendo o título de Condessa de Lovelace. Ambos adoravam corridas de cavalos. Morreu aos 37 anos, após uma série de problemas de saúde.

Aos 17 anos ela ficou amiga do matemático Charles Babbage, inventor da “Máquina Diferencial”, um mecanismo (movido a vapor!) capaz de fazer cálculos avançados para a época e que é hoje considerado o primeiro “computador”. Este vídeo bacana (em inglês) mostra uma exibição de como ele seria. Encantada com as possibilidades oferecidas pelo dispositivo, Ada usou seu aristocrático círculo de influências para divulgar e buscar fundos para sua construção.

O projeto teve um protótipo construído (quase um MVP), mas Babbage abandonou a iniciativa e concentrou suas forças em um modelo mais avançado, a “Máquina Analítica”. Em 1843, Ada traduziu para o inglês e acrescentou notas a um trabalho do engenheiro italiano Luigi Federico Menabrea sobre a Máquina Analítica. Nestas notas (muito mais extensas que o próprio artigo) estão as maiores contribuições de Ada para a ciência. Em uma delas (nota A) ela registra (pela primeira vez na história) que no futuro o invento seria capaz de não apenas fazer cálculos, mas também de processar qualquer tipo de relação entre grandezas e poderia, por exemplo, “compor músicas”. O que é muito comum hoje, veja aqui, por exemplo.

Sua contribuição mais famosa, no entanto, é uma proposta de código para rodar na invenção. Não era uma linguagem, no sentido que elas não existiam ainda, mas sim uma sequencia a ser executada para o cálculo dos números de Bernoulli. Feitos à mão, seriam cálculos que demorariam meses e gerariam todo tipo de erro. Ada Lovelace mostrou como a máquina pensada por Babbage poderia resolver o problema em muito menos tempo.

Recentemente, diversos programadores tentaram (e conseguiram) recriar o programa em linguagens atuais. Em C, temos uma tradução bem famosa aqui. Seu programador, Sinclair Target, explica no blog Two-bit History que não é uma recriação exata, mas um esforço que procurou ser o mais fiel possível, e que o teste mostrou como Lovelace efetivamente dominava o que no futuro chamaríamos de linguagem de programação, com a previsão de loops e outras ferramentas. No entanto, nas palavras de Sinclair:

Para a minha frustração, os resultados não estavam corretos. Depois de alguns ajustes, finalmente percebi que o problema não era o meu código. O bug estava no original!

Um bug é um erro ou falha no código e, no diagrama de 1842, uma operação indicava v5 / v4, quando o correto seria v4 / v5. Típico erro de “digitação” ou falha do programador? Não é possível identificar, mas é a situação em que o erro apenas comprova que Lovelace era realmente uma programadora. Programar é enfrentar os bugs. Há uma versão em Python, aqui.

As contribuições de Ada Lovelace permaneceram esquecidas por mais de um século e somente nas últimas décadas, com pesquisas sobre a história da computação, ela ganhou o status de pioneira da programação. Desde 2009, comemora-se em outubro o Dia de Ada Lovelace, uma celebração das conquistas femininas nas ciências.

Existem muitos livros sobre ela, mas nossa dica é uma ficção histórica, o romance steampunk A Máquina Diferencial, de William Gibson e Bruce Sterling. A narrativa é baseada na seguinte premissa: a máquina idealizada por Babbage é efetivamente construída e concede à Inglaterra uma vantagem estratégica no mundo, em plena Revolução Industrial, e neste cenário misturam-se espiões, exploradores e cientistas. O livro traz Lady Lovelace entre seus personagens.

Computadores-bebê e as leis da física

6 de dezembro de 2019 Posted by Pessoas, Tecnologia 0 thoughts on “Computadores-bebê e as leis da física”

Sistema avalia o comportamento de objetos em uma cena a partir de percepções intuitivas da física.

A grade curricular do ensino básico no Brasil só aprofunda os conteúdos de Física no ensino médio, quando os alunos já estão na adolescência. Mas a percepção das leis universais físicas é algo que já desenvolvemos desde os primeiros meses de idade. Ou, como explica , Kevin A. Smith, cientista do Departamento de Ciências do Cérebro e Cognitivas (BCS) e membro do Centro de Cérebros, Mentes e Máquinas (CBMM) do Massachusetts Institute of Technology (MIT):  

“Quando os bebês completam 3 meses de idade, eles têm uma noção de que os objetos não piscam para dentro e para fora da existência e não podem se mover através de outros ou se teletransportar”

Smith é um dos responsáveis pela criação de um modelo de Inteligência Artificial (IA) que compreende conceitos básicos de física intuitiva relacionados ao comportamento de objetos. O objetivo é desenvolver ferramentas melhores de IA e fornecer aos estudiosos uma melhor compreensão da cognição infantil.

O sistema chamado ADEPT observa objetos em movimento em determinada cena e prevê como eles devem se comportar a partir de sua física subjacente. A cada quadro do vídeo é emitido um “sinal de surpresa”, que é tanto maior quanto mais improvável seja o comportamento do item observado. 

Dois módulos compõem o experimento. Um extrai informações sobre o objeto (tais como posição, forma e velocidade), enquanto o outro prevê as representações futuras com base em um conjunto de possibilidades. 

Por exemplo: se um objeto está atrás de uma parede, espera-se que ele permaneça lá, a não ser que algum fator externo incida sobre ele. Se a parede cair e o objeto tiver desaparecido, há uma incompatibilidade com um preceito físico. O modelo “pensa” assim: “havia um objeto que, segundo minha previsão, deveria continuar ali. Ele desapareceu. Isso é surpreendente!”. 

Nos testes comparativos da percepção do computador e de humanos, os níveis de surpresa registrados foram semelhantes. Mas curiosamente o sistema se mostrou surpreso em algumas situações em que as pessoas não foram surpreendidas (mas talvez devessem ter sido). Em um vídeo em que um objeto se move a certa velocidade, passa por trás de uma parede e sai imediatamente do outro lado, o que só aconteceria se ele tivesse acelerado de forma impressionante ou teletransportado, duas coisas absolutamente improváveis. As pessoas não deram muita bola para essa incongruência, mas o ADEPT se incomodou. 

Outra característica interessante é que como a identificação da cena observada é feita por geometria aproximada (sem grande atenção aos detalhes), o sistema demonstrou versatilidade para lidar com objetos para os quais não foi treinado. 

“Não importa se um objeto é um retângulo, um círculo, um caminhão ou um pato. A ADEPT apenas vê que há um objeto em uma posição, movendo-se de uma certa maneira, para fazer previsões”, diz Smith. “Da mesma forma, crianças pequenas também parecem não se importar muito com algumas propriedades como a forma ao fazer previsões físicas”.

Na sequência dos estudos, os pesquisadores pretendem se aprofundar na investigação de como as crianças observam e aprendem sobre o mundo, incorporando essas descobertas no ADEPT. “Queremos ver o que mais precisamos construir para entender o mundo como os bebês e formalizar o que sabemos sobre psicologia para criar melhores agentes de IA”, comenta Smith.

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn