Posts in Tendências

Ensinando solidariedade às máquinas

3 de dezembro de 2019 Posted by Data Science, Pessoas, Tendências 0 thoughts on “Ensinando solidariedade às máquinas”

No Dia de Doar, refletimos sobre o espaço da solidariedade em tempos de Inteligência Artificial.

Todo dia é dia de doar, mas hoje, a primeira terça-feira depois do Dia de Ação de Graças (o Thanksgiving Day tão celebrado pelos americanos), comemora-se em diversos países o Dia de Doar (Giving Tuesday, lá fora). O movimento mundial teve início em 2012 e vem crescendo desde então. Desapegar e ajudar o próximo é um ato essencialmente orgânico. Não apenas humanos, mas diversas espécies colaboram de alguma forma entre si, garantindo abrigo, alimento e afeto a membros mais fracos da comunidade. Nos perguntamos: é possível ensinar solidariedade às máquinas?

A resposta é sim. Mais do que isso, a solidariedade deve ser um princípio ético central na Inteligência Artificial, defende Miguel Luengo-Oroz, Chief Data Scientist da Global Pulse, uma iniciativa da Organização das Nações Unidas (ONU) com foco no acompanhamento de inovações tecnológicas e de comunicação. Em artigo recentemente publicado na prestigiosa revista Nature, Luengo-Oroz chama a atenção para a necessidade de um compromisso com o tema, uma vez que os riscos envolvidos são elevados, e mesmo sistema confiáveis podem ser usados para:

  • Prever o aparecimento de um câncer letal em pessoas que, sem saber, terão seu acesso negado a seguros e planos de saúde;
  • Automatizar tarefas e funções diversas, aumentando a produtividade, mas deixando milhares (ou milhões) de humanos sem trabalho;
  • Antever nossas decisões e cruzar a tênue linha que separa a sugestão da manipulação.

O pesquisador destaca que tecnologias poderosas exigem compromissos e não por acaso a energia nuclear permanece disponível somente com um tratado de não-proliferação de armas nucleares em vigor, assim como existem barreiras legais e fiscalização mundial sobre as pesquisas para manipulação genética.

Diversos países organizam-se para incluir guidelines de inclusão, como a Declaração de Montreal para uma IA responsável, de 2017. O texto propõe que o desenvolvimento de inteligências autônomas deve ser compatível com a manutenção dos laços de solidariedade entre as pessoas. Gostou? Declare seu apoio aqui:

Como um princípio, a solidariedade aplicada à Inteligência Artificial prevê:

1) O compartilhamento da prosperidade criada pela IA, com a implementação de mecanismos para redistribuir o aumento da produtividade entre todos, assim como também distribuir o trabalho, garantindo que a desigualdade não aumente.

 2) A reflexão sobre o impacto das aplicações no longo prazo, evitando a irrelevância de vastos grupos humanos. As consequências devem ser pensadas antes da execução dos sistemas. Repetindo as palavras do escritor Yuval Noah Harari, a Inteligência Artificial pode nos tornar irrelevantes. Os ganhos de produtividade e a capacidade de modelar, replicar e automatizar nossas ações podem criar uma geração de inúteis, como já falamos neste blog.

O maior desafio, no longo prazo, é descobrir como redistribuir o aumento da produtividade de forma a evitar a irrelevância. Não é a tecnologia baseada no homem, mas sim na humanidade, adverte Luengo-Oroz.

Será o fim do “esqueci minha senha”?

21 de novembro de 2019 Posted by Tecnologia, Tendências 0 thoughts on “Será o fim do “esqueci minha senha”?”

Opções de segurança biométrica ainda convivem com as tradicionais sequências de caracteres ou padrões. Mas até quando?

Há 30 anos, uma senha era necessária para as pioneiras operações bancárias eletrônicas, para destravar um cadeado ou, no caso dos mais afortunados, para guardar de modo seguro valores em um cofre. Há 20, alguns já tinham a conta de e-mail e o acesso ao microcomputador, em casa ou no trabalho, protegidos. Dez anos atrás, um usuário comum facilmente acumulava uma dúzia de sites e softwares que exigiam senhas e, com a disseminação dos smartphones, vivemos em um mundo blindado por códigos alfanuméricos. 

Mas a onipresença das senhas parece ameaçada pela popularização da biometria. Reconhecimento facial, de impressões digitais e de íris já não são mais itens de filme e estão disponíveis em aparelhos celulares com preços acessíveis. A promessa de segurança que eles oferecem é alta, visto que se baseiam em características particulares de cada indivíduo. Mas não há só vantagens nisso. 

Os prós e os contras 

Senhas são simples e convenientes. Quando baseadas em informações pessoais (datas de nascimento, números de telefone, nomes de animais de estimação), facilitam a memorização mas podem ser descobertas por pessoas que conheçam o usuário ou tenham acessado seus dados. 

Se formadas apenas por números (os chamados PINs – personal identification numbers), são ainda mais vulneráveis a um sistema hacker, que pode quebrar um PIN de seis dígitos em questão de horas, com não mais do que 1 milhão de tentativas (enquanto seriam necessárias testar quase 700 milhões de combinações para hackear uma sequência formada com letras, símbolos e números). 

É altamente recomendável o uso de uma senha exclusiva para cada serviço, o que raramente acontece na prática, dado que, não raro, dispomos de dezenas de cadastros. O mais comum é utilizar de uma a três variações, o que reduz muito a segurança. Contudo, se há alguma suspeita de violação, basta trocar o código. 

E é justamente no fato de os dados biométricos serem exclusivos de cada pessoa que residem suas principais vantagens e também alguns de seus pontos problemáticos. É extremamente difícil falsificar, imitar ou roubar impressões digitais, rostos, vozes ou íris. Também não é possível perder, emprestar ou esquecer essas assinaturas biológicas, ou seja, dificilmente alguém mais terá acesso a elas, além do próprio dono. 

Entretanto, a ideia de um registro fiel e inalterável pode ensejar problemas. Cortes, queimaduras ou o efeito do manuseio de produtos químicos podem prejudicar ou até mesmo inviabilizar a leitura das impressões digitais. Embora tenha avançado, a assertividade do reconhecimento facial ainda é afetada por expressões, acessórios, iluminação, maquiagem ou mesmo pelo avanço da idade, ganho ou perda de peso, etc. A identificação por voz, por sua vez, também sofre efeitos fisiológicos, além de ruídos e fatores ambientais. E o reconhecimento de íris, além de ser o mais caro e complexo de implementar, pode ser enganado com o uso de lentes de contato sofisticadas. 

A leitura desse panorama nos leva a crer, então, que o ideal, ao menos por ora, é combinar os tradicionais passwords, PINs e padrões, com as opções de segurança biométrica acessíveis. Então, conserve seus dedos, cuide da garganta, vá ao oftalmologista, controle o peso e troque as senhas de tempos em tempos.

Reconhecimento facial já é! E agora?

18 de novembro de 2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “Reconhecimento facial já é! E agora?”

Integração com o celular disseminou a tecnologia, mas risco de abuso também é crescente.

Como muitas tecnologias inovadoras, o reconhecimento facial por imagem guarda um tremendo potencial para simplificar, melhorar e tornar mais seguros muitos aspectos da nossa vida. Do sistema bancário ao atendimento médico, passando pelo comércio, entretenimento, trabalho e educação. Tema frequente na ficção científica, tornou-se primeiro uma aposta, depois uma tendência. Hoje, é uma realidade e a chave de seu sucesso é a integração com os celulares. A empresa de estudos de tendências Counterpoint estima que, até o final de 2020 – e 2020 já é – mais de um bilhão de smartphones terão algum tipo de desbloqueio baseado em reconhecimento facial (ou via digital), além de um crescente número de aplicativos de entretenimento e criação de conteúdo, como o Beard Booth, o Face Swap ou o Truthify.

A integração com o celular sinalizou para a indústria que o reconhecimento facial veio para ficar. Estudo da Allied Market Research estima que o mercado mundial de detecção facial vai atingir US$ 9.6 bilhões até 2022.

O crescimento acelerado chamou a atenção não apenas da indústria. Suas implicações transcendem o campo da tecnologia, e devemos esperar uma batalha em torno das implicações de seu uso generalizado. Usuários, empresas, governo e a sociedade civil compartilham alguns pontos, mas divergem em dezenas de outros, principalmente em relação à sua aplicação nas áreas de segurança e em questões envolvendo privacidade.

Muitos especialistas acreditam que há uma similaridade com o processo de popularização do automóvel. Por décadas, o setor manteve-se desregulado, ou com regras pouco rígidas, em um mundo que estava aprendendo a conviver com os carros. Tanto as leis de trânsito como as próprias especificações de segurança para a indústria eram desconexas e pouco compreendidas. Basta lembrar, por exemplo, que a obrigatoriedade de uso do cinto de segurança é uma conquista bastante recente. Na verdade, a indústria automobilística nem mesmo era obrigada a equipar os carros com esses itens até o final da década de 1960.

O principal temor relacionado ao reconhecimento facial é o uso abusivo por empresas e governos. A capacidade de uso em massa por regimes, autoritários ou não, é um receio antigo e real. Há indícios de que a China usa ferramentas no controle de minorias étnicas e, não por acaso, os manifestantes de Hong Kong abusam de sombrinhas e máscaras para também não caírem nos sistemas de controle político. Cidadãos de países democráticos enfrentam problemas diferentes, mas tão graves quantos. As denúncias de algoritmos preconceituosos baseados em reconhecimento de imagens são inúmeras.

Empresas de saúde investem em Internet das Coisas e Impressão 3D

14 de novembro de 2019 Posted by Negócios, Tecnologia, Tendências 0 thoughts on “Empresas de saúde investem em Internet das Coisas e Impressão 3D”

Pesquisa da Gartner aponta melhores do setor em 2019, com foco na logística.

Agilidade, estratégia e transformação digital. A busca por essas qualidades foi a chave para a excelência logística das empresas de saúde em 2019, apontou o novo relatório da empresa de análise de tendências Gartner. Ela divulgou o ranking com as melhores cadeias logísticas das empresas do setor, com a Johnson & Johnson alcançando o primeiro lugar, seguida por nomes tradicionais do mercado global, como a Mercy, Novo Nordisck e Medtronic.

“Novas tecnologias, custos elevados e crescente influência dos pacientes forçaram a indústria de saúde a se adaptar de forma acelerada”, analisou o pesquisador Stephen Meyer, responsável pelo ranking. Ele destacou três atributos das melhores empresas da área: Agilidade, estratégia e transformação digital.

A tradição não ajudou o setor a enfrentar os novos tempos com agilidade, mas o crescimento da demanda por uma atenção à saúde cada vez mais individualizada forçou muitas companhias a reverem seus processos. Estoques grandes e pouco diversificados foram substituídos por plataformas flexíveis.

Um exemplo é o J&J 3D Printing Centre of Excellence (CoE), montado pela Johnson & Johnson, capaz de criar instrumentos cirúrgicos, próteses e ferramentas médicas customizadas, entre outros. O centro de impressão é formado por uma rede de laboratórios em universidades e institutos de pesquisa na Europa e América do Norte. “A impressão 3D é capaz de mudar o jogo quando se trata de atendimento a pacientes, clientes e fornecedores”, destaca Sam Onukuri, chefe do laboratório. É possível desenvolver produtos e instrumentos que seriam inviáveis em escala industrial.

Um dos focos das empresas é o crescimento do mercado ligado à Internet das Coisas (IoT, da sigla em inglês Internet of Things). São dezenas de aplicações, como:

  • Monitoramento remoto de pacientes: Reduz custos e deslocamentos, evitando a hospitalização. Amplia o atendimento a áreas remotas ou de difícil acesso.
  • Monitoramento de diabéticos: Aplicativos IoT “vestíveis” podem monitorar em tempo real os índices de glicose no sangue e, também, ajustar doses de insulina.
  • Inaladores com sensores: Para asmáticos, os inaladores ligados em rede são capazes de prever um ataque de asma com até 8 horas de antecedência.
  • Relógios antidepressão: Relógios que detectam níveis de indicadores de depressão, oferecendo informações complementares para o tratamento.
  • Sensores ingeríveis: quer saber se o paciente tomou o medicamento no horário certo? Os sensores com magnésio e cobre disparam um sinal se a medicação não for tomada no momento correto.

O foco em soluções digitais é especialmente importante, embora a Gartner tenha apontado para importância de não se esperar resultados imediatos, uma vez que a experimentação é a chave para o desenvolvimento de novos fluxos de atendimento aos clientes.

 

Inteligência artificial ameaça criar geração de inúteis

8 de novembro de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 1 thought on “Inteligência artificial ameaça criar geração de inúteis”

Em palestras pelo Brasil, autor de Sapiens defende acordo global contra uso lesivo da tecnologia.

O  professor e escritor israelense Yuval Harari tornou-se conhecido no mundo inteiro com o sucesso do livro “Sapiens: uma breve história da humanidade”, traduzido em mais de 40 idiomas e com milhões de cópias vendidas. Com outros dois best sellers lançados desde então, o historiador ocupou notícias e conteúdos online nos últimos dias em função de sua primeira visita ao Brasil, onde participa de alguns eventos. 

Harari resume em três vertentes os problemas que a humanidade vai enfrentar no século 21: as mudanças climáticas, os avanços da biotecnologia/bioengenharia e a ascensão da inteligência artificial. O desenvolvimento das tecnologias e seu impacto na sociedade contemporânea é assunto central e recorrente tanto em seus escritos quanto nas conferências que têm proferido. 

Uma das preocupações que ele destaca é um assunto no qual já tocamos aqui: o fato de que a tecnologia provoca mudanças constantes e significativas no mercado de trabalho e possivelmente criará uma massa de pessoas sem utilidade, do ponto de vista econômico e financeiro. “Se a maior luta do século 20 foi contra a exploração, a maior luta do século 21 será contra a irrelevância. Por isso os governos têm que proteger as pessoas”, afirmou em uma palestra no encerramento da 5ª Semana de Inovação, realIzada pela Escola de Administração Pública (Enap), em Brasília. Ele completa, em outro tema abordado aqui pelo blog: 

“O risco é que a revolução da inteligência artificial resulte em algo como a revolução industrial do século XIX: desigualdade extrema entre alguns países que dominam a economia global e outros que colapsam completamente, porque seu principal ativo de mão de obra manual barata se torna irrelevante”

O valor dos dados e sua importância estratégica é outra questão chave para o escritor. A combinação de avanços no domínio da biologia humana com o poder tecnológico digital pode resultar num “hackeamento” dos indivíduos. “É possível criar algoritmos que nos conhecem melhor que nós, que podem nos hackear e manipular nossos sentimentos e nossos desejos. E eles não precisam ser perfeitos, apenas nos conhecer melhor. E isso não é difícil porque muitos de nós não se conhecem muito bem”. 

Em entrevista ao El País em 2018, traçou um interessante paralelo entre algumas forças capazes de controlar as pessoas ao longo do século 20, tais como os partidos fascistas dos anos 1930, a KGB e os grandes conglomerados atuais. As organizações no século passado conseguiam estabelecer altos níveis de controle, mas não tinham tecnologia para seguir e manipular cada indivíduo pessoalmente. Hoje isso já é possível (e acontece). “Já estamos vendo como a propaganda é desenhada de forma individual, porque há informação suficiente sobre cada um de nós. Se você quer criar muita tensão dentro de um país em relação à imigração, coloque uns tantos hackers e trolls para difundir notícias falsas personalizadas. Para a pessoa partidária de endurecer as políticas de imigração você manda uma notícia sobre refugiados que estupram mulheres. E ela aceita porque tem tendência a acreditar nessas coisas. Para a vizinha dela, que acha que os grupos anti-imigrantes são fascistas, envia-se uma história sobre brancos espancando refugiados, e ela se inclinará a acreditar. Assim, quando se encontrarem na porta de casa, estarão tão irritados que não vão conseguir estabelecer uma conversa tranquila. Isso aconteceu nas eleições dos Estados Unidos de 2016 e na campanha do Brexit.”

A aposta do escritor para a condução desses grandes desafios da humanidade está no diálogo e na cooperação. Não há, segundo ele, oposição entre as ideias de nacionalismo e globalização. Os estados podem e devem garantir sua soberania e liberdade, mas devem se unir para evitar que as grandes corporações se apoderem e façam mau uso dos dados, o bem mais valioso do século 21. “Precisamos de um acordo global. E isso é possível. Não construindo muros, como está na moda, mas construindo confiança. No entanto, estamos na direção oposta neste momento.”

#AprendinoEnem: Inteligência Artificial e Big Data caem na prova

5 de novembro de 2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “#AprendinoEnem: Inteligência Artificial e Big Data caem na prova”

Tecnologias da Informação e Comunicação foram presença constante nas questões do primeiro dia do Exame.

Quase 4 milhões de pessoas participaram do Exame Nacional do Ensino Médio (Enem) neste final de semana. As provas são o principal meio de acesso ao ensino superior e uma boa nota é a garantia de vaga nos cursos mais disputados em universidades públicas (e muitas privadas). O conteúdo é vasto, mas o candidato desta última edição aprendeu que vale a pena estar sintonizado com as novas Tecnologias da Informação e Comunicação (TICs) e seu impacto na sociedade.

Das 45 questões da prova de Linguagens, Códigos e suas Tecnologias, 20% estavam relacionadas de forma direta às TICs. Foram nove questões para quem selecionou o inglês como língua estrangeira e 10 para os optantes pelo espanhol.

Temas muito atuais estiveram presentes na prova, como a Inteligência Artificial. A questão abordava a experiência realizada no Japão com um sistema incumbido de escrever um conto. A resposta correta exigia do candidato o entendimento da diferença entre a estrutura e a criatividade da linguagem humana.

Big Data e análise de dados também marcaram presença na prova, em questão abordando o projeto Data Viva, uma plataforma aberta de visualização de dados sociais e econômicos do Brasil. Para acertar, o candidato deveria entender que a análise de grandes volumes de dados é capaz de oferecer informações estratégicas à sociedade.

A questão mais divertida, e que viralizou após o exame, apresentava uma lista de tipos on-line, classificados por seu perfil de postagem, como o “Turista em tempo integral” (que posta o ano inteiro fotos das férias), a “Mãe orgulhosa demais” (que faz questão de contar todas as gracinhas, até as que só tem graça para ela própria) e o “Baladeiro Vida Louca” (com seu feed de imagens de festas e bebidas). A resposta correta informava que as redes sociais estimulam a exposição exagerada dos indivíduos.

Outras questões abordaram as características da geração que não se lembra como era o mundo antes da internet, a disponibilização de imagens para compartilhamento com licenciamento Creative Commons, o que é software livre e sua contribuição para a sociedade e a exposição de imagens de crianças na rede. Além de um texto que citava um boicote à cantina da escola via twitter, promovida por alunos indignados com o preço do pão de queijo.

Fica a dica para as próximas edição do Enem: Leia o Why!

Estamos mais perto da computação quântica?

25 de outubro de 2019 Posted by Tecnologia, Tendências 0 thoughts on “Estamos mais perto da computação quântica?”

Google apresenta processador e afirma ter atingido a supremacia quântica.

O Google divulgou esta semana os resultados de um experimento e rapidamente celebrou ter alcançando a supremacia quântica. O nome pretensioso refere-se a um conceito proposto por John Preskil, em 2012, para identificar o ponto em que os computadores quânticos seriam capazes de fazer coisas que computadores convencionais não poderiam. O Google afirma ter atingindo este marco com o processador Sycamore, desenvolvido em seus laboratórios na Califórnia, capaz de executar em 200 segundos um cálculo que teria levado mais de 10 mil anos em um computador atual. Controversa, a experiência nos faz perguntar: o quão perto estamos da computação quântica? Já abordamos este tema aqui e ali.

A computação quântica é um sonho ainda tão distante que mesmo sua aplicabilidade permanece em discussão. Os qubits, ou quantum bits, aproveitam-se da estranha habilidade das partículas subatômicas de existirem em mais de um estado ao mesmo tempo. Como resultado, podem armazenar mais combinações além dos 1 ou 0 dos bits atuais, e a capacidade de memória é extraordinariamente maior, com operações feitas muito mais rapidamente e com reduzido uso de energia. Na verdade, o experimento desta semana mostrou uma capacidade de crescimento duplamente exponencial.

O sistema apresentado pela Google foi recebido com ressalvas. Sugerimos este artigo para entender seu funcionamento. A IBM afirma que um computador convencional, com uma configuração diferente da prevista pela Google, seria capaz de resolver o mesmo problema em três dias. Já a Intel desdenha, dizendo que não há aplicações práticas para o processador Sycamore. Por trás da discussão está a batalha das grandes corporações pelo controle desse conhecimento.

Os desafios, entretanto, são muitos. Entre eles, podemos citar:

 

Hardware: O Sycamore enfrentou diversos desafios e um que permanece é relativo aos caros e extensos cabos necessários à obtenção das leituras. Os qubits são estabelecidos em átomos e seus múltiplos estados são difíceis de determinar, dada sua tendência a gerar números incoerentes e imprevisíveis, para se dizer o mínimo. O próprio spin a ser medido é um “momento” sem qualquer analogia com a física clássica, ele nem mesmo gira no sentido como entendemos o termo spin. E, é claro, as máquinas quânticas precisam operar na temperatura ambiente. Os protótipos em funcionamento rodam em temperaturas próximas de zero absoluto para se beneficiarem da supercondutividade de alguns materiais a esta temperatura.

Programação: todo o software atual é baseado em construções (expressões algébricas, funções trigonométricas, cálculo integral, pontos flutuantes etc) desenvolvidas nos séculos passados e não aplicáveis à física quântica. Não é possível adaptar a programação atual. É necessária uma nova matemática, criada do zero, para servir de base, e, a partir daí, inventar novas linguagens de programação.

 

Vale a pena, entretanto, investir neste conhecimento. Muitos dos avanços tecnológicos embrionários dependem fundamentalmente de mais processamento para serem desenvolvidos ou executados. Os computadores quânticos seriam capazes de oferecer breakthroughs em diversas áreas, como avanços no modelamento de reações químicas complexas, capazes de revolucionar a geração e o armazenamento de energia. Ou simulações de comportamento molecular e consequente design de novas moléculas para uso na medicina e genética. E também modelos complexos de análises de dados e aumento exponencial da capacidade de previsão e predição.

Avanços como este permitiriam o desenvolvimento de fontes limpas, baratas e abundantes de energia. Ou o sequenciamento genético para eliminar doenças e aumentar o tempo de vida. Ou ferramentas para controle do clima e do solo. Esta busca, entretanto, está longe de ter um fim, e não é difícil imaginar o tamanho do desafio.

O algoritmo que adora Adam Sandler

18 de outubro de 2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “O algoritmo que adora Adam Sandler”

Sistema de Inteligência Artificial é usado na seleção de filmes da Sessão da Tarde.

 

A Rede Globo confirmou que um algoritmo é o culpado pelos filmes repetidos na Sessão da Tarde. O programa televisivo vai ao ar desde 1974 e permanece uma das principais atrações da emissora. É uma referência para a geração pré-streaming. Dos festivais com os Trapalhões aos clássicos Lagoa Azul e Curtindo a Vida Adoidado, não há quem não tenha sido feliz, deitado em um sofá, numa tarde chuvosa dos anos 80 (ou 90 ou 2000).

E, tão tradicional quanto o chocolate quente para acompanhar, é a lendária repetição dos títulos. A novidade é que agora a programação é feita por algoritmos e, sim, é verdade, eles são programados para repetir filmes. Os resultados são elogiados pelo diretor de programação da Globo, Amauri Soares:

“Nós criamos um algoritmo para ajudar na programação de filmes da Sessão Tarde. Nós tagueamos todos os filmes no acervo, com as características de cada um. O algoritmo entrega para o programador uma lista de filmes com os atributos que a gente quer. O algoritmo oferece o dobro de opções que o programador sozinho conseguiria levantar.”

E do que gosta o algoritmo? Gosta de histórias de superação e comédias (besteirol ou romântica), como demonstra a lista recente com os 10 campeões de audiência. E adora o Adam Sandler. Somente em 2019 o ator já teve cinco filmes exibidos, dois deles repetidos. É o campeão na escalação, seguido de longe por Sandra Bullock, Queen Latifah e Matthew McConaughey.

A Globo não é a primeira a testar um sistema como este. Algoritmos de recomendação de filmes (e músicas, shows, livros etc) são a base de plataformas como a Netflix, Amazon, Youtube e outras. Nestes modelos, o volume de dados para análise é extraordinário e crescente. Os resultados, no entanto, nem sempre superam a boa e bem-sucedida estratégia de apostar sempre no Adam Sandler.

A Netflix testa, há alguns meses, um novo sistema de recomendação, em uma tentativa de superar as críticas ao seu (irritante) algoritmo atual. O novo modelo, adivinhem, retorna à boa e velha curadoria humana. Em alguns aparelhos com iOS, as novas “coleções” passam por uma seleção prévia feita por pessoas, para então serem agrupadas pelos algoritmos. Um novo round nesta batalha de ferramentas de inteligência artificial pela identificação dos nossos gostos.

Blockchain é uma moda passageira?

11 de outubro de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Blockchain é uma moda passageira?”

Tecnologia que sustenta as criptomoedas enfrenta os desafios da operacionalização.

 

Responsável por toda a onda em torno das criptomoedas, a tecnologia blockchain é (ou era) uma das mais promissoras em desenvolvimento nos últimos anos. Mas enfrenta uma crise: “Muitos de seus experimentos permanecem em estado experimental, não permitindo a construção dos esperados novos ecossistemas digitais”, afirma Avivah Litan, analista e vice-presidente da Gartner. A empresa, reconhecida por seu estudo de tendências em tecnologia da informação, divulgou esta semana seu já conhecido hype cycle atualizado para o blockchain, e as expectativas não são as melhores.

Enquanto diversas aplicações ligadas ao blockchain ainda estão entrando no “pico das expectativas infladas”, várias já se encaminham para o “fosso das desilusões”. Os dois termos são traduções livres dos estágios do ciclo de vida de uma tecnologia, que vai da concepção (o inonovation trigger) ao platô de produtividade (plateau of productivity).

O “pico das expectativas infladas” (peak of inflated expectations) é o momento em que as tecnologias não estão operacionais, mas muito se fala sobre elas, com pequenos avanços ganhando grande publicidade. Nós mesmos já participamos do hype, aqui. Outro caso é o dos smart contracts. Estes contratos à prova de falsificações permitem negociações entre desconhecidos, mesmo para transações de alto valor, e são simples o suficiente para permitir a eliminação de intermediadores, como advogados, corretores ou cartórios. Sim, um lindo sonho. Mas está tão distante da realidade que nem mesmo frustrados com eles nós estamos.

Não podemos dizer o mesmo de todo um conjunto de ferramentas ligadas às criptomoedas, como as plataformas de negociação e as carteiras virtuais. Estas tecnologias entraram no fosso das desilusões (trough of disilusionment). Os sistemas em funcionamento não entregaram o que prometiam e cada vez mais pessoas percebem que não será tão fácil como se imaginava.

Um dos estudos mais conhecidos sobre as dificuldades enfrentadas pela blockchain é o relatório apresentado pelos pesquisadores da Agência Norte-Americana para o Desenvolvimento Internacional, após avaliarem 43 experiências com blockchain. Nas palavras de Christine Murphy:

“Não encontramos nenhuma documentação ou evidência dos resultados. Também não encontramos lições aprendidas ou insights práticos, como costumam estar disponíveis para outras tecnologias em desenvolvimento. Apesar de todo o hype sobre como o Blockchain vai trazer transparência para processos e operações em ambientes de baixa confiança, a indústria em si é opaca.  Por isso, nossa opinião é a de que faltam evidências que embasem as declarações sobre o valor do Blockchain para os potenciais adotantes”.

Para a Gartner, entretanto, a chegada ao fosso das desilusões é apenas um passo necessário antes da assimilação da tecnologia pelo mercado. É o momento em que as apostas erradas são fechadas e os desenvolvedores efetivamente identificam o que funciona e o que não funciona. O relatório prevê que, em 2023, as plataformas serão escaláveis e interoperáveis, abrindo caminho para a disseminação de ferramentas em grande escala, a partir de 2028.

Desvendando os mistérios do passado com a ajuda da Inteligência Artificial

9 de outubro de 2019 Posted by Tecnologia, Tendências 0 thoughts on “Desvendando os mistérios do passado com a ajuda da Inteligência Artificial”

Ferramentas de machine learning são as novas aliadas dos arqueólogos.

Herculano e Pompéia eram prósperas cidades romanas, na Baía de Nápoles. Ao meio dia de 24 de agosto de 79 d.C foram atingidas pela erupção do Vesúvio, e soterradas por lama, lava e cinzas. Redescobertas no início do século passado, as duas são verdadeiras cápsulas do tempo, oferecendo aos pesquisadores um retrato da vida e costumes da Roma antiga. Um de seus tesouros mais preciosos, entretanto, permanece inacessível. São dois rolos de pergaminho (foto) resgatados nas escavações de Herculano, íntegros, mas carbonizados. Com o uso de técnicas de machine learning, pesquisadores da Universidade do Kentucky trabalham para revelar os segredos destes textos, escritos há mais de dois mil anos. É um dos exemplos de como ferramentas de última geração são usadas na exploração do passado. Cientistas afirmam que a Inteligência Artificial e a Big Data podem revolucionar a arqueologia.

A iniciativa para restauração digital dos documentos de Herculano utiliza o synchotron, um equipamento que acelera elétrons a uma velocidade próxima à da luz, emitindo um brilho maior que o sol, e com elevada capacidade de foco. Os cientistas utilizam então a luz para registrar cada uma das frágeis camadas do pergaminho. As imagens da “tinta de herculano” são de difícil compreensão e os pesquisadores propuseram, em um artigo deste ano, usar uma única página do pergaminho como base para treinar um programa de machine learning a identificar os padrões e, assim, permitir a “tradução” de todo o texto. E o que eles esperam encontrar? Mesmo uma simples lista de compras nos ajuda a compreender melhor a história da época, mas as expectativas são altas e não faltam apostas em textos originais de filosofia ou mesmo sobre os primeiros anos do Cristianismo.

Outros usos estão em estudo ou com resultados já apresentados. Um dos mais conhecidos foi a localização de um antigo assentamento viking no Canadá, via leitura de imagens por satélite. A descoberta muda a maneira como conhecemos a ocupação da América pelos europeus. As mesmas técnicas, baseadas na já reconhecida capacidade leitura de imagens por ferramentas de Inteligência Artificial, está em uso na busca de ocupações desaparecidas há milênios tanto nas selvas mexicanas como nos vales da mesopotâmia e Egito. Ou no reconhecimento das primeiras civilizações a ocupar a Índia, na Era do Bronze.

O arqueólogo Iris Kramer, da Universidade de Southampton, na Inglaterra, destaca algumas de suas vantagens: “Os algoritmos baseados em deep learning permitem aos arqueólogos investir mais tempo na identificação das peças do que simplesmente verificando se determinada imagem é de uma peça histórica ou não”.

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn