Posts in Data Science

Neocolonialismo digital: quando os dados valem ouro

15 de outubro de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Neocolonialismo digital: quando os dados valem ouro”

Relatório das Nações Unidas alerta para o domínio dos gigantes no cenário mundial de processamento de dados. 

Que os dados são matéria prima valiosa no mundo contemporâneo não é novidade (ao menos para quem está antenado com as tendências de tecnologia da informação). Tampouco é surpreendente que as principais potências do mundo liderem os rankings de inovação e investimentos nessa área. 

Um relatório publicado em setembro pela Conferência das Nações Unidas para Comércio e Desenvolvimento (UNCTAD) alerta para o fato de esse contexto recriar condições semelhantes às experimentadas no período em que os países se dividiam entre metrópoles e colônias. Estados Unidos e China – que juntos detêm mais de 90% do valor de capitalização das 70 maiores empresas online do planeta – despontam como dominadores, enquanto países com baixa capacidade de processamento de dados, como o Brasil, acabam ocupando o posto de meras “colônias digitais”. 

As informações dos usuários de internet são coletadas gratuitamente pelos vários serviços dos quais fazem uso. De forma isolada esses dados não têm qualquer valor. Reunidos, constituem um enorme acervo que, se bem processado e analisado, pode valer ouro. 

Acontece que a maioria dos países não consegue fazer frente ao domínio sino-americano e acaba contratando serviços norte-americanos ou chineses para processar seus dados. Em ciclo análogo ao da exploração colonial, os dados brutos extraídos ao redor do mundo são beneficiados e revendidos, bem mais caros, ao mesmo público que os gerou. 

Ao pagar pelo acesso às plataformas estrangeiras e pela inteligência por elas desenvolvida, os estados deixam de fomentar o desenvolvimento interno nesse ramo e as empresas nacionais não conseguem prosperar. A dependência e a assimetria, então, tornam-se quase irremediáveis. 

“As plataformas também se tornam monopolísticas financeiramente. Quando elas vão em busca de investidores, eles só querem investir nelas. Eles não querem apostar em uma pequena empresa desconhecida do Brasil, porque lucrarão muito mais investindo no Google, por exemplo”, afirma o diretor do núcleo de competitividade global da instituição de ensino IMD de Lausanne, Arturo Bris. E há um agravante: os próprios usuários, embora em parte saibam que têm seus dados usados dessa forma, continuam utilizando as ferramentas, pelos benefícios que oferecem e para manter suas conexões.

A esperança, segundo o professor Bris, está no fato de as pessoas estarem tomando consciência do cenário. “As plataformas estão sob ataque, sim, não apenas econômica, mas socialmente. As pessoas estão começando a questionar, se dando conta de que estão explorando o bem mais valioso: a nossa informação”. Pilar Fajarnes, uma das autoras do relatório da UNCTAD, completa ao destaca o papel imprescindível dos governos: “Os países devem fomentar empresas locais que façam o ‘refino’ dos dados, e adotar políticas que defendam a propriedade e controle dos indivíduos sobre suas informações”.

Blockchain é uma moda passageira?

11 de outubro de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Blockchain é uma moda passageira?”

Tecnologia que sustenta as criptomoedas enfrenta os desafios da operacionalização.

 

Responsável por toda a onda em torno das criptomoedas, a tecnologia blockchain é (ou era) uma das mais promissoras em desenvolvimento nos últimos anos. Mas enfrenta uma crise: “Muitos de seus experimentos permanecem em estado experimental, não permitindo a construção dos esperados novos ecossistemas digitais”, afirma Avivah Litan, analista e vice-presidente da Gartner. A empresa, reconhecida por seu estudo de tendências em tecnologia da informação, divulgou esta semana seu já conhecido hype cycle atualizado para o blockchain, e as expectativas não são as melhores.

Enquanto diversas aplicações ligadas ao blockchain ainda estão entrando no “pico das expectativas infladas”, várias já se encaminham para o “fosso das desilusões”. Os dois termos são traduções livres dos estágios do ciclo de vida de uma tecnologia, que vai da concepção (o inonovation trigger) ao platô de produtividade (plateau of productivity).

O “pico das expectativas infladas” (peak of inflated expectations) é o momento em que as tecnologias não estão operacionais, mas muito se fala sobre elas, com pequenos avanços ganhando grande publicidade. Nós mesmos já participamos do hype, aqui. Outro caso é o dos smart contracts. Estes contratos à prova de falsificações permitem negociações entre desconhecidos, mesmo para transações de alto valor, e são simples o suficiente para permitir a eliminação de intermediadores, como advogados, corretores ou cartórios. Sim, um lindo sonho. Mas está tão distante da realidade que nem mesmo frustrados com eles nós estamos.

Não podemos dizer o mesmo de todo um conjunto de ferramentas ligadas às criptomoedas, como as plataformas de negociação e as carteiras virtuais. Estas tecnologias entraram no fosso das desilusões (trough of disilusionment). Os sistemas em funcionamento não entregaram o que prometiam e cada vez mais pessoas percebem que não será tão fácil como se imaginava.

Um dos estudos mais conhecidos sobre as dificuldades enfrentadas pela blockchain é o relatório apresentado pelos pesquisadores da Agência Norte-Americana para o Desenvolvimento Internacional, após avaliarem 43 experiências com blockchain. Nas palavras de Christine Murphy:

“Não encontramos nenhuma documentação ou evidência dos resultados. Também não encontramos lições aprendidas ou insights práticos, como costumam estar disponíveis para outras tecnologias em desenvolvimento. Apesar de todo o hype sobre como o Blockchain vai trazer transparência para processos e operações em ambientes de baixa confiança, a indústria em si é opaca.  Por isso, nossa opinião é a de que faltam evidências que embasem as declarações sobre o valor do Blockchain para os potenciais adotantes”.

Para a Gartner, entretanto, a chegada ao fosso das desilusões é apenas um passo necessário antes da assimilação da tecnologia pelo mercado. É o momento em que as apostas erradas são fechadas e os desenvolvedores efetivamente identificam o que funciona e o que não funciona. O relatório prevê que, em 2023, as plataformas serão escaláveis e interoperáveis, abrindo caminho para a disseminação de ferramentas em grande escala, a partir de 2028.

Ensinando e aprendendo com dados

26 de setembro de 2019 Posted by Data Science, Negócios, Pessoas 0 thoughts on “Ensinando e aprendendo com dados”

A ciência de dados nas escolas pode trazer novas possibilidades para a educação.

São inúmeros os desafios da educação brasileira: estrutura física inadequada, professores despreparados, processos internos burocráticos, sistemas educacionais arcaicos, crianças e jovens desestimulados, entre outros. Ao mesmo tempo, não faltam informações sobre o sistema. A Educação há décadas coleta e armazena dados sobre si mesma. Ferramentas e técnicas da ciência de dados têm muito a contribuir para melhorar a capacidade das pessoas de pensar, resolver e aprender, oferecendo tecnologias capazes de encontrar soluções para esses problemas.

A educação é um domínio particularmente adequado para a Data Science. Os dados educacionais são extensos e abrangem: registros escolares do ensino fundamental e médio; arquivos digitais de matérias e anotações; respostas dos alunos a testes e provas, e caso seja adequado, ela também pode abordar a interação em sala de aula, através de gravações de vídeo e voz, seria possível captar como o gerenciamento e a instrução em sala de aula são feitos, além da resposta dos alunos.

O tema está em discussão no 2º Desafios de Dados, um evento nos moldes Datathon em que uma equipe se inscreve e busca soluções em Data Science para problemas específicos. Na edição de 2019 a pauta é Educação Pública no Brasil. A edição que deu origem ao evento tratou da questão da saúde, tema que abordamos em nosso último texto no blog

Muitas das equipes inscritas fazem parte de Edtechs, um acrônimo das palavras Education e Technology. São startups que se diferenciam das outras por duas características

O uso de alguma forma da tecnologia, que significa a aplicação sistemática de conhecimento científico para tarefas práticas.

A tecnologia como facilitadora de processos de aprendizagem e aprimoramento dos sistemas educacionais, gerando efetividade e eficácia.

Estas empresas desenvolvem soluções tecnológicas para a oferta de serviços relacionados à educação, como plataformas de ensino, cursos online, jogos educativos, sistemas de gestão de aprendizado, entre outros.

No Brasil, de acordo com um mapeamento do Centro de Inovação para a Educação Brasileira (CIEB), em parceria com a Associação Brasileira de Startups (Abstartup), 73% dos estados brasileiros têm ao menos 3 edtechs. São Paulo concentra 43% delas, seguido por Minas Gerais, com 11% e Rio de Janeiro com 10%.

As startups criam alternativas para tornar o ensino e a aprendizagem mais eficientes, fazendo os usuários aprenderem mais rapidamente, com maior retenção de conteúdo. Com o treinamento adequado, educadores poderiam realizar tarefas de visualização, redução, descrição e previsão de dados, para que possam entender os sistemas educacionais, seus problemas e possíveis soluções, além de desenvolver uma compreensão mais profunda e formas de soluções empiricamente estabelecidas.

Todas essas novas fontes de dados estão repletas de informações sobre comunicação, relações e perfis comportamentais.  Todas essas informações podem ser extraídas e analisadas para entender e resolver problemas educacionais persistentes.

A Data Science poderia trabalhar em cima de diversas questões como: atrito do aluno e evasão escolar; frequência do aluno; detenções; encaminhamentos; atrasos na aprendizagem; falha na progressão; preconceito; etc. Não podemos dizer que a internet afastou os mais jovens do conhecimento, porque nunca tivemos tanta facilidade de acesso e contato com informação.

Data Science salva vidas!

20 de setembro de 2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Data Science salva vidas!”

A medicina está usando Inteligência Artificial e Machine Learning para aprimorar seus serviços.

A Inteligência Artificial e o Machine Learning possuem grande potencial transformador nos serviços de saúde. Os fabricantes de dispositivos médicos estão aproveitando a quantidade imensa de dados que são gerados todos os dias na área para desenvolver tecnologias e inovar seus produtos. Avanços na detecção precoce de doenças, diagnósticos mais precisos, identificação de novas observações ou padrões na fisiologia humana e desenvolvimento de diagnósticos personalizados estão no radar.

Os softwares destinados para fins médicos são os grandes alvos da IA e do Machine Learning. O Fórum Internacional de Reguladores de Dispositivos Médicos (IMDRF) define Software como Dispositivo Médico (SaDM) como todo aquele que executa finalidades médicas sem fazer parte de um hardware. A área já recebeu diversos avanços, mas os SaDM ainda podem se aprimorar conforme se evoluem as tecnologias de IA e ML, melhorando diretamente os cuidados de saúde dos pacientes.

Podemos citar alguns exemplos de SaDM baseadas em IA/ML, como o Software de Unidade de Terapia Intensiva, o Aplicativo Médico de Lesão de Pele e o Software de identificação de desvio de Tubos de Alimentação em Raios X. A seguir, vamos falar um pouco sobre eles.

O Software de Unidade de Terapia Intensiva com aplicação de IA/ML recebe eletrocardiograma, sangue, sinais de pressão e oximetria do pulso do paciente. Os sinais fisiológicos são processados e analisados para detectar padrões que ocorrem no início da instabilidade fisiológica. Se detectada, um sinal é gerado para indicação clínica imediata. Esse aplicativo conduz o gerenciamento clínico em uma situação crítica de saúde.

O Aplicativo Médico de Lesão de Pele com aplicação de IA/ML usa imagens tiradas pela câmera do smartphone do paciente para fornecer informações a um dermatologista sobre as características físicas de uma lesão cutânea. Isso permite que o médico rotule a lesão como benigna ou maligna. O aplicativo impulsionará o gerenciamento clínico em situações sérias de saúde.

O Software de identificação de desvio de Tubos de Alimentação em Raios X com aplicação de IA/ML analisa radiografias de tórax de pacientes internados após a colocação de um tubo de alimentação. Isso permite que o programa avalie quaisquer colocações incorretas e realize uma espécie de triagem, conduzindo o gerenciamento clínico em situações graves.

Esses são só alguns exemplos citados pela U.S. Food and Drug Administration (FDA), em um relatório que busca trazer uma discussão sobre a regulamentação e eventuais modificações a serem feitas em alguns destes softwares, no intuito de aumentar a precisão e melhorar a tecnologia atrelada ao sistema de saúde.

A Data Science está com um leque de aplicações cada vez mais amplo, e sua implementação pode ser extremamente benéfica, mudando drasticamente certos hábitos e costumes, além de melhorar a qualidade de vida, prospecção de negócios e impactando substancialmente áreas como a saúde. Quando bem explorada, ela pode fazer diferença e até salvar a vida de milhões de pessoas.

Uma breve história da (computação em) nuvem

28 de agosto de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Uma breve história da (computação em) nuvem”

O conceito de cloud computing nasceu em 1960, conheça as origens desse mercado que movimenta bilhões.

O mercado de Cloud Computing está em alta. Em 2018, movimentou 200 bilhões de dólares, e há expectativas de que alcance a casa dos 300 bilhões em 2022, de acordo com a IDC – International Data Corporation. No dia a dia, os usuários encontram nesses serviços a facilidade de ampliar o armazenamento de seu smartphone, compartilhar arquivos com outras pessoas, mas a nuvem não se resume a isso. Quando uma empresa adere a esse serviço, ela pode desfrutar de maior produtividade, escalabilidade e segurança, elevando seu rendimento em diversos âmbitos.

A nuvem se tornou uma ferramenta acessível para qualquer um que possua um smartphone ou computador, mas apesar de parecer uma tecnologia recente, já se discutia sobre ela há muitas décadas. Os primeiros registros do que seria a base da nuvem nasceram com o americano John McCarthy, que em 1960, nove anos antes da criação da internet, já sugeria o conceito de computer utility, uma computação compartilhada simultaneamente entre dois ou mais usuários, onde você paga apenas pelo que usa. Suas palavras, em 1961, foram proféticas:

A computação poderá ser usufruída de forma pública, como hoje usamos a telefonia. Cada usuário pagará somente pelo que usar, mas com acesso às ferramentas de um sistema completo. Esta capacidade da comutação poderá ser a base de uma nova e importante indústria.

Outro nome importante para a criação e popularização da Cloud Computing é o físico Joseph Carl, que permitiu o compartilhamento de dados e a comunicação em escala global com a ARPANET, predecessora da internet. Joseph Carl é hoje considerado um dos pais esquecidos da internet.

Nos anos 1990, já com a World Wide Web, houve uma série de avanços nos sistemas de telecomunicação, como o aumento da banda larga, fácil acesso a computadores e a proliferação de internet de alta velocidade, abrindo portas para o futuro na nuvem. Assim, em 1997, foi usado pela primeira vez o termo Cloud Computing, em uma palestra ministrada pelo professor de Sistemas de Informação Ramnath Chellappa. A terminologia nasceu do símbolo da internet, algo que está “no ar”. Em 1999, a empresa Salesforce foi a primeira a disponibilizar aplicações empresariais pela web, mas foi somente em meados dos anos 2000 que tivemos o mais importante passo para popularização desse mercado no meio empresarial.

O ponto de inflexão na tecnologia é o ano de 2006, quando lançada a primeira versão da EC2, ou Elastic Compute Cloud, desenvolvida pela Amazon Web Services. É a origem do que hoje chamamos de Infrastructure-as-a-Service (IaaS). Ao permitir o acesso remoto ao processamento, na prática “alugando” computadores às empresas, a Amazon ofereceu uma nova visão sobre o sistema. O serviço permitia às empresas eliminar a necessidade de um investimento inicial em hardware, facilitando o desenvolvimento e implantação de serviços e aplicativos com mais rapidez e menos investimento em hardware.

De 2006 para cá aconteceram muitas outras mudanças, avanços e novidades na computação em nuvem. Sobre algumas, já falamos aqui, destacando o potencial, por exemplo, da Data Analytics as a Service. De acordo com a ABES – Associação Brasileira das Empresas de Software, somente no Brasil, de 2015 a 2017, foi registrado um aumento de 86,92% no faturamento desse segmento.  A nuvem apresenta uma série de soluções empresariais, que podem se aplicar a qualquer tipo de negócio. É necessário, entretanto, avaliar cada caso, uma vez que há riscos em relação a segurança das plataformas e à capacidade de atendimento das redes, especialmente em determinadas áreas e países.

Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô

23 de agosto de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô”

Conheça profissões que podem surgir e se popularizar nos próximos dez anos.

 

Quem viveu as últimas décadas assistiu à extinção de várias profissões e ao surgimento de tantas outras. E, acompanhando a curva cada vez mais acentuada do avanço tecnológico, inúmeros empregos atuais deixarão de existir. Nós mesmos já falamos disso por aqui

O Center for the Future of Work, criado pela empresa de serviços tecnológicos Cognizant, elencou dezenas de atividades que possivelmente surgirão, analisando variados aspectos que caracterizam o mundo atual, dentre os quais, é claro, os tecnológicos: automação, biotecnologia, física quântica, inteligência artificial, cibersegurança, realidade virtual e outros. 

Algumas dessas formas de trabalho soam bastante curiosas, embora não sejam improváveis e ainda pareçam um pouco distantes no horizonte. Entre eles estão desenvolvedores de órgãos humanos, professores de inglês como segunda língua para robôs, agricultores verticais urbanos, drone jockeys, manobristas de frotas autônomas e até mesmo terapeutas de dependência do Facebook. 

As profissões que, na avaliação dos estudiosos do Centro, estão prestes a se tornar relevantes e têm potencial de empregar centenas de milhares de pessoas, são o foco principal do relatório “21 jobs of the future: a guide to getting – and staying – employed over the next 10 years”. Veja alguns exemplos:

  • Data detective – devem vasculhar grandes volumes de dados para resolver questões complexas, verdadeiros enigmas surgidos na reunião das informações coletadas por dispositivos IoT, sensores, monitores biométricos, entre outros. 
  • AI-Assisted Healthcare Technician – técnicos que saibam lidar com o auxílio da Inteligência artificial serão cada vez mais necessários, dada a progressiva inserção dessa tecnologia no ramo da saúde. 
  • Cyber City Analyst – esse analista garantirá o funcionamento eficiente dos sistemas integrados nas chamadas “cidades inteligentes”. Cuidarão para que os fluxos de dados automatizados sigam bem, corrigindo erros, evitando e resolvendo ataques hacker.
  • Man-Machine Teaming Manager – será o responsável por gerir as relações entre humanos e máquinas, de modo a articular as principais qualidades e mitigar as limitações deles no trabalho, e desenvolverá os sistemas que permitam que essas equipes híbridas se comuniquem bem.
  • Personal Data Broker – como as tendências atuais determinam que os dados são propriedade dos indivíduos, e não das corporações, surgirá a figura do corretor de dados. Ele fará o monitoramento e a comercialização dos dados gerados por seu cliente. 
  • Personal Memory Curator – fará uso de ambientes virtuais e realidade aumentada para que idosos possam “habitar”, resgatando experiências e contextos passados que ofereçam conforto psicológico, sobretudo em casos de perda de memória (algo semelhante com o que é mostrado no episódio “San Junipero”, da série Black Mirror).
  • Augmented Reality Journey Builder – assim como há os escritores, os cineastas e os compositores, surgirão os construtores de narrativas em realidade aumentada, capazes de criar, projetar, construir, gamificar e personalizar a próxima geração de narrativas.

Resta agora saber quais dessas previsões se concretizará, de fato, nos próximos anos. Para qual delas você se candidataria? 

O líder e a transformação digital

7 de agosto de 2019 Posted by Data Science, Negócios, Tecnologia 0 thoughts on “O líder e a transformação digital”

Gestores em tecnologia precisam estar antenados e ter visão sistêmica para liderar processo.

O século 21 consolidou a presença da internet e das novas tecnologias no cotidiano, resultando em uma das mudanças mais importantes de todos os tempos. Esses artifícios levaram a sociedade a mudar diversos hábitos e se acostumar a um ritmo completamente novo, o que não afetou somente a vida pessoal dos indivíduos e a forma com que eles se relacionam, mas também as empresas que se consolidaram antes da internet. Enquanto algumas delas se mantiveram resistentes a mudanças e acabaram se tornando obsoletas, como já dissemos aqui, outras empresas optaram pela Transformação Digital, utilizando a tecnologia a seu favor para ganhar mercado.

Resumidamente, a transformação digital é o uso da tecnologia para obter resultados para um negócio. Quando implementada, pode (e deve) ser aplicada em todas as áreas da empresa, trabalhando para integrar desde a cúpula estratégica até a base operacional, facilitando todos os processos. Também não há nenhuma restrição quanto ao tipo de empresa que pode se beneficiar por essa transformação, mesmo que não atue no segmento de tecnologia. Hoje, esse é um caminho sem alternativa equivalente. A transformação é imprescindível.

Normalmente o responsável pela implementação do processo de transformação digital em uma empresa é o CIO (Chief Information Officer), mas a aplicação dessas mudanças não deve se limitar a essa figura. É extremamente importante que haja uma aproximação dos gestores da empresa com o condutor do processo, para que a tecnologia funcione de forma coesa e orgânica no contexto organizacional.

Para que essas mudanças sejam aplicadas de forma eficiente, o CIO deve se manter atento a uma série de fatores, se atualizando constantemente e buscando informações sobre novas tecnologias disponíveis. O CIO também deve assumir a função de estrategista de negócios e se mostrar apto em habilidades analíticas, inteligência de negócios, machine learning e conhecimento em IA. As tecnologias low-code e no-code podem ser muito úteis, pois permitem a programação sem um conhecimento aprofundado em códigos, e é extremamente importante que o gestor entenda sobre as principais plataformas de nuvem do mercado, que devem integrar todo o sistema vigente na empresa.

Ao se aprimorar e buscar conhecer mais do processo de transformação digital, um CIO consegue nortear toda uma mudança estratégica e operacional dentro da empresa. As mudanças, se bem implementadas, podem ser significativas, tanto para o ambiente interno da empresa quanto em relação a experiência final de um cliente com a empresa.

Você acredita na sua moeda?

3 de agosto de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Você acredita na sua moeda?”

Artigo instigante de Ariano Cavalcanti sobre a produção, uso e legitimação da moeda. Se a confiança é o seu grande insumo, o que fazer, quando ela falta? 


Trecho extraído do texto original escrito pelo autor. Leia na íntegra

“A magnitude da transformação proposta pelas criptomoedas ou criptoativos é imensurável. Constituindo um sistema econômico alternativo (peer-to-peer), traz consigo uma proposta de sistema bancário livre e independente do estado, algo absolutamente impensável há poucos anos. Mas não é só isso. Permitindo transações financeiras sem intermediários, mas verificadas por todos usuários (nós) da rede, configura o melhor exemplo de uma estrutura sem uma entidade administradora central, inibindo qualquer autoridade financeira ou governamental de manipular a sua emissão, o seu valor e sobretudo, o de induzir a inflação com a produção de mais dinheiro. Isso não tem precedentes.

Bem, se o cenário atual conduz para um questionamento acerca da legitimidade das autoridades monetárias, acatar a possibilidade de ruptura desse padrão parece no mínimo razoável. No entanto, esse debate não é novo. O assunto já foi amplamente abordado pelo Prêmio Nobel de 1974, Friedrich Hayek, famoso economista austríaco que em seu livro A Desestatização do Dinheiro, já grifava que as vantagens das moedas competitivas (não estatais) não são apenas no sentido de que retirariam das mãos dos governos o poder de inflacionar a oferta monetária, mas também de que muito fariam para impedir as oscilações desestabilizantes que foram, no correr do último século de “ciclos econômicos”, precipitadas pelo monopólio governamental sobre o dinheiro, e também para tornar mais difícil para o governo aumentar excessivamente seus próprios gastos, já que esses aumentos se constituem num dos problemas mais cruciais da nossa era. Para Hayek, o papel-moeda fiduciário e de curso forçado (estatal) é uma criação nefasta do estado, que esse dinheiro fictício é o responsável pelos ciclos econômicos, e que o livre mercado sempre escolheria uma commodity (como o ouro, ou poderia ser uma criptomodeda?) para ser a moeda-base de qualquer economia. Isso soa familiar? Os brasileiros sabem bem disso…

Se o estado não tivesse o poder de emitir dinheiro, como estaria a gestão dos gastos públicos? E como seria a política sem o poder da moeda? E se o padrão de reserva internacional migrasse espontaneamente para uma moeda descentralizada no lugar das estatais? Sobre isso cabe outro pensamento de Hayek: “Fracionar ou descentralizar o poder corresponde, forçosamente, a reduzir a soma absoluta de poder, e o sistema de concorrência é o único capaz de reduzir ao mínimo, pela descentralização, o poder exercido pelo homem sobre o homem.“ — Friedrich August von Hayek

Um bom exemplo para ilustrar essa síntese é a Venezuela. O país é hoje o maior usuário da criptomoeda Dash, alternativa encontrada pela população para se proteger da hiperinflação de mais de 1.000.000% que assola o país. O Dash é amplamente utilizado tanto para pagamentos corriqueiros quanto por meio de ATM’s. e, convergindo com o exposto, um caso bem sucedido de uma moeda competindo com a do estado. Mas se a premissa da moeda estatal é a fidúcia, no caso venezuelano restará a ela apenas a força legal.

Não se pretende aqui, introduzir qualquer apologia contra as moedas e nem tampouco os estados, mas apenas questionar o que nunca ousamos pensar. Dados macroeconômicos estão piscando em alertas que as vezes não queremos enxergar. Talvez nunca tenhamos presenciado elementos e condições tão reais e alinhadas na direção de rupturas estruturais. A reunião de fatores como os legados da crise de 2008, o quantitative easing, o comportamento dos bancos centrais e o avanço das criptomoedas, merecem a nossa atenção sob pena de não nos prepararmos adequadamente para que possa vir.”

Esse sorriso não me engana!

2 de agosto de 2019 Posted by Data Science, Tecnologia 1 thought on “Esse sorriso não me engana!”

Com algoritmo que analisa sorrisos, cientistas avançam na área de reconhecimento facial e inteligência artificial.

O desenvolvimento das técnicas de reconhecimento facial anda de vento em popa, como já tratamos em outros artigos. Os benefícios são vários mas há também uma série de controvérsias – o que não tem sido raro quando analisamos os impactos das novas tecnologias. 

Na academia os pesquisadores buscam expandir os limites desse campo. Na Universidade de Bradford, Grã-Bretanha, cientistas deram um passo adiante: desenvolveram um software capaz de distinguir falsas expressões faciais

A partir dos algoritmos, é possível detectar se um sorriso é genuíno ou forçado. Primeiro o sistema mapeia os traços da face, identificando olhos, boca, bochechas e nariz. Depois ele registra o movimento no decorrer do sorriso e compara com as imagens já armazenadas de sorrisos legítimos e falsos. 

“Um sorriso é talvez a mais comum das expressões faciais e é uma maneira poderosa de sinalizar emoções positivas”, afirmou o coordenador da pesquisa Hassan Ugail, professor de computação visual da Universidade de Bradford. Curiosamente, os movimentos mais significativos característicos dos sorrisos verdadeiros aconteciam ao redor dos olhos, o que vai de encontro à popular afirmação de que um sorriso pode ser visto nos olhos de quem sorri.

Ainda que pareça um experimento simplório e aparentemente sem muitas aplicações práticas, o estudo é promissor e relevante. “Técnicas para analisar expressões faciais humanas avançaram dramaticamente nos últimos anos, mas a distinção entre sorrisos genuínos e posados ​​continua sendo um desafio porque os humanos não são bons em captar as pistas relevantes”, comenta o professor Hassan. 

Com o desenvolvimento dessas possibilidades, o sistema pode auxiliar na interação entre humanos e computadores e colaborar, por exemplo, em processos de identificação biométrica. Para os cientistas sociais e da área clínica, pode também ajudar na obtenção de mais informações sobre emoções e comportamento. 

Aprender e não esquecer: um desafio para o futuro da inteligência artificial

21 de maio de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Aprender e não esquecer: um desafio para o futuro da inteligência artificial”

Sistemas podem esquecer como desempenhar tarefas anteriores ao aprenderem coisas novas. Pesquisadores buscam uma solução.

Não é raro que nós, humanos, fiquemos “enferrujados” no desempenho de alguma atividade que há muito não colocamos em prática. Mas, em geral é como naquela história de andar de bicicleta: esquecer a gente não esquece.

É curioso que as superpotentes máquinas e seus elaborados algoritmos podem sofrer do mesmo mal. Os sistemas de Inteligência Artificial e Deep Learning, sobretudo redes neurais profundas, programadas para tarefas muito específicas, muitas vezes, ao assumirem uma tarefa, se esquecem do que aprenderam antes para cumprir outra função. É o que os estudiosos do ramo chamam de “esquecimento catastrófico”.

Para superar esses limites, pesquisadores da Universidade Estadual da Carolina do Norte, nos EUA, estão desenvolvendo um framework de IA que não apenas aprende novas tarefas como melhora seu desempenho para tarefas já executadas, num processo chamado de backward transfer. Os resultados foram divulgados esta semana. Um robô utilizado em missões de segurança pode aprender a se locomover em um ambiente urbano mas precisa ser capaz de fazê-lo novamente em um lugar que visitou anteriormente, como um bosque, por exemplo. A pesquisa foi financiada pelo Exército dos Estados Unidos.

O framework foi batizado de “Learn to grow” (algo como “aprender a crescer”) e está estruturado como em um sistema no qual cada camada manipula os dados para ajudar o conjunto a desempenhar a tarefa e, para cada decisão a ser tomada, há quatro caminhos possíveis: pular a camada; usá-la da mesma forma que foi usada em tarefas anteriores, modificar levemente a atuação com base em uma ação prévia ou criar uma camada totalmente nova.

Assim, o sistema aprende qual é o melhor caminho, camada a camada, para concluir seu objetivo, sem descartar inputs e insights anteriores.  “O que é mais interessante é que, com a topologia otimizada – ou “aprendida ” – uma rede treinada para executar novas tarefas esquece muito pouco do que é necessário para executar as tarefas mais antigas, mesmo que as tarefas antigas não sejam similares”, comenta Xilai Li, um dos autores do estudo.

Em vários testes, o “Learn to Grow” se saiu melhor que outros sistemas na execução de tarefas antigas e mostrou também aprimoramento nelas. Caiming Xiong, diretor de pesquisa da Salesforce Research e parceiro de Xilai Li, explica: “Isso é chamado de transferência para trás e ocorre quando você descobre que aprender uma nova tarefa o torna melhor em uma tarefa antiga. Nós vemos isso nas pessoas o tempo todo, não tanto na IA.”

Aplicações com foco em deep neural networks e deep learning têm recebido crescente atenção da indústria. Já falamos sobre elas aqui e em outros posts. Ele está na base dos sistemas de reconhecimento facial, por por exemplo, e nos mais novos sistemas de inteligência artificial, como o Alexa. Fique de olho!

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn