Posts in Tecnologia

O jogo psicológico dos robôs

26/11/2019 Posted by Tecnologia 0 thoughts on “O jogo psicológico dos robôs”

Pesquisa mostrou que robôs podem desestabilizar humanos ao criticá-los ou pressioná-los durante uma disputa.

Não são poucos os jogadores que usam e abusam de palavras desencorajadoras na tentativa de desestabilizar o adversário. Do clássico “esse você vai errar” dito pelo goleiro ao cobrador de pênalti ao “não devia ter avançado essa torre”, em uma partida de xadrez, todo mundo já enfrentou um “marrento”, têm uma história dessas para contar. E funciona, afirmam estudiosos da teoria dos jogos. Pior, mesmo se feitas por um robô, as críticas podem afetar negativamente seu jogo, garante pesquisa recém-publicada pela Escola de Ciências da Computação da Carnegie Mellon University, de Pittsburgh, nos Estados Unidos.

O estudo é um dos primeiros a testar situações de não-cooperação entre máquinas e humanos. Suas implicações são importantes, com a expectativa de crescimento exponencial das nossas relações com equipamentos dotados de inteligência artificial, a partir da disseminação da Internet das Coisas. Fei Fang, co-autor do estudo, explica:

“Esperamos sempre lidar com um robô cooperativo, mas há situações em que eles talvez não devam ter os mesmos objetivos que nós, como por exemplo ao aconselhar sobre determinadas compras”.

O estudo foi desenvolvido a partir do projeto de um aluno da disciplina “Inteligência artificial e sociedade”, que explorava a teoria dos jogos. A equipe preparou uma competição entre pessoas e robôs em um jogo chamado “Guards and Treasures”, já usado para testar a tomada de decisões.

Cada um dos 40 participantes jogou 35 partidas contra um robô humanoide vendido comercialmente chamado “Pepper”.

Em algumas partidas, Pepper foi orientado a usar palavras e expressões de incentivo ao adversário. Em outras, para desmotivá-lo, com frases como “preciso dizer que você é um jogador muito ruim” ou “seu jogo piorou ao longo da partida”.

Os resultados foram claros. Pessoas incentivadas pontuaram mais que as criticadas, mesmo com a ampla maioria dos participantes entendendo que o robô era programado para criticar.

O estudo foi apresentado na Conferência Internacional sobre comunicação e interatividade entre robôs e humanos, realizada na Índia. Fei Fang acredita ser necessário mais estudos sobre o tema, incluindo também robôs não humanoides e comunicação não-verbal.

Será o fim do “esqueci minha senha”?

21/11/2019 Posted by Tecnologia, Tendências 0 thoughts on “Será o fim do “esqueci minha senha”?”

Opções de segurança biométrica ainda convivem com as tradicionais sequências de caracteres ou padrões. Mas até quando?

Há 30 anos, uma senha era necessária para as pioneiras operações bancárias eletrônicas, para destravar um cadeado ou, no caso dos mais afortunados, para guardar de modo seguro valores em um cofre. Há 20, alguns já tinham a conta de e-mail e o acesso ao microcomputador, em casa ou no trabalho, protegidos. Dez anos atrás, um usuário comum facilmente acumulava uma dúzia de sites e softwares que exigiam senhas e, com a disseminação dos smartphones, vivemos em um mundo blindado por códigos alfanuméricos. 

Mas a onipresença das senhas parece ameaçada pela popularização da biometria. Reconhecimento facial, de impressões digitais e de íris já não são mais itens de filme e estão disponíveis em aparelhos celulares com preços acessíveis. A promessa de segurança que eles oferecem é alta, visto que se baseiam em características particulares de cada indivíduo. Mas não há só vantagens nisso. 

Os prós e os contras 

Senhas são simples e convenientes. Quando baseadas em informações pessoais (datas de nascimento, números de telefone, nomes de animais de estimação), facilitam a memorização mas podem ser descobertas por pessoas que conheçam o usuário ou tenham acessado seus dados. 

Se formadas apenas por números (os chamados PINs – personal identification numbers), são ainda mais vulneráveis a um sistema hacker, que pode quebrar um PIN de seis dígitos em questão de horas, com não mais do que 1 milhão de tentativas (enquanto seriam necessárias testar quase 700 milhões de combinações para hackear uma sequência formada com letras, símbolos e números). 

É altamente recomendável o uso de uma senha exclusiva para cada serviço, o que raramente acontece na prática, dado que, não raro, dispomos de dezenas de cadastros. O mais comum é utilizar de uma a três variações, o que reduz muito a segurança. Contudo, se há alguma suspeita de violação, basta trocar o código. 

E é justamente no fato de os dados biométricos serem exclusivos de cada pessoa que residem suas principais vantagens e também alguns de seus pontos problemáticos. É extremamente difícil falsificar, imitar ou roubar impressões digitais, rostos, vozes ou íris. Também não é possível perder, emprestar ou esquecer essas assinaturas biológicas, ou seja, dificilmente alguém mais terá acesso a elas, além do próprio dono. 

Entretanto, a ideia de um registro fiel e inalterável pode ensejar problemas. Cortes, queimaduras ou o efeito do manuseio de produtos químicos podem prejudicar ou até mesmo inviabilizar a leitura das impressões digitais. Embora tenha avançado, a assertividade do reconhecimento facial ainda é afetada por expressões, acessórios, iluminação, maquiagem ou mesmo pelo avanço da idade, ganho ou perda de peso, etc. A identificação por voz, por sua vez, também sofre efeitos fisiológicos, além de ruídos e fatores ambientais. E o reconhecimento de íris, além de ser o mais caro e complexo de implementar, pode ser enganado com o uso de lentes de contato sofisticadas. 

A leitura desse panorama nos leva a crer, então, que o ideal, ao menos por ora, é combinar os tradicionais passwords, PINs e padrões, com as opções de segurança biométrica acessíveis. Então, conserve seus dedos, cuide da garganta, vá ao oftalmologista, controle o peso e troque as senhas de tempos em tempos.

Reconhecimento facial já é! E agora?

18/11/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “Reconhecimento facial já é! E agora?”

Integração com o celular disseminou a tecnologia, mas risco de abuso também é crescente.

Como muitas tecnologias inovadoras, o reconhecimento facial por imagem guarda um tremendo potencial para simplificar, melhorar e tornar mais seguros muitos aspectos da nossa vida. Do sistema bancário ao atendimento médico, passando pelo comércio, entretenimento, trabalho e educação. Tema frequente na ficção científica, tornou-se primeiro uma aposta, depois uma tendência. Hoje, é uma realidade e a chave de seu sucesso é a integração com os celulares. A empresa de estudos de tendências Counterpoint estima que, até o final de 2020 – e 2020 já é – mais de um bilhão de smartphones terão algum tipo de desbloqueio baseado em reconhecimento facial (ou via digital), além de um crescente número de aplicativos de entretenimento e criação de conteúdo, como o Beard Booth, o Face Swap ou o Truthify.

A integração com o celular sinalizou para a indústria que o reconhecimento facial veio para ficar. Estudo da Allied Market Research estima que o mercado mundial de detecção facial vai atingir US$ 9.6 bilhões até 2022.

O crescimento acelerado chamou a atenção não apenas da indústria. Suas implicações transcendem o campo da tecnologia, e devemos esperar uma batalha em torno das implicações de seu uso generalizado. Usuários, empresas, governo e a sociedade civil compartilham alguns pontos, mas divergem em dezenas de outros, principalmente em relação à sua aplicação nas áreas de segurança e em questões envolvendo privacidade.

Muitos especialistas acreditam que há uma similaridade com o processo de popularização do automóvel. Por décadas, o setor manteve-se desregulado, ou com regras pouco rígidas, em um mundo que estava aprendendo a conviver com os carros. Tanto as leis de trânsito como as próprias especificações de segurança para a indústria eram desconexas e pouco compreendidas. Basta lembrar, por exemplo, que a obrigatoriedade de uso do cinto de segurança é uma conquista bastante recente. Na verdade, a indústria automobilística nem mesmo era obrigada a equipar os carros com esses itens até o final da década de 1960.

O principal temor relacionado ao reconhecimento facial é o uso abusivo por empresas e governos. A capacidade de uso em massa por regimes, autoritários ou não, é um receio antigo e real. Há indícios de que a China usa ferramentas no controle de minorias étnicas e, não por acaso, os manifestantes de Hong Kong abusam de sombrinhas e máscaras para também não caírem nos sistemas de controle político. Cidadãos de países democráticos enfrentam problemas diferentes, mas tão graves quantos. As denúncias de algoritmos preconceituosos baseados em reconhecimento de imagens são inúmeras.

Empresas de saúde investem em Internet das Coisas e Impressão 3D

14/11/2019 Posted by Negócios, Tecnologia, Tendências 0 thoughts on “Empresas de saúde investem em Internet das Coisas e Impressão 3D”

Pesquisa da Gartner aponta melhores do setor em 2019, com foco na logística.

Agilidade, estratégia e transformação digital. A busca por essas qualidades foi a chave para a excelência logística das empresas de saúde em 2019, apontou o novo relatório da empresa de análise de tendências Gartner. Ela divulgou o ranking com as melhores cadeias logísticas das empresas do setor, com a Johnson & Johnson alcançando o primeiro lugar, seguida por nomes tradicionais do mercado global, como a Mercy, Novo Nordisck e Medtronic.

“Novas tecnologias, custos elevados e crescente influência dos pacientes forçaram a indústria de saúde a se adaptar de forma acelerada”, analisou o pesquisador Stephen Meyer, responsável pelo ranking. Ele destacou três atributos das melhores empresas da área: Agilidade, estratégia e transformação digital.

A tradição não ajudou o setor a enfrentar os novos tempos com agilidade, mas o crescimento da demanda por uma atenção à saúde cada vez mais individualizada forçou muitas companhias a reverem seus processos. Estoques grandes e pouco diversificados foram substituídos por plataformas flexíveis.

Um exemplo é o J&J 3D Printing Centre of Excellence (CoE), montado pela Johnson & Johnson, capaz de criar instrumentos cirúrgicos, próteses e ferramentas médicas customizadas, entre outros. O centro de impressão é formado por uma rede de laboratórios em universidades e institutos de pesquisa na Europa e América do Norte. “A impressão 3D é capaz de mudar o jogo quando se trata de atendimento a pacientes, clientes e fornecedores”, destaca Sam Onukuri, chefe do laboratório. É possível desenvolver produtos e instrumentos que seriam inviáveis em escala industrial.

Um dos focos das empresas é o crescimento do mercado ligado à Internet das Coisas (IoT, da sigla em inglês Internet of Things). São dezenas de aplicações, como:

  • Monitoramento remoto de pacientes: Reduz custos e deslocamentos, evitando a hospitalização. Amplia o atendimento a áreas remotas ou de difícil acesso.
  • Monitoramento de diabéticos: Aplicativos IoT “vestíveis” podem monitorar em tempo real os índices de glicose no sangue e, também, ajustar doses de insulina.
  • Inaladores com sensores: Para asmáticos, os inaladores ligados em rede são capazes de prever um ataque de asma com até 8 horas de antecedência.
  • Relógios antidepressão: Relógios que detectam níveis de indicadores de depressão, oferecendo informações complementares para o tratamento.
  • Sensores ingeríveis: quer saber se o paciente tomou o medicamento no horário certo? Os sensores com magnésio e cobre disparam um sinal se a medicação não for tomada no momento correto.

O foco em soluções digitais é especialmente importante, embora a Gartner tenha apontado para importância de não se esperar resultados imediatos, uma vez que a experimentação é a chave para o desenvolvimento de novos fluxos de atendimento aos clientes.

 

Um algoritmo escreveu este texto

12/11/2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo escreveu este texto”

Na verdade, apenas parte deste texto foi escrito por uma máquina, mas elas estão se esforçando para chegar lá.

 

Pode parecer ficção científica, mas já existem sistemas de inteligência artificial capazes de criar textos com incrível semelhança aos escritos por humanos. Alguns deles incluem coisas como piadas e poemas. Outros são muito mais sérios. Um exemplo recente da Universidade de Oxford contém uma poesia sobre o extermínio de judeus por Hitler.

“Se um ser humano tem uma forte antipatia por um grupo em particular, é muito improvável que ele seja capaz de escrever um poema sobre isso, mas a IA pode fazê-lo”, diz Robert Morris, que estuda inteligência artificial na Universidade de Oxford.

A afirmação na primeira frase deste artigo pode inspirar desconfiança. “É um exagero, não devem haver sistemas assim tão bons!”, podemos pensar. Mas o trecho seguinte, citando piadas e poemas e contendo a afirmação de Robert Morris – pesquisador fictício – foi escrita em questão de segundos por um algoritmo criado pela OpenAI

Base da programação, um algoritmo é uma sequência lógica, finita e definida de instruções a serem seguidas para resolver um problema ou executar uma tarefa. Similar a uma receita com o passo a passo para a resolução de uma tarefa.

Um robô-escritor

Em fevereiro a OpenAI anunciou o sistema, batizado de GPT-2. A avaliação dos resultados foi tão boa que os responsáveis decidiram não liberar a pesquisa completa para o público até que fossem mais bem discutidas as implicações de sua disponibilização. O receio residia na possibilidade de mau uso da ferramenta para a disseminação de spam, notícias falsas, teorias conspiratórias, discursos preconceituosos e de ódio. 

Nos meses que se seguiram a OpenAI liberou versões parciais da ferramenta e, no início de novembro, abriu para uso a maior versão disponível, dotada de 1,5 bilhão de parâmetros.

O volume de dados usados no treinamento do algoritmo é um dos grandes diferenciais do GPT-2. Os modelos “eram 12 vezes maiores, e o conjunto de dados era 15 vezes maior e muito mais amplo” do que os utilizados até então, descreve Dario Amodei, diretor de pesquisa do OpenAI. Dez milhões de artigos, totalizando um volume de 40 GB, compõem a base do sistema. É o equivalente a 35 mil cópias de Moby Dick. 

O jornal britânico The Guardian, em matéria que repercutia o anúncio feito no início do ano, mostrou como o GPT-2 dava sequência à frase inicial de “1984”, clássica distopia escrita por George Orwell. Fizemos o mesmo, mas utilizando a abertura de Dom Casmurro. O resultado foi o seguinte (em tradução livre para o português):

Uma noite destas, vindo da cidade para o Engenho Novo, encontrei no trem da Central um rapaz aqui do bairro, que eu conheço de vista e de chapéu.  Ele estava de cabeça baixa e não falou. Eu vi claramente sua face jovem. Ele passou por mim e não parou. Achei estranho, mas me lembrei da garota. Ele foi em direção a garota. Desci do trem e o segui.

Os exemplos mostram como o algoritmo, embora esteja longe de um Machado de Assis, ainda assim é capaz de desenvolver a narrativa de forma criativa e coerente (embora o original traga algumas incongruências). Você mesmo pode experimentá-lo, aqui.  

Aprendendo português

Como foi alimentado com textos em inglês, o sistema por ora funciona nesse idioma. Mas é possível treinar o GPT-2 em qualquer língua, dado que ele não distingue idiomas. Mais: ele sequer lida bem com palavras, exatamente, mas com byte-pair encodings. “Resumidamente, é como se fosse um vocabulário composto por caracteres e sequências de caracteres mais comuns vistas nos textos. Algumas palavras pequenas ou muito comuns fazem parte deste vocabulário, enquanto outras são decompostas em partes menores, e tratadas como mais de um token. Isso traz muita flexibilidade, pois não se fica amarrado ao vocabulário de uma língua específica”, explica o brasileiro Erick Fonseca, pós-doutorando no Instituto de Telecomunicações de Lisboa. Ele testou o algoritmo uma base de dados em português. 

Para isso, Fonseca extraiu da Wikipédia e usou como input para o GPT-2 todos os artigos em língua portuguesa. O processo está descrito em um artigo no Medium. Como o pesquisador utilizou uma versão preliminar do sistema, liberada em agosto, e um volume de dados consideravelmente menor – cerca de 1,5 GB, bem menos que os 40 GB do original – os resultados não são tão impactantes, mas mostram a capacidade da ferramenta. 

Apesar de algumas incongruências e repetições, o algoritmo foi bem-sucedido em captar a estrutura geral das frases em português. Ele criou diversos textos, inventando nomes e situações, acertando mais do que errando, como vemos no trecho abaixo: 

“Armored Warfare” é o segundo álbum de estúdio da banda estadunidense The Band, lançado em 1965. Foi o primeiro álbum a ter lançamento em 1965 e foi lançado pela gravadora chamada Midway Records. (…) O disco teve vendas de mais de 26 mil cópias nos Estados Unidos. Ame seus álbuns de estúdio foram certificados em diversos países brasileiros e o “single” “The Last Man” vendeu mais de 4 mil cópias nos Estados Unidos.

Camões que se cuide?

Os avanços da inteligência artificial, tais como o GPT-2, mantém acesa a discussão sobre as potencialidades, limites e dilemas da tecnologia. Restará algo em que as máquinas não possam nos superar? A escrita é uma habilidade complexa e, até o ano passado, exclusiva dos humanos.  

Mas se não podemos esperar que uma IA seja capaz de produzir o tipo de prosa original que você esperaria de alguém com doutorado em literatura, isso não deveria ser um sinal de que a máquina é apenas uma ferramenta?

Não sabemos ainda a resposta. Mas pergunta também foi formulada pelo GPT-2, na sequência do trecho com o qual gentilmente colaborou para esse artigo.

Inteligência artificial ameaça criar geração de inúteis

08/11/2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 1 thought on “Inteligência artificial ameaça criar geração de inúteis”

Em palestras pelo Brasil, autor de Sapiens defende acordo global contra uso lesivo da tecnologia.

O  professor e escritor israelense Yuval Harari tornou-se conhecido no mundo inteiro com o sucesso do livro “Sapiens: uma breve história da humanidade”, traduzido em mais de 40 idiomas e com milhões de cópias vendidas. Com outros dois best sellers lançados desde então, o historiador ocupou notícias e conteúdos online nos últimos dias em função de sua primeira visita ao Brasil, onde participa de alguns eventos. 

Harari resume em três vertentes os problemas que a humanidade vai enfrentar no século 21: as mudanças climáticas, os avanços da biotecnologia/bioengenharia e a ascensão da inteligência artificial. O desenvolvimento das tecnologias e seu impacto na sociedade contemporânea é assunto central e recorrente tanto em seus escritos quanto nas conferências que têm proferido. 

Uma das preocupações que ele destaca é um assunto no qual já tocamos aqui: o fato de que a tecnologia provoca mudanças constantes e significativas no mercado de trabalho e possivelmente criará uma massa de pessoas sem utilidade, do ponto de vista econômico e financeiro. “Se a maior luta do século 20 foi contra a exploração, a maior luta do século 21 será contra a irrelevância. Por isso os governos têm que proteger as pessoas”, afirmou em uma palestra no encerramento da 5ª Semana de Inovação, realIzada pela Escola de Administração Pública (Enap), em Brasília. Ele completa, em outro tema abordado aqui pelo blog: 

“O risco é que a revolução da inteligência artificial resulte em algo como a revolução industrial do século XIX: desigualdade extrema entre alguns países que dominam a economia global e outros que colapsam completamente, porque seu principal ativo de mão de obra manual barata se torna irrelevante”

O valor dos dados e sua importância estratégica é outra questão chave para o escritor. A combinação de avanços no domínio da biologia humana com o poder tecnológico digital pode resultar num “hackeamento” dos indivíduos. “É possível criar algoritmos que nos conhecem melhor que nós, que podem nos hackear e manipular nossos sentimentos e nossos desejos. E eles não precisam ser perfeitos, apenas nos conhecer melhor. E isso não é difícil porque muitos de nós não se conhecem muito bem”. 

Em entrevista ao El País em 2018, traçou um interessante paralelo entre algumas forças capazes de controlar as pessoas ao longo do século 20, tais como os partidos fascistas dos anos 1930, a KGB e os grandes conglomerados atuais. As organizações no século passado conseguiam estabelecer altos níveis de controle, mas não tinham tecnologia para seguir e manipular cada indivíduo pessoalmente. Hoje isso já é possível (e acontece). “Já estamos vendo como a propaganda é desenhada de forma individual, porque há informação suficiente sobre cada um de nós. Se você quer criar muita tensão dentro de um país em relação à imigração, coloque uns tantos hackers e trolls para difundir notícias falsas personalizadas. Para a pessoa partidária de endurecer as políticas de imigração você manda uma notícia sobre refugiados que estupram mulheres. E ela aceita porque tem tendência a acreditar nessas coisas. Para a vizinha dela, que acha que os grupos anti-imigrantes são fascistas, envia-se uma história sobre brancos espancando refugiados, e ela se inclinará a acreditar. Assim, quando se encontrarem na porta de casa, estarão tão irritados que não vão conseguir estabelecer uma conversa tranquila. Isso aconteceu nas eleições dos Estados Unidos de 2016 e na campanha do Brexit.”

A aposta do escritor para a condução desses grandes desafios da humanidade está no diálogo e na cooperação. Não há, segundo ele, oposição entre as ideias de nacionalismo e globalização. Os estados podem e devem garantir sua soberania e liberdade, mas devem se unir para evitar que as grandes corporações se apoderem e façam mau uso dos dados, o bem mais valioso do século 21. “Precisamos de um acordo global. E isso é possível. Não construindo muros, como está na moda, mas construindo confiança. No entanto, estamos na direção oposta neste momento.”

#AprendinoEnem: Inteligência Artificial e Big Data caem na prova

05/11/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “#AprendinoEnem: Inteligência Artificial e Big Data caem na prova”

Tecnologias da Informação e Comunicação foram presença constante nas questões do primeiro dia do Exame.

Quase 4 milhões de pessoas participaram do Exame Nacional do Ensino Médio (Enem) neste final de semana. As provas são o principal meio de acesso ao ensino superior e uma boa nota é a garantia de vaga nos cursos mais disputados em universidades públicas (e muitas privadas). O conteúdo é vasto, mas o candidato desta última edição aprendeu que vale a pena estar sintonizado com as novas Tecnologias da Informação e Comunicação (TICs) e seu impacto na sociedade.

Das 45 questões da prova de Linguagens, Códigos e suas Tecnologias, 20% estavam relacionadas de forma direta às TICs. Foram nove questões para quem selecionou o inglês como língua estrangeira e 10 para os optantes pelo espanhol.

Temas muito atuais estiveram presentes na prova, como a Inteligência Artificial. A questão abordava a experiência realizada no Japão com um sistema incumbido de escrever um conto. A resposta correta exigia do candidato o entendimento da diferença entre a estrutura e a criatividade da linguagem humana.

Big Data e análise de dados também marcaram presença na prova, em questão abordando o projeto Data Viva, uma plataforma aberta de visualização de dados sociais e econômicos do Brasil. Para acertar, o candidato deveria entender que a análise de grandes volumes de dados é capaz de oferecer informações estratégicas à sociedade.

A questão mais divertida, e que viralizou após o exame, apresentava uma lista de tipos on-line, classificados por seu perfil de postagem, como o “Turista em tempo integral” (que posta o ano inteiro fotos das férias), a “Mãe orgulhosa demais” (que faz questão de contar todas as gracinhas, até as que só tem graça para ela própria) e o “Baladeiro Vida Louca” (com seu feed de imagens de festas e bebidas). A resposta correta informava que as redes sociais estimulam a exposição exagerada dos indivíduos.

Outras questões abordaram as características da geração que não se lembra como era o mundo antes da internet, a disponibilização de imagens para compartilhamento com licenciamento Creative Commons, o que é software livre e sua contribuição para a sociedade e a exposição de imagens de crianças na rede. Além de um texto que citava um boicote à cantina da escola via twitter, promovida por alunos indignados com o preço do pão de queijo.

Fica a dica para as próximas edição do Enem: Leia o Why!

Quando um robô não quer, dois não brigam?

01/11/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Quando um robô não quer, dois não brigam?”

Estudo explora a confiabilidade de agentes de inteligência artificial na mediação de conflitos em equipes de trabalho.

 

Já estamos nos acostumando a “ouvir” algumas ferramentas digitais, hoje amplamente usadas. Siri e Alexa são alguns exemplos difundidos de assistentes virtuais, Google Maps e Waze nos apontam distâncias e caminhos, isso para citar apenas alguns exemplos. Mas será que confiaríamos em instrumentos dotados de inteligência artificial para mediar conflitos? 

Essa pergunta motivou um estudo que envolveu pesquisadores das Universidades do Sul da Califórnia (USC) e de Denver. Os pesquisadores criaram um avatar de agente virtual que interagia com uma equipe de três pessoas e estava programado para provocar falhas e gerar conflitos. O objetivo era avaliar se esse agente tinha potencial de atuar melhorando a colaboração e mediando a situação.

Em uma pesquisa anterior, o mesmo grupo detectou que as pessoas tinham mais liberdade para fazer confissões a um terapeuta virtual. Na experiência agora apresentada, a conclusão foi distinta. Os envolvidos tiveram menos propensão a se envolver com Chris, o agente virtual, quando os conflitos surgiam. 

As 27 situações de teste foram realizadas em uma academia militar. Em nenhuma das ocorrências o agente foi ignorado ou menosprezado. Os membros da equipe interagiam com ele normalmente, ouvindo, sendo simpáticos e agradecendo por suas contribuições. Contudo, quando se iniciava o contexto conflituoso, o envolvimento dos humanos com a máquina diminuía consideravelmente. 

Isso indica que os agentes virtuais ainda não gozam de tanta credibilidade para mediar conflitos, mas as perspectivas são boas. Comentários dos participantes indicaram a percepção de que essas ferramentas são neutras e imparciais. “Nossos resultados mostram que agentes virtuais e robôs potencialmente sociais podem ser bons mediadores de conflitos em todos os tipos de equipes. Será muito interessante descobrir as intervenções e respostas sociais para finalmente integrar perfeitamente agentes virtuais em equipes humanas para que eles tenham melhor desempenho”, comenta Kerstin Haring, professor assistente de ciência da computação na Universidade de Denver, autor principal do estudo. 

Os cientistas pretendem reproduzir essa investigação em outros ambientes profissionais.

Um algoritmo que não faz bem para a saúde

28/10/2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo que não faz bem para a saúde”

Software de operadoras de saúde nos EUA apresenta viés que privilegia brancos em detrimento de negros.

 

A palavra algoritmo permaneceu décadas restrita ao vocabulário dos estudiosos e profissionais da Ciência da Computação. A disseminação dos serviços e plataformas digitais trouxe o termo para o cotidiano. É o algoritmo do Uber quem escolhe a melhor rota no trânsito, e o do Facebook determina quem aparece ou não na sua timeline. Ele pode ser definido como uma sequência de raciocínios, instruções ou operações para alcançar determinado objetivo, com etapas cumpridas de forma sistemática.

O desenvolvimento tecnológico vem possibilitando a criação de algoritmos matemáticos cada vez mais complexos, com o objetivo de realizar as mais variadas e ousadas tarefas. Computadores e robôs são programados e dotados de inteligência artificial para trabalhar de forma autônoma, e até mesmo aprender – o tão falado machine learning.

Uma das questões mais discutidas atualmente nesse assunto, da qual já falamos em outro artigo, é a existência de vieses que podem distorcer análises e predições, e até mesmo reproduzir preconceitos. A chamada “discriminação algorítmica” é real e já tem até seu verbete na Wikipédia

Mais um estudo recente abordou essa ocorrência, dessa vez realizado por pesquisadores de Berkeley. Publicada na Revista Science, a pesquisa mostrou como um algoritmo utilizado por vários provedores de saúde nos Estados Unidos privilegiava pacientes brancos em detrimento dos negros ao prever quais usuários necessitavam de mais cuidados extras. 

O sistema – cujo nome foi omitido pelos estudiosos mas foi identificado pelo jornal Washington Post como sendo o software Optum – é utilizado, segundo a detentora UnitedHealth, para gerenciar mais de 70 milhões de vidas. Ao analisar quase 50 mil registros médicos de um grande hospital acadêmico, os cientistas observaram que o algoritmo atribuiu níveis de risco mais altos a pessoas brancas em comparação com pessoas negras igualmente doentes. A proporção de negros que foram selecionados para obter cuidados complementares foi reduzida a mais da metade em função da distorção do software. Os 10 sistemas mais usados no segmento de saúde nos EUA apresentam a mesma falha. 

O viés surgiu a partir da utilização dos históricos médicos para prever o quanto os usuários provavelmente custariam ao sistema de saúde. Por razões socioeconômicas e afins, pacientes negros costumam incorrer em menores custos com assistência médica do que os brancos com as mesmas enfermidades. Assim, o algoritmo conferiu aos brancos pontuações iguais à de negros consideravelmente mais doentes. 

Após as pesquisas os envolvidos trabalharam para corrigir o problema do Optum, conseguindo reduzir a disparidade em mais de 80%, em uma versão capaz de prever os custos futuros de um paciente e quantas vezes uma condição crônica pode surgir no ano seguinte. 

O estudo evidenciou mais uma vez a necessidade de atenção por parte dos desenvolvedores dos algoritmos. Problemas como esse têm sido recorrentes, não apenas na área da saúde, como também na seleção e contratação de pessoas, pontuação de crédito, seguros, justiça criminal e muitas outras. 

Nathana Sharma, professora da Singularity University, em entrevista recente, apontou caminhos:

“O que podemos fazer, de forma prática, é criar um sistema de origem ou sistema de armazenamento de informações que reúna os dados que nós queremos informar aos algoritmos e então vemos como esses algoritmos performam. E podemos usar esse mesmo sistema para julgar os vieses e então depois podemos dar um passo atrás e consertá-los. Podemos adicionar outros dados, que ajudem os algoritmos a tomarem decisões menos preconceituosas do que qualquer humano faria.”

E completou: “Mas é difícil chegar até aqui porque muitos dos desenvolvedores são homens brancos e partem de dados enviesados. Muitos dos algoritmos que vemos hoje estão enviesados. Em breve, precisaremos dar um próximo passo em busca de um mundo mais justo.”

Estamos mais perto da computação quântica?

25/10/2019 Posted by Tecnologia, Tendências 0 thoughts on “Estamos mais perto da computação quântica?”

Google apresenta processador e afirma ter atingido a supremacia quântica.

O Google divulgou esta semana os resultados de um experimento e rapidamente celebrou ter alcançando a supremacia quântica. O nome pretensioso refere-se a um conceito proposto por John Preskil, em 2012, para identificar o ponto em que os computadores quânticos seriam capazes de fazer coisas que computadores convencionais não poderiam. O Google afirma ter atingindo este marco com o processador Sycamore, desenvolvido em seus laboratórios na Califórnia, capaz de executar em 200 segundos um cálculo que teria levado mais de 10 mil anos em um computador atual. Controversa, a experiência nos faz perguntar: o quão perto estamos da computação quântica? Já abordamos este tema aqui e ali.

A computação quântica é um sonho ainda tão distante que mesmo sua aplicabilidade permanece em discussão. Os qubits, ou quantum bits, aproveitam-se da estranha habilidade das partículas subatômicas de existirem em mais de um estado ao mesmo tempo. Como resultado, podem armazenar mais combinações além dos 1 ou 0 dos bits atuais, e a capacidade de memória é extraordinariamente maior, com operações feitas muito mais rapidamente e com reduzido uso de energia. Na verdade, o experimento desta semana mostrou uma capacidade de crescimento duplamente exponencial.

O sistema apresentado pela Google foi recebido com ressalvas. Sugerimos este artigo para entender seu funcionamento. A IBM afirma que um computador convencional, com uma configuração diferente da prevista pela Google, seria capaz de resolver o mesmo problema em três dias. Já a Intel desdenha, dizendo que não há aplicações práticas para o processador Sycamore. Por trás da discussão está a batalha das grandes corporações pelo controle desse conhecimento.

Os desafios, entretanto, são muitos. Entre eles, podemos citar:

 

Hardware: O Sycamore enfrentou diversos desafios e um que permanece é relativo aos caros e extensos cabos necessários à obtenção das leituras. Os qubits são estabelecidos em átomos e seus múltiplos estados são difíceis de determinar, dada sua tendência a gerar números incoerentes e imprevisíveis, para se dizer o mínimo. O próprio spin a ser medido é um “momento” sem qualquer analogia com a física clássica, ele nem mesmo gira no sentido como entendemos o termo spin. E, é claro, as máquinas quânticas precisam operar na temperatura ambiente. Os protótipos em funcionamento rodam em temperaturas próximas de zero absoluto para se beneficiarem da supercondutividade de alguns materiais a esta temperatura.

Programação: todo o software atual é baseado em construções (expressões algébricas, funções trigonométricas, cálculo integral, pontos flutuantes etc) desenvolvidas nos séculos passados e não aplicáveis à física quântica. Não é possível adaptar a programação atual. É necessária uma nova matemática, criada do zero, para servir de base, e, a partir daí, inventar novas linguagens de programação.

 

Vale a pena, entretanto, investir neste conhecimento. Muitos dos avanços tecnológicos embrionários dependem fundamentalmente de mais processamento para serem desenvolvidos ou executados. Os computadores quânticos seriam capazes de oferecer breakthroughs em diversas áreas, como avanços no modelamento de reações químicas complexas, capazes de revolucionar a geração e o armazenamento de energia. Ou simulações de comportamento molecular e consequente design de novas moléculas para uso na medicina e genética. E também modelos complexos de análises de dados e aumento exponencial da capacidade de previsão e predição.

Avanços como este permitiriam o desenvolvimento de fontes limpas, baratas e abundantes de energia. Ou o sequenciamento genético para eliminar doenças e aumentar o tempo de vida. Ou ferramentas para controle do clima e do solo. Esta busca, entretanto, está longe de ter um fim, e não é difícil imaginar o tamanho do desafio.