Posts by gotodata

Artigo no Estadão discute influência dos algoritmos

02/11/2019 Posted by Sem categoria 0 thoughts on “Artigo no Estadão discute influência dos algoritmos”

CEO da Gotodata alerta para risco de perpetuação dos preconceitos e estigmas.

O blog do repórter Fausto Macedo, uma dos mais influentes do jornal Estado de São Paulo, publicou artigo da CEO da Gotodata, Paula Oliveira. Com o título “Afinal, os algoritmos são preconceituosos ou obedientes”, o texto reflete sobre as polêmicas envolvendo os algoritmos e as esperanças e medos gerados por sua disseminação.

Os algoritmos são conjuntos de instruções, cálculos e operações para alcançar determinado objetivo, com etapas cumpridas de forma sistemática. A nova geração tem sido denominada de aprendizagem de máquina e utiliza técnicas estatísticas e matemáticas para analisar grandes volumes de dados, identificar padrões de comportamento e recomendar ações.

O artigo alerta para o risco destas instruções refletirem preconceitos antigos da sociedade e cita como exemplo o algoritmo que privilegiou pacientes brancos em detrimento de pacientes negros no sistema de saúde norte-americano. Ou como o sistema de tradução do google é muitas vezes machista em suas escolhas.

O artigo completo pode ser conferido aqui.

 

“Mudanças no Judiciário vieram para ficar”, afirma CEO da GoToData

01/11/2019 Posted by Sem categoria 0 thoughts on ““Mudanças no Judiciário vieram para ficar”, afirma CEO da GoToData”

Em entrevista ao Portal LexLatin, Paula Oliveira discute integração entre Direito e tecnologia.

Em entrevista a um dos maiores provedores de conteúdo no campo do Direito na América Latina, o portal LexLatin, a CEO da GoToData, Paula Oliveira, destacou a importância do processo de aprendizado híbrido e permanente entre advogados e máquinas.

“Todas essas aplicações incitam mudanças drásticas no ensino e na prática do direito. Os advogados devem estar atentos a essas mudanças, já em curso no Brasil, e muito aceleradas no mundo internacional”, alerta Paula Oliveira.

Em sua entrevista, a especialista destacou a possibilidade de ferramentas de inteligência artificial assumirem um papel decisivo na relação entre juízes, promotores, advogados e clientes.

“Outrora considerado tecnologicamente impossível, esse desafio passou ao status de tendência, incitando discussões éticas importantes”, destacou.

A íntegra da entrevista pode ser conferida aqui:

https://br.lexlatin.com/entrevistas/inteligencia-artificial-da-novo-salto-e-ajuda-prescrever-melhor-tese-para-julgamento

Quando um robô não quer, dois não brigam?

01/11/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Quando um robô não quer, dois não brigam?”

Estudo explora a confiabilidade de agentes de inteligência artificial na mediação de conflitos em equipes de trabalho.

 

Já estamos nos acostumando a “ouvir” algumas ferramentas digitais, hoje amplamente usadas. Siri e Alexa são alguns exemplos difundidos de assistentes virtuais, Google Maps e Waze nos apontam distâncias e caminhos, isso para citar apenas alguns exemplos. Mas será que confiaríamos em instrumentos dotados de inteligência artificial para mediar conflitos? 

Essa pergunta motivou um estudo que envolveu pesquisadores das Universidades do Sul da Califórnia (USC) e de Denver. Os pesquisadores criaram um avatar de agente virtual que interagia com uma equipe de três pessoas e estava programado para provocar falhas e gerar conflitos. O objetivo era avaliar se esse agente tinha potencial de atuar melhorando a colaboração e mediando a situação.

Em uma pesquisa anterior, o mesmo grupo detectou que as pessoas tinham mais liberdade para fazer confissões a um terapeuta virtual. Na experiência agora apresentada, a conclusão foi distinta. Os envolvidos tiveram menos propensão a se envolver com Chris, o agente virtual, quando os conflitos surgiam. 

As 27 situações de teste foram realizadas em uma academia militar. Em nenhuma das ocorrências o agente foi ignorado ou menosprezado. Os membros da equipe interagiam com ele normalmente, ouvindo, sendo simpáticos e agradecendo por suas contribuições. Contudo, quando se iniciava o contexto conflituoso, o envolvimento dos humanos com a máquina diminuía consideravelmente. 

Isso indica que os agentes virtuais ainda não gozam de tanta credibilidade para mediar conflitos, mas as perspectivas são boas. Comentários dos participantes indicaram a percepção de que essas ferramentas são neutras e imparciais. “Nossos resultados mostram que agentes virtuais e robôs potencialmente sociais podem ser bons mediadores de conflitos em todos os tipos de equipes. Será muito interessante descobrir as intervenções e respostas sociais para finalmente integrar perfeitamente agentes virtuais em equipes humanas para que eles tenham melhor desempenho”, comenta Kerstin Haring, professor assistente de ciência da computação na Universidade de Denver, autor principal do estudo. 

Os cientistas pretendem reproduzir essa investigação em outros ambientes profissionais.

Em busca de novos desafios

30/10/2019 Posted by Sem categoria 0 thoughts on “Em busca de novos desafios”

Projeto Qualirede Go chega ao ciclo 5 e avança na transformação digital.

O desafio de implementar modelos de negócios disruptivos motivou os participantes do projeto Qualirede Go – Business, Technology & Data Analytics. Durante o encontro do Ciclo 5, realizado em Florianópolis, os changemakers da empresa aprenderam, trocaram experiências e discutiram sobre como usar soluções de Data Science para levar mais saúde para mais pessoas.

Em implantação desde o segundo semestre de 2018, o projeto Qualirede Go é desenvolvido pela Gotodata e tem o objetivo de acelerar a transformação digital da empresa. Com atuação nacional e mais de 800 mil vidas em Third-party Administration (TPA) full, o Grupo Qualirede é líder no mercado de saúde.

Durante a jornada, os participantes são levados a refletir sobre as dificuldades e apresentar soluções de fronteira para alavancar o acesso a novos mercados. As equipes trabalham de forma intensiva e criativa para transformar dados em ativos estratégicos por meio de pesquisa, análise de ferramentas de mercado, provas de conceito, prototipagem e outras técnicas.

A Gotodata aplica princípios de Agile and Responsible Data Science, apresentando aplicações de Data Science potencializadoras do impacto positivo na vida das pessoas.

O “Mundo conectado” pela Internet das Coisas

29/10/2019 Posted by Sem categoria 0 thoughts on “O “Mundo conectado” pela Internet das Coisas”

CEO da Gotodata é uma das entrevistadas em livro de Patrícia Knebel.

 

O lançamento do livro Mundo Conectado, da jornalista Patrícia Knebel, movimentou a Futurecom, um dos maiores eventos de tecnologia da América Latina. Com foco na revolução promovida pela Internet das Coisas, a obra traz o resultado de entrevistas com 50 especialistas de empresas, universidades e instituições de pesquisa. A CEO da Gotodata, Paula Oliveira, é uma das entrevistadas.

A Internet das Coisas, ou IoT, do inglês Internet of Things, é um sistema interligado de dispositivos – mecânicos ou digitais – identificados individualmente e com a capacidade de trocar informações em rede, sem intervenção humana. O Why, Blog de Ideias da Gotodata, já falou sobre seu impacto na segurança aqui e de sua relação com a Indústria 4.0 aqui, além de sua interdependência com o 5G. Sua articulação com a Inteligência Artificial e Blockchain vai transformar o modo como nos comportamos. “Aos dispositivos de IoT cabe criar uma camada digital sobre o nosso mundo físico, viabilizando uma cadeia de valor imaterial para o tráfego de dados acerca de quase tudo e todos, em quase todos os lugares”, acredita Paula Oliveira.

A Internet das Coisas pode impactar desde a vida pessoal à produção nas grandes indústrias, alcançando sistemas de segurança, saúde e educação, entre outras inúmeras possibilidades. Atualmente, 14,2 bilhões de dispositivos estão conectados à internet em todo o mundo, segundo levantamento da Gartner. Até 2021, esse número deve chegar a 25 bilhões. O volume de dados que todos esses aparelhos vão gerar e compartilhar cresce de forma exponencial. Em 2020, produziremos 67 zettabytes (ZB) de dados. Trata-se de um volume 134 vezes maior do que todo o conteúdo armazenado na web em 2009, quando tínhamos apenas 0,5 ZB na rede. Paula Oliveira alerta para a importância destes dados:

“Ainda mais impressionante do que o alto nível de investimento e expectativa em torno desta tecnologia é a quantidade massiva de dados disponíveis e acessíveis, nas suas mais diversas formas. Porém, na maior parte das vezes, tais dados permanecem armazenados, rapidamente se desconectam do contexto em que foram coletados e não são transformados efetivamente em fontes de valor”.

O livro Mundo Conectado aborda os desafios e oportunidades relacionadas à disseminação da Internet das Coisas. Idealizado pelo empresário Alexandre Bueno, produzido pela Estúdio Editorial, com textos da jornalista Patrícia Knebel, o livro traz diversos cases, como da Natura, Mercedes Benz, Prefeitura de Campinas, John Deere, Embraer, Microsoft e Grin Brasil. Seu lançamento movimentou o estande da Estúdio Editorial, reunindo especialistas, formadores de opinião, empresários e o público da Futurecom.

Um algoritmo que não faz bem para a saúde

28/10/2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo que não faz bem para a saúde”

Software de operadoras de saúde nos EUA apresenta viés que privilegia brancos em detrimento de negros.

 

A palavra algoritmo permaneceu décadas restrita ao vocabulário dos estudiosos e profissionais da Ciência da Computação. A disseminação dos serviços e plataformas digitais trouxe o termo para o cotidiano. É o algoritmo do Uber quem escolhe a melhor rota no trânsito, e o do Facebook determina quem aparece ou não na sua timeline. Ele pode ser definido como uma sequência de raciocínios, instruções ou operações para alcançar determinado objetivo, com etapas cumpridas de forma sistemática.

O desenvolvimento tecnológico vem possibilitando a criação de algoritmos matemáticos cada vez mais complexos, com o objetivo de realizar as mais variadas e ousadas tarefas. Computadores e robôs são programados e dotados de inteligência artificial para trabalhar de forma autônoma, e até mesmo aprender – o tão falado machine learning.

Uma das questões mais discutidas atualmente nesse assunto, da qual já falamos em outro artigo, é a existência de vieses que podem distorcer análises e predições, e até mesmo reproduzir preconceitos. A chamada “discriminação algorítmica” é real e já tem até seu verbete na Wikipédia

Mais um estudo recente abordou essa ocorrência, dessa vez realizado por pesquisadores de Berkeley. Publicada na Revista Science, a pesquisa mostrou como um algoritmo utilizado por vários provedores de saúde nos Estados Unidos privilegiava pacientes brancos em detrimento dos negros ao prever quais usuários necessitavam de mais cuidados extras. 

O sistema – cujo nome foi omitido pelos estudiosos mas foi identificado pelo jornal Washington Post como sendo o software Optum – é utilizado, segundo a detentora UnitedHealth, para gerenciar mais de 70 milhões de vidas. Ao analisar quase 50 mil registros médicos de um grande hospital acadêmico, os cientistas observaram que o algoritmo atribuiu níveis de risco mais altos a pessoas brancas em comparação com pessoas negras igualmente doentes. A proporção de negros que foram selecionados para obter cuidados complementares foi reduzida a mais da metade em função da distorção do software. Os 10 sistemas mais usados no segmento de saúde nos EUA apresentam a mesma falha. 

O viés surgiu a partir da utilização dos históricos médicos para prever o quanto os usuários provavelmente custariam ao sistema de saúde. Por razões socioeconômicas e afins, pacientes negros costumam incorrer em menores custos com assistência médica do que os brancos com as mesmas enfermidades. Assim, o algoritmo conferiu aos brancos pontuações iguais à de negros consideravelmente mais doentes. 

Após as pesquisas os envolvidos trabalharam para corrigir o problema do Optum, conseguindo reduzir a disparidade em mais de 80%, em uma versão capaz de prever os custos futuros de um paciente e quantas vezes uma condição crônica pode surgir no ano seguinte. 

O estudo evidenciou mais uma vez a necessidade de atenção por parte dos desenvolvedores dos algoritmos. Problemas como esse têm sido recorrentes, não apenas na área da saúde, como também na seleção e contratação de pessoas, pontuação de crédito, seguros, justiça criminal e muitas outras. 

Nathana Sharma, professora da Singularity University, em entrevista recente, apontou caminhos:

“O que podemos fazer, de forma prática, é criar um sistema de origem ou sistema de armazenamento de informações que reúna os dados que nós queremos informar aos algoritmos e então vemos como esses algoritmos performam. E podemos usar esse mesmo sistema para julgar os vieses e então depois podemos dar um passo atrás e consertá-los. Podemos adicionar outros dados, que ajudem os algoritmos a tomarem decisões menos preconceituosas do que qualquer humano faria.”

E completou: “Mas é difícil chegar até aqui porque muitos dos desenvolvedores são homens brancos e partem de dados enviesados. Muitos dos algoritmos que vemos hoje estão enviesados. Em breve, precisaremos dar um próximo passo em busca de um mundo mais justo.”

Estamos mais perto da computação quântica?

25/10/2019 Posted by Tecnologia, Tendências 0 thoughts on “Estamos mais perto da computação quântica?”

Google apresenta processador e afirma ter atingido a supremacia quântica.

O Google divulgou esta semana os resultados de um experimento e rapidamente celebrou ter alcançando a supremacia quântica. O nome pretensioso refere-se a um conceito proposto por John Preskil, em 2012, para identificar o ponto em que os computadores quânticos seriam capazes de fazer coisas que computadores convencionais não poderiam. O Google afirma ter atingindo este marco com o processador Sycamore, desenvolvido em seus laboratórios na Califórnia, capaz de executar em 200 segundos um cálculo que teria levado mais de 10 mil anos em um computador atual. Controversa, a experiência nos faz perguntar: o quão perto estamos da computação quântica? Já abordamos este tema aqui e ali.

A computação quântica é um sonho ainda tão distante que mesmo sua aplicabilidade permanece em discussão. Os qubits, ou quantum bits, aproveitam-se da estranha habilidade das partículas subatômicas de existirem em mais de um estado ao mesmo tempo. Como resultado, podem armazenar mais combinações além dos 1 ou 0 dos bits atuais, e a capacidade de memória é extraordinariamente maior, com operações feitas muito mais rapidamente e com reduzido uso de energia. Na verdade, o experimento desta semana mostrou uma capacidade de crescimento duplamente exponencial.

O sistema apresentado pela Google foi recebido com ressalvas. Sugerimos este artigo para entender seu funcionamento. A IBM afirma que um computador convencional, com uma configuração diferente da prevista pela Google, seria capaz de resolver o mesmo problema em três dias. Já a Intel desdenha, dizendo que não há aplicações práticas para o processador Sycamore. Por trás da discussão está a batalha das grandes corporações pelo controle desse conhecimento.

Os desafios, entretanto, são muitos. Entre eles, podemos citar:

 

Hardware: O Sycamore enfrentou diversos desafios e um que permanece é relativo aos caros e extensos cabos necessários à obtenção das leituras. Os qubits são estabelecidos em átomos e seus múltiplos estados são difíceis de determinar, dada sua tendência a gerar números incoerentes e imprevisíveis, para se dizer o mínimo. O próprio spin a ser medido é um “momento” sem qualquer analogia com a física clássica, ele nem mesmo gira no sentido como entendemos o termo spin. E, é claro, as máquinas quânticas precisam operar na temperatura ambiente. Os protótipos em funcionamento rodam em temperaturas próximas de zero absoluto para se beneficiarem da supercondutividade de alguns materiais a esta temperatura.

Programação: todo o software atual é baseado em construções (expressões algébricas, funções trigonométricas, cálculo integral, pontos flutuantes etc) desenvolvidas nos séculos passados e não aplicáveis à física quântica. Não é possível adaptar a programação atual. É necessária uma nova matemática, criada do zero, para servir de base, e, a partir daí, inventar novas linguagens de programação.

 

Vale a pena, entretanto, investir neste conhecimento. Muitos dos avanços tecnológicos embrionários dependem fundamentalmente de mais processamento para serem desenvolvidos ou executados. Os computadores quânticos seriam capazes de oferecer breakthroughs em diversas áreas, como avanços no modelamento de reações químicas complexas, capazes de revolucionar a geração e o armazenamento de energia. Ou simulações de comportamento molecular e consequente design de novas moléculas para uso na medicina e genética. E também modelos complexos de análises de dados e aumento exponencial da capacidade de previsão e predição.

Avanços como este permitiriam o desenvolvimento de fontes limpas, baratas e abundantes de energia. Ou o sequenciamento genético para eliminar doenças e aumentar o tempo de vida. Ou ferramentas para controle do clima e do solo. Esta busca, entretanto, está longe de ter um fim, e não é difícil imaginar o tamanho do desafio.

Vai criticar? Desligue o celular e use o computador

22/10/2019 Posted by Negócios, Tecnologia 0 thoughts on “Vai criticar? Desligue o celular e use o computador”

Além do conteúdo, dispositivo onde avaliações e reviews são postados tem relação com a confiabilidade sentida pelos leitores, aponta estudo.

É bem provável que você já tenha consultado comentários e reviews sobre um estabelecimento ou serviço antes de consumir ou fazer uma compra. Com a disseminação das plataformas online, tais como Booking, Trip Advisor, Yelp, Amazon, Foursquare e mesmo as ferramentas do Google, consultar as opiniões de outros usuários virou uma etapa praticamente obrigatória no processo de decisão de muitas pessoas. O curioso é que, em matéria de relevância, não apenas o conteúdo dessas avaliações importa.

Uma pesquisa, publicada recentemente pela Universidade de Connecticut (UConn) e veiculada na Revista Marketing Science, explorou algumas diferenças na percepção dos leitores dessas contribuições com base na plataforma onde foram geradas. 

Ao avaliar 275 mil avaliações de restaurantes, estudiosos da UConn, do Boston College e da Universidade de Pequim perceberam que as publicações feitas utilizando um dispositivo móvel obtiveram de 10% a 40% menos curtidas que as postadas de um desktop ou laptop. 

Uma das hipóteses do estudo é que a natureza do tempo real nas análises veiculadas pelo celular faz com que os revisores não tenham tempo suficiente para refletir sobre suas opiniões, o que teria impacto sobre a qualidade da informação. 

Esses comentários, portanto, podem não ser tão úteis para os leitores, mas ficou claro com o estudo que é bastante relevante para aqueles que os escrevem. “Escrever críticas pode ser terapêutico e ajudar os consumidores a entender suas experiências – aumentando o valor para os redatores, se não para aqueles que lêem as críticas”, comentam os autores da pesquisa. Sam Ransbotham, um dos pesquisadores que coordenou o trabalho, completa destacando que há prós e contras em incentivar o “boca a boca” pelos dispositivos móveis: “Como as análises móveis podem não se beneficiar da reflexão, as plataformas móveis podem, na verdade, incentivar o feedback de clientes menos engajados”.

O algoritmo que adora Adam Sandler

18/10/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “O algoritmo que adora Adam Sandler”

Sistema de Inteligência Artificial é usado na seleção de filmes da Sessão da Tarde.

 

A Rede Globo confirmou que um algoritmo é o culpado pelos filmes repetidos na Sessão da Tarde. O programa televisivo vai ao ar desde 1974 e permanece uma das principais atrações da emissora. É uma referência para a geração pré-streaming. Dos festivais com os Trapalhões aos clássicos Lagoa Azul e Curtindo a Vida Adoidado, não há quem não tenha sido feliz, deitado em um sofá, numa tarde chuvosa dos anos 80 (ou 90 ou 2000).

E, tão tradicional quanto o chocolate quente para acompanhar, é a lendária repetição dos títulos. A novidade é que agora a programação é feita por algoritmos e, sim, é verdade, eles são programados para repetir filmes. Os resultados são elogiados pelo diretor de programação da Globo, Amauri Soares:

“Nós criamos um algoritmo para ajudar na programação de filmes da Sessão Tarde. Nós tagueamos todos os filmes no acervo, com as características de cada um. O algoritmo entrega para o programador uma lista de filmes com os atributos que a gente quer. O algoritmo oferece o dobro de opções que o programador sozinho conseguiria levantar.”

E do que gosta o algoritmo? Gosta de histórias de superação e comédias (besteirol ou romântica), como demonstra a lista recente com os 10 campeões de audiência. E adora o Adam Sandler. Somente em 2019 o ator já teve cinco filmes exibidos, dois deles repetidos. É o campeão na escalação, seguido de longe por Sandra Bullock, Queen Latifah e Matthew McConaughey.

A Globo não é a primeira a testar um sistema como este. Algoritmos de recomendação de filmes (e músicas, shows, livros etc) são a base de plataformas como a Netflix, Amazon, Youtube e outras. Nestes modelos, o volume de dados para análise é extraordinário e crescente. Os resultados, no entanto, nem sempre superam a boa e bem-sucedida estratégia de apostar sempre no Adam Sandler.

A Netflix testa, há alguns meses, um novo sistema de recomendação, em uma tentativa de superar as críticas ao seu (irritante) algoritmo atual. O novo modelo, adivinhem, retorna à boa e velha curadoria humana. Em alguns aparelhos com iOS, as novas “coleções” passam por uma seleção prévia feita por pessoas, para então serem agrupadas pelos algoritmos. Um novo round nesta batalha de ferramentas de inteligência artificial pela identificação dos nossos gostos.

Neocolonialismo digital: quando os dados valem ouro

15/10/2019 Posted by Data Science, Tecnologia 0 thoughts on “Neocolonialismo digital: quando os dados valem ouro”

Relatório das Nações Unidas alerta para o domínio dos gigantes no cenário mundial de processamento de dados. 

Que os dados são matéria prima valiosa no mundo contemporâneo não é novidade (ao menos para quem está antenado com as tendências de tecnologia da informação). Tampouco é surpreendente que as principais potências do mundo liderem os rankings de inovação e investimentos nessa área. 

Um relatório publicado em setembro pela Conferência das Nações Unidas para Comércio e Desenvolvimento (UNCTAD) alerta para o fato de esse contexto recriar condições semelhantes às experimentadas no período em que os países se dividiam entre metrópoles e colônias. Estados Unidos e China – que juntos detêm mais de 90% do valor de capitalização das 70 maiores empresas online do planeta – despontam como dominadores, enquanto países com baixa capacidade de processamento de dados, como o Brasil, acabam ocupando o posto de meras “colônias digitais”. 

As informações dos usuários de internet são coletadas gratuitamente pelos vários serviços dos quais fazem uso. De forma isolada esses dados não têm qualquer valor. Reunidos, constituem um enorme acervo que, se bem processado e analisado, pode valer ouro. 

Acontece que a maioria dos países não consegue fazer frente ao domínio sino-americano e acaba contratando serviços norte-americanos ou chineses para processar seus dados. Em ciclo análogo ao da exploração colonial, os dados brutos extraídos ao redor do mundo são beneficiados e revendidos, bem mais caros, ao mesmo público que os gerou. 

Ao pagar pelo acesso às plataformas estrangeiras e pela inteligência por elas desenvolvida, os estados deixam de fomentar o desenvolvimento interno nesse ramo e as empresas nacionais não conseguem prosperar. A dependência e a assimetria, então, tornam-se quase irremediáveis. 

“As plataformas também se tornam monopolísticas financeiramente. Quando elas vão em busca de investidores, eles só querem investir nelas. Eles não querem apostar em uma pequena empresa desconhecida do Brasil, porque lucrarão muito mais investindo no Google, por exemplo”, afirma o diretor do núcleo de competitividade global da instituição de ensino IMD de Lausanne, Arturo Bris. E há um agravante: os próprios usuários, embora em parte saibam que têm seus dados usados dessa forma, continuam utilizando as ferramentas, pelos benefícios que oferecem e para manter suas conexões.

A esperança, segundo o professor Bris, está no fato de as pessoas estarem tomando consciência do cenário. “As plataformas estão sob ataque, sim, não apenas econômica, mas socialmente. As pessoas estão começando a questionar, se dando conta de que estão explorando o bem mais valioso: a nossa informação”. Pilar Fajarnes, uma das autoras do relatório da UNCTAD, completa ao destaca o papel imprescindível dos governos: “Os países devem fomentar empresas locais que façam o ‘refino’ dos dados, e adotar políticas que defendam a propriedade e controle dos indivíduos sobre suas informações”.