Posts in Data Science

Ensinando solidariedade às máquinas

3 de dezembro de 2019 Posted by Data Science, Pessoas, Tendências 0 thoughts on “Ensinando solidariedade às máquinas”

No Dia de Doar, refletimos sobre o espaço da solidariedade em tempos de Inteligência Artificial.

Todo dia é dia de doar, mas hoje, a primeira terça-feira depois do Dia de Ação de Graças (o Thanksgiving Day tão celebrado pelos americanos), comemora-se em diversos países o Dia de Doar (Giving Tuesday, lá fora). O movimento mundial teve início em 2012 e vem crescendo desde então. Desapegar e ajudar o próximo é um ato essencialmente orgânico. Não apenas humanos, mas diversas espécies colaboram de alguma forma entre si, garantindo abrigo, alimento e afeto a membros mais fracos da comunidade. Nos perguntamos: é possível ensinar solidariedade às máquinas?

A resposta é sim. Mais do que isso, a solidariedade deve ser um princípio ético central na Inteligência Artificial, defende Miguel Luengo-Oroz, Chief Data Scientist da Global Pulse, uma iniciativa da Organização das Nações Unidas (ONU) com foco no acompanhamento de inovações tecnológicas e de comunicação. Em artigo recentemente publicado na prestigiosa revista Nature, Luengo-Oroz chama a atenção para a necessidade de um compromisso com o tema, uma vez que os riscos envolvidos são elevados, e mesmo sistema confiáveis podem ser usados para:

  • Prever o aparecimento de um câncer letal em pessoas que, sem saber, terão seu acesso negado a seguros e planos de saúde;
  • Automatizar tarefas e funções diversas, aumentando a produtividade, mas deixando milhares (ou milhões) de humanos sem trabalho;
  • Antever nossas decisões e cruzar a tênue linha que separa a sugestão da manipulação.

O pesquisador destaca que tecnologias poderosas exigem compromissos e não por acaso a energia nuclear permanece disponível somente com um tratado de não-proliferação de armas nucleares em vigor, assim como existem barreiras legais e fiscalização mundial sobre as pesquisas para manipulação genética.

Diversos países organizam-se para incluir guidelines de inclusão, como a Declaração de Montreal para uma IA responsável, de 2017. O texto propõe que o desenvolvimento de inteligências autônomas deve ser compatível com a manutenção dos laços de solidariedade entre as pessoas. Gostou? Declare seu apoio aqui:

Como um princípio, a solidariedade aplicada à Inteligência Artificial prevê:

1) O compartilhamento da prosperidade criada pela IA, com a implementação de mecanismos para redistribuir o aumento da produtividade entre todos, assim como também distribuir o trabalho, garantindo que a desigualdade não aumente.

 2) A reflexão sobre o impacto das aplicações no longo prazo, evitando a irrelevância de vastos grupos humanos. As consequências devem ser pensadas antes da execução dos sistemas. Repetindo as palavras do escritor Yuval Noah Harari, a Inteligência Artificial pode nos tornar irrelevantes. Os ganhos de produtividade e a capacidade de modelar, replicar e automatizar nossas ações podem criar uma geração de inúteis, como já falamos neste blog.

O maior desafio, no longo prazo, é descobrir como redistribuir o aumento da produtividade de forma a evitar a irrelevância. Não é a tecnologia baseada no homem, mas sim na humanidade, adverte Luengo-Oroz.

Um algoritmo escreveu este texto

12 de novembro de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo escreveu este texto”

Na verdade, apenas parte deste texto foi escrito por uma máquina, mas elas estão se esforçando para chegar lá.

 

Pode parecer ficção científica, mas já existem sistemas de inteligência artificial capazes de criar textos com incrível semelhança aos escritos por humanos. Alguns deles incluem coisas como piadas e poemas. Outros são muito mais sérios. Um exemplo recente da Universidade de Oxford contém uma poesia sobre o extermínio de judeus por Hitler.

“Se um ser humano tem uma forte antipatia por um grupo em particular, é muito improvável que ele seja capaz de escrever um poema sobre isso, mas a IA pode fazê-lo”, diz Robert Morris, que estuda inteligência artificial na Universidade de Oxford.

A afirmação na primeira frase deste artigo pode inspirar desconfiança. “É um exagero, não devem haver sistemas assim tão bons!”, podemos pensar. Mas o trecho seguinte, citando piadas e poemas e contendo a afirmação de Robert Morris – pesquisador fictício – foi escrita em questão de segundos por um algoritmo criado pela OpenAI

Base da programação, um algoritmo é uma sequência lógica, finita e definida de instruções a serem seguidas para resolver um problema ou executar uma tarefa. Similar a uma receita com o passo a passo para a resolução de uma tarefa.

Um robô-escritor

Em fevereiro a OpenAI anunciou o sistema, batizado de GPT-2. A avaliação dos resultados foi tão boa que os responsáveis decidiram não liberar a pesquisa completa para o público até que fossem mais bem discutidas as implicações de sua disponibilização. O receio residia na possibilidade de mau uso da ferramenta para a disseminação de spam, notícias falsas, teorias conspiratórias, discursos preconceituosos e de ódio. 

Nos meses que se seguiram a OpenAI liberou versões parciais da ferramenta e, no início de novembro, abriu para uso a maior versão disponível, dotada de 1,5 bilhão de parâmetros.

O volume de dados usados no treinamento do algoritmo é um dos grandes diferenciais do GPT-2. Os modelos “eram 12 vezes maiores, e o conjunto de dados era 15 vezes maior e muito mais amplo” do que os utilizados até então, descreve Dario Amodei, diretor de pesquisa do OpenAI. Dez milhões de artigos, totalizando um volume de 40 GB, compõem a base do sistema. É o equivalente a 35 mil cópias de Moby Dick. 

O jornal britânico The Guardian, em matéria que repercutia o anúncio feito no início do ano, mostrou como o GPT-2 dava sequência à frase inicial de “1984”, clássica distopia escrita por George Orwell. Fizemos o mesmo, mas utilizando a abertura de Dom Casmurro. O resultado foi o seguinte (em tradução livre para o português):

Uma noite destas, vindo da cidade para o Engenho Novo, encontrei no trem da Central um rapaz aqui do bairro, que eu conheço de vista e de chapéu.  Ele estava de cabeça baixa e não falou. Eu vi claramente sua face jovem. Ele passou por mim e não parou. Achei estranho, mas me lembrei da garota. Ele foi em direção a garota. Desci do trem e o segui.

Os exemplos mostram como o algoritmo, embora esteja longe de um Machado de Assis, ainda assim é capaz de desenvolver a narrativa de forma criativa e coerente (embora o original traga algumas incongruências). Você mesmo pode experimentá-lo, aqui.  

Aprendendo português

Como foi alimentado com textos em inglês, o sistema por ora funciona nesse idioma. Mas é possível treinar o GPT-2 em qualquer língua, dado que ele não distingue idiomas. Mais: ele sequer lida bem com palavras, exatamente, mas com byte-pair encodings. “Resumidamente, é como se fosse um vocabulário composto por caracteres e sequências de caracteres mais comuns vistas nos textos. Algumas palavras pequenas ou muito comuns fazem parte deste vocabulário, enquanto outras são decompostas em partes menores, e tratadas como mais de um token. Isso traz muita flexibilidade, pois não se fica amarrado ao vocabulário de uma língua específica”, explica o brasileiro Erick Fonseca, pós-doutorando no Instituto de Telecomunicações de Lisboa. Ele testou o algoritmo uma base de dados em português. 

Para isso, Fonseca extraiu da Wikipédia e usou como input para o GPT-2 todos os artigos em língua portuguesa. O processo está descrito em um artigo no Medium. Como o pesquisador utilizou uma versão preliminar do sistema, liberada em agosto, e um volume de dados consideravelmente menor – cerca de 1,5 GB, bem menos que os 40 GB do original – os resultados não são tão impactantes, mas mostram a capacidade da ferramenta. 

Apesar de algumas incongruências e repetições, o algoritmo foi bem-sucedido em captar a estrutura geral das frases em português. Ele criou diversos textos, inventando nomes e situações, acertando mais do que errando, como vemos no trecho abaixo: 

“Armored Warfare” é o segundo álbum de estúdio da banda estadunidense The Band, lançado em 1965. Foi o primeiro álbum a ter lançamento em 1965 e foi lançado pela gravadora chamada Midway Records. (…) O disco teve vendas de mais de 26 mil cópias nos Estados Unidos. Ame seus álbuns de estúdio foram certificados em diversos países brasileiros e o “single” “The Last Man” vendeu mais de 4 mil cópias nos Estados Unidos.

Camões que se cuide?

Os avanços da inteligência artificial, tais como o GPT-2, mantém acesa a discussão sobre as potencialidades, limites e dilemas da tecnologia. Restará algo em que as máquinas não possam nos superar? A escrita é uma habilidade complexa e, até o ano passado, exclusiva dos humanos.  

Mas se não podemos esperar que uma IA seja capaz de produzir o tipo de prosa original que você esperaria de alguém com doutorado em literatura, isso não deveria ser um sinal de que a máquina é apenas uma ferramenta?

Não sabemos ainda a resposta. Mas pergunta também foi formulada pelo GPT-2, na sequência do trecho com o qual gentilmente colaborou para esse artigo.

Inteligência artificial ameaça criar geração de inúteis

8 de novembro de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 1 thought on “Inteligência artificial ameaça criar geração de inúteis”

Em palestras pelo Brasil, autor de Sapiens defende acordo global contra uso lesivo da tecnologia.

O  professor e escritor israelense Yuval Harari tornou-se conhecido no mundo inteiro com o sucesso do livro “Sapiens: uma breve história da humanidade”, traduzido em mais de 40 idiomas e com milhões de cópias vendidas. Com outros dois best sellers lançados desde então, o historiador ocupou notícias e conteúdos online nos últimos dias em função de sua primeira visita ao Brasil, onde participa de alguns eventos. 

Harari resume em três vertentes os problemas que a humanidade vai enfrentar no século 21: as mudanças climáticas, os avanços da biotecnologia/bioengenharia e a ascensão da inteligência artificial. O desenvolvimento das tecnologias e seu impacto na sociedade contemporânea é assunto central e recorrente tanto em seus escritos quanto nas conferências que têm proferido. 

Uma das preocupações que ele destaca é um assunto no qual já tocamos aqui: o fato de que a tecnologia provoca mudanças constantes e significativas no mercado de trabalho e possivelmente criará uma massa de pessoas sem utilidade, do ponto de vista econômico e financeiro. “Se a maior luta do século 20 foi contra a exploração, a maior luta do século 21 será contra a irrelevância. Por isso os governos têm que proteger as pessoas”, afirmou em uma palestra no encerramento da 5ª Semana de Inovação, realIzada pela Escola de Administração Pública (Enap), em Brasília. Ele completa, em outro tema abordado aqui pelo blog: 

“O risco é que a revolução da inteligência artificial resulte em algo como a revolução industrial do século XIX: desigualdade extrema entre alguns países que dominam a economia global e outros que colapsam completamente, porque seu principal ativo de mão de obra manual barata se torna irrelevante”

O valor dos dados e sua importância estratégica é outra questão chave para o escritor. A combinação de avanços no domínio da biologia humana com o poder tecnológico digital pode resultar num “hackeamento” dos indivíduos. “É possível criar algoritmos que nos conhecem melhor que nós, que podem nos hackear e manipular nossos sentimentos e nossos desejos. E eles não precisam ser perfeitos, apenas nos conhecer melhor. E isso não é difícil porque muitos de nós não se conhecem muito bem”. 

Em entrevista ao El País em 2018, traçou um interessante paralelo entre algumas forças capazes de controlar as pessoas ao longo do século 20, tais como os partidos fascistas dos anos 1930, a KGB e os grandes conglomerados atuais. As organizações no século passado conseguiam estabelecer altos níveis de controle, mas não tinham tecnologia para seguir e manipular cada indivíduo pessoalmente. Hoje isso já é possível (e acontece). “Já estamos vendo como a propaganda é desenhada de forma individual, porque há informação suficiente sobre cada um de nós. Se você quer criar muita tensão dentro de um país em relação à imigração, coloque uns tantos hackers e trolls para difundir notícias falsas personalizadas. Para a pessoa partidária de endurecer as políticas de imigração você manda uma notícia sobre refugiados que estupram mulheres. E ela aceita porque tem tendência a acreditar nessas coisas. Para a vizinha dela, que acha que os grupos anti-imigrantes são fascistas, envia-se uma história sobre brancos espancando refugiados, e ela se inclinará a acreditar. Assim, quando se encontrarem na porta de casa, estarão tão irritados que não vão conseguir estabelecer uma conversa tranquila. Isso aconteceu nas eleições dos Estados Unidos de 2016 e na campanha do Brexit.”

A aposta do escritor para a condução desses grandes desafios da humanidade está no diálogo e na cooperação. Não há, segundo ele, oposição entre as ideias de nacionalismo e globalização. Os estados podem e devem garantir sua soberania e liberdade, mas devem se unir para evitar que as grandes corporações se apoderem e façam mau uso dos dados, o bem mais valioso do século 21. “Precisamos de um acordo global. E isso é possível. Não construindo muros, como está na moda, mas construindo confiança. No entanto, estamos na direção oposta neste momento.”

Um algoritmo que não faz bem para a saúde

28 de outubro de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Um algoritmo que não faz bem para a saúde”

Software de operadoras de saúde nos EUA apresenta viés que privilegia brancos em detrimento de negros.

 

A palavra algoritmo permaneceu décadas restrita ao vocabulário dos estudiosos e profissionais da Ciência da Computação. A disseminação dos serviços e plataformas digitais trouxe o termo para o cotidiano. É o algoritmo do Uber quem escolhe a melhor rota no trânsito, e o do Facebook determina quem aparece ou não na sua timeline. Ele pode ser definido como uma sequência de raciocínios, instruções ou operações para alcançar determinado objetivo, com etapas cumpridas de forma sistemática.

O desenvolvimento tecnológico vem possibilitando a criação de algoritmos matemáticos cada vez mais complexos, com o objetivo de realizar as mais variadas e ousadas tarefas. Computadores e robôs são programados e dotados de inteligência artificial para trabalhar de forma autônoma, e até mesmo aprender – o tão falado machine learning.

Uma das questões mais discutidas atualmente nesse assunto, da qual já falamos em outro artigo, é a existência de vieses que podem distorcer análises e predições, e até mesmo reproduzir preconceitos. A chamada “discriminação algorítmica” é real e já tem até seu verbete na Wikipédia

Mais um estudo recente abordou essa ocorrência, dessa vez realizado por pesquisadores de Berkeley. Publicada na Revista Science, a pesquisa mostrou como um algoritmo utilizado por vários provedores de saúde nos Estados Unidos privilegiava pacientes brancos em detrimento dos negros ao prever quais usuários necessitavam de mais cuidados extras. 

O sistema – cujo nome foi omitido pelos estudiosos mas foi identificado pelo jornal Washington Post como sendo o software Optum – é utilizado, segundo a detentora UnitedHealth, para gerenciar mais de 70 milhões de vidas. Ao analisar quase 50 mil registros médicos de um grande hospital acadêmico, os cientistas observaram que o algoritmo atribuiu níveis de risco mais altos a pessoas brancas em comparação com pessoas negras igualmente doentes. A proporção de negros que foram selecionados para obter cuidados complementares foi reduzida a mais da metade em função da distorção do software. Os 10 sistemas mais usados no segmento de saúde nos EUA apresentam a mesma falha. 

O viés surgiu a partir da utilização dos históricos médicos para prever o quanto os usuários provavelmente custariam ao sistema de saúde. Por razões socioeconômicas e afins, pacientes negros costumam incorrer em menores custos com assistência médica do que os brancos com as mesmas enfermidades. Assim, o algoritmo conferiu aos brancos pontuações iguais à de negros consideravelmente mais doentes. 

Após as pesquisas os envolvidos trabalharam para corrigir o problema do Optum, conseguindo reduzir a disparidade em mais de 80%, em uma versão capaz de prever os custos futuros de um paciente e quantas vezes uma condição crônica pode surgir no ano seguinte. 

O estudo evidenciou mais uma vez a necessidade de atenção por parte dos desenvolvedores dos algoritmos. Problemas como esse têm sido recorrentes, não apenas na área da saúde, como também na seleção e contratação de pessoas, pontuação de crédito, seguros, justiça criminal e muitas outras. 

Nathana Sharma, professora da Singularity University, em entrevista recente, apontou caminhos:

“O que podemos fazer, de forma prática, é criar um sistema de origem ou sistema de armazenamento de informações que reúna os dados que nós queremos informar aos algoritmos e então vemos como esses algoritmos performam. E podemos usar esse mesmo sistema para julgar os vieses e então depois podemos dar um passo atrás e consertá-los. Podemos adicionar outros dados, que ajudem os algoritmos a tomarem decisões menos preconceituosas do que qualquer humano faria.”

E completou: “Mas é difícil chegar até aqui porque muitos dos desenvolvedores são homens brancos e partem de dados enviesados. Muitos dos algoritmos que vemos hoje estão enviesados. Em breve, precisaremos dar um próximo passo em busca de um mundo mais justo.”

Neocolonialismo digital: quando os dados valem ouro

15 de outubro de 2019 Posted by Data Science, Tecnologia 0 thoughts on “Neocolonialismo digital: quando os dados valem ouro”

Relatório das Nações Unidas alerta para o domínio dos gigantes no cenário mundial de processamento de dados. 

Que os dados são matéria prima valiosa no mundo contemporâneo não é novidade (ao menos para quem está antenado com as tendências de tecnologia da informação). Tampouco é surpreendente que as principais potências do mundo liderem os rankings de inovação e investimentos nessa área. 

Um relatório publicado em setembro pela Conferência das Nações Unidas para Comércio e Desenvolvimento (UNCTAD) alerta para o fato de esse contexto recriar condições semelhantes às experimentadas no período em que os países se dividiam entre metrópoles e colônias. Estados Unidos e China – que juntos detêm mais de 90% do valor de capitalização das 70 maiores empresas online do planeta – despontam como dominadores, enquanto países com baixa capacidade de processamento de dados, como o Brasil, acabam ocupando o posto de meras “colônias digitais”. 

As informações dos usuários de internet são coletadas gratuitamente pelos vários serviços dos quais fazem uso. De forma isolada esses dados não têm qualquer valor. Reunidos, constituem um enorme acervo que, se bem processado e analisado, pode valer ouro. 

Acontece que a maioria dos países não consegue fazer frente ao domínio sino-americano e acaba contratando serviços norte-americanos ou chineses para processar seus dados. Em ciclo análogo ao da exploração colonial, os dados brutos extraídos ao redor do mundo são beneficiados e revendidos, bem mais caros, ao mesmo público que os gerou. 

Ao pagar pelo acesso às plataformas estrangeiras e pela inteligência por elas desenvolvida, os estados deixam de fomentar o desenvolvimento interno nesse ramo e as empresas nacionais não conseguem prosperar. A dependência e a assimetria, então, tornam-se quase irremediáveis. 

“As plataformas também se tornam monopolísticas financeiramente. Quando elas vão em busca de investidores, eles só querem investir nelas. Eles não querem apostar em uma pequena empresa desconhecida do Brasil, porque lucrarão muito mais investindo no Google, por exemplo”, afirma o diretor do núcleo de competitividade global da instituição de ensino IMD de Lausanne, Arturo Bris. E há um agravante: os próprios usuários, embora em parte saibam que têm seus dados usados dessa forma, continuam utilizando as ferramentas, pelos benefícios que oferecem e para manter suas conexões.

A esperança, segundo o professor Bris, está no fato de as pessoas estarem tomando consciência do cenário. “As plataformas estão sob ataque, sim, não apenas econômica, mas socialmente. As pessoas estão começando a questionar, se dando conta de que estão explorando o bem mais valioso: a nossa informação”. Pilar Fajarnes, uma das autoras do relatório da UNCTAD, completa ao destaca o papel imprescindível dos governos: “Os países devem fomentar empresas locais que façam o ‘refino’ dos dados, e adotar políticas que defendam a propriedade e controle dos indivíduos sobre suas informações”.

Blockchain é uma moda passageira?

11 de outubro de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Blockchain é uma moda passageira?”

Tecnologia que sustenta as criptomoedas enfrenta os desafios da operacionalização.

 

Responsável por toda a onda em torno das criptomoedas, a tecnologia blockchain é (ou era) uma das mais promissoras em desenvolvimento nos últimos anos. Mas enfrenta uma crise: “Muitos de seus experimentos permanecem em estado experimental, não permitindo a construção dos esperados novos ecossistemas digitais”, afirma Avivah Litan, analista e vice-presidente da Gartner. A empresa, reconhecida por seu estudo de tendências em tecnologia da informação, divulgou esta semana seu já conhecido hype cycle atualizado para o blockchain, e as expectativas não são as melhores.

Enquanto diversas aplicações ligadas ao blockchain ainda estão entrando no “pico das expectativas infladas”, várias já se encaminham para o “fosso das desilusões”. Os dois termos são traduções livres dos estágios do ciclo de vida de uma tecnologia, que vai da concepção (o inonovation trigger) ao platô de produtividade (plateau of productivity).

O “pico das expectativas infladas” (peak of inflated expectations) é o momento em que as tecnologias não estão operacionais, mas muito se fala sobre elas, com pequenos avanços ganhando grande publicidade. Nós mesmos já participamos do hype, aqui. Outro caso é o dos smart contracts. Estes contratos à prova de falsificações permitem negociações entre desconhecidos, mesmo para transações de alto valor, e são simples o suficiente para permitir a eliminação de intermediadores, como advogados, corretores ou cartórios. Sim, um lindo sonho. Mas está tão distante da realidade que nem mesmo frustrados com eles nós estamos.

Não podemos dizer o mesmo de todo um conjunto de ferramentas ligadas às criptomoedas, como as plataformas de negociação e as carteiras virtuais. Estas tecnologias entraram no fosso das desilusões (trough of disilusionment). Os sistemas em funcionamento não entregaram o que prometiam e cada vez mais pessoas percebem que não será tão fácil como se imaginava.

Um dos estudos mais conhecidos sobre as dificuldades enfrentadas pela blockchain é o relatório apresentado pelos pesquisadores da Agência Norte-Americana para o Desenvolvimento Internacional, após avaliarem 43 experiências com blockchain. Nas palavras de Christine Murphy:

“Não encontramos nenhuma documentação ou evidência dos resultados. Também não encontramos lições aprendidas ou insights práticos, como costumam estar disponíveis para outras tecnologias em desenvolvimento. Apesar de todo o hype sobre como o Blockchain vai trazer transparência para processos e operações em ambientes de baixa confiança, a indústria em si é opaca.  Por isso, nossa opinião é a de que faltam evidências que embasem as declarações sobre o valor do Blockchain para os potenciais adotantes”.

Para a Gartner, entretanto, a chegada ao fosso das desilusões é apenas um passo necessário antes da assimilação da tecnologia pelo mercado. É o momento em que as apostas erradas são fechadas e os desenvolvedores efetivamente identificam o que funciona e o que não funciona. O relatório prevê que, em 2023, as plataformas serão escaláveis e interoperáveis, abrindo caminho para a disseminação de ferramentas em grande escala, a partir de 2028.

Ensinando e aprendendo com dados

26 de setembro de 2019 Posted by Data Science, Negócios, Pessoas 0 thoughts on “Ensinando e aprendendo com dados”

A ciência de dados nas escolas pode trazer novas possibilidades para a educação.

São inúmeros os desafios da educação brasileira: estrutura física inadequada, professores despreparados, processos internos burocráticos, sistemas educacionais arcaicos, crianças e jovens desestimulados, entre outros. Ao mesmo tempo, não faltam informações sobre o sistema. A Educação há décadas coleta e armazena dados sobre si mesma. Ferramentas e técnicas da ciência de dados têm muito a contribuir para melhorar a capacidade das pessoas de pensar, resolver e aprender, oferecendo tecnologias capazes de encontrar soluções para esses problemas.

A educação é um domínio particularmente adequado para a Data Science. Os dados educacionais são extensos e abrangem: registros escolares do ensino fundamental e médio; arquivos digitais de matérias e anotações; respostas dos alunos a testes e provas, e caso seja adequado, ela também pode abordar a interação em sala de aula, através de gravações de vídeo e voz, seria possível captar como o gerenciamento e a instrução em sala de aula são feitos, além da resposta dos alunos.

O tema está em discussão no 2º Desafios de Dados, um evento nos moldes Datathon em que uma equipe se inscreve e busca soluções em Data Science para problemas específicos. Na edição de 2019 a pauta é Educação Pública no Brasil. A edição que deu origem ao evento tratou da questão da saúde, tema que abordamos em nosso último texto no blog

Muitas das equipes inscritas fazem parte de Edtechs, um acrônimo das palavras Education e Technology. São startups que se diferenciam das outras por duas características

O uso de alguma forma da tecnologia, que significa a aplicação sistemática de conhecimento científico para tarefas práticas.

A tecnologia como facilitadora de processos de aprendizagem e aprimoramento dos sistemas educacionais, gerando efetividade e eficácia.

Estas empresas desenvolvem soluções tecnológicas para a oferta de serviços relacionados à educação, como plataformas de ensino, cursos online, jogos educativos, sistemas de gestão de aprendizado, entre outros.

No Brasil, de acordo com um mapeamento do Centro de Inovação para a Educação Brasileira (CIEB), em parceria com a Associação Brasileira de Startups (Abstartup), 73% dos estados brasileiros têm ao menos 3 edtechs. São Paulo concentra 43% delas, seguido por Minas Gerais, com 11% e Rio de Janeiro com 10%.

As startups criam alternativas para tornar o ensino e a aprendizagem mais eficientes, fazendo os usuários aprenderem mais rapidamente, com maior retenção de conteúdo. Com o treinamento adequado, educadores poderiam realizar tarefas de visualização, redução, descrição e previsão de dados, para que possam entender os sistemas educacionais, seus problemas e possíveis soluções, além de desenvolver uma compreensão mais profunda e formas de soluções empiricamente estabelecidas.

Todas essas novas fontes de dados estão repletas de informações sobre comunicação, relações e perfis comportamentais.  Todas essas informações podem ser extraídas e analisadas para entender e resolver problemas educacionais persistentes.

A Data Science poderia trabalhar em cima de diversas questões como: atrito do aluno e evasão escolar; frequência do aluno; detenções; encaminhamentos; atrasos na aprendizagem; falha na progressão; preconceito; etc. Não podemos dizer que a internet afastou os mais jovens do conhecimento, porque nunca tivemos tanta facilidade de acesso e contato com informação.

Data Science salva vidas!

20 de setembro de 2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Data Science salva vidas!”

A medicina está usando Inteligência Artificial e Machine Learning para aprimorar seus serviços.

A Inteligência Artificial e o Machine Learning possuem grande potencial transformador nos serviços de saúde. Os fabricantes de dispositivos médicos estão aproveitando a quantidade imensa de dados que são gerados todos os dias na área para desenvolver tecnologias e inovar seus produtos. Avanços na detecção precoce de doenças, diagnósticos mais precisos, identificação de novas observações ou padrões na fisiologia humana e desenvolvimento de diagnósticos personalizados estão no radar.

Os softwares destinados para fins médicos são os grandes alvos da IA e do Machine Learning. O Fórum Internacional de Reguladores de Dispositivos Médicos (IMDRF) define Software como Dispositivo Médico (SaDM) como todo aquele que executa finalidades médicas sem fazer parte de um hardware. A área já recebeu diversos avanços, mas os SaDM ainda podem se aprimorar conforme se evoluem as tecnologias de IA e ML, melhorando diretamente os cuidados de saúde dos pacientes.

Podemos citar alguns exemplos de SaDM baseadas em IA/ML, como o Software de Unidade de Terapia Intensiva, o Aplicativo Médico de Lesão de Pele e o Software de identificação de desvio de Tubos de Alimentação em Raios X. A seguir, vamos falar um pouco sobre eles.

O Software de Unidade de Terapia Intensiva com aplicação de IA/ML recebe eletrocardiograma, sangue, sinais de pressão e oximetria do pulso do paciente. Os sinais fisiológicos são processados e analisados para detectar padrões que ocorrem no início da instabilidade fisiológica. Se detectada, um sinal é gerado para indicação clínica imediata. Esse aplicativo conduz o gerenciamento clínico em uma situação crítica de saúde.

O Aplicativo Médico de Lesão de Pele com aplicação de IA/ML usa imagens tiradas pela câmera do smartphone do paciente para fornecer informações a um dermatologista sobre as características físicas de uma lesão cutânea. Isso permite que o médico rotule a lesão como benigna ou maligna. O aplicativo impulsionará o gerenciamento clínico em situações sérias de saúde.

O Software de identificação de desvio de Tubos de Alimentação em Raios X com aplicação de IA/ML analisa radiografias de tórax de pacientes internados após a colocação de um tubo de alimentação. Isso permite que o programa avalie quaisquer colocações incorretas e realize uma espécie de triagem, conduzindo o gerenciamento clínico em situações graves.

Esses são só alguns exemplos citados pela U.S. Food and Drug Administration (FDA), em um relatório que busca trazer uma discussão sobre a regulamentação e eventuais modificações a serem feitas em alguns destes softwares, no intuito de aumentar a precisão e melhorar a tecnologia atrelada ao sistema de saúde.

A Data Science está com um leque de aplicações cada vez mais amplo, e sua implementação pode ser extremamente benéfica, mudando drasticamente certos hábitos e costumes, além de melhorar a qualidade de vida, prospecção de negócios e impactando substancialmente áreas como a saúde. Quando bem explorada, ela pode fazer diferença e até salvar a vida de milhões de pessoas.

Uma breve história da (computação em) nuvem

28 de agosto de 2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “Uma breve história da (computação em) nuvem”

O conceito de cloud computing nasceu em 1960, conheça as origens desse mercado que movimenta bilhões.

O mercado de Cloud Computing está em alta. Em 2018, movimentou 200 bilhões de dólares, e há expectativas de que alcance a casa dos 300 bilhões em 2022, de acordo com a IDC – International Data Corporation. No dia a dia, os usuários encontram nesses serviços a facilidade de ampliar o armazenamento de seu smartphone, compartilhar arquivos com outras pessoas, mas a nuvem não se resume a isso. Quando uma empresa adere a esse serviço, ela pode desfrutar de maior produtividade, escalabilidade e segurança, elevando seu rendimento em diversos âmbitos.

A nuvem se tornou uma ferramenta acessível para qualquer um que possua um smartphone ou computador, mas apesar de parecer uma tecnologia recente, já se discutia sobre ela há muitas décadas. Os primeiros registros do que seria a base da nuvem nasceram com o americano John McCarthy, que em 1960, nove anos antes da criação da internet, já sugeria o conceito de computer utility, uma computação compartilhada simultaneamente entre dois ou mais usuários, onde você paga apenas pelo que usa. Suas palavras, em 1961, foram proféticas:

A computação poderá ser usufruída de forma pública, como hoje usamos a telefonia. Cada usuário pagará somente pelo que usar, mas com acesso às ferramentas de um sistema completo. Esta capacidade da comutação poderá ser a base de uma nova e importante indústria.

Outro nome importante para a criação e popularização da Cloud Computing é o físico Joseph Carl, que permitiu o compartilhamento de dados e a comunicação em escala global com a ARPANET, predecessora da internet. Joseph Carl é hoje considerado um dos pais esquecidos da internet.

Nos anos 1990, já com a World Wide Web, houve uma série de avanços nos sistemas de telecomunicação, como o aumento da banda larga, fácil acesso a computadores e a proliferação de internet de alta velocidade, abrindo portas para o futuro na nuvem. Assim, em 1997, foi usado pela primeira vez o termo Cloud Computing, em uma palestra ministrada pelo professor de Sistemas de Informação Ramnath Chellappa. A terminologia nasceu do símbolo da internet, algo que está “no ar”. Em 1999, a empresa Salesforce foi a primeira a disponibilizar aplicações empresariais pela web, mas foi somente em meados dos anos 2000 que tivemos o mais importante passo para popularização desse mercado no meio empresarial.

O ponto de inflexão na tecnologia é o ano de 2006, quando lançada a primeira versão da EC2, ou Elastic Compute Cloud, desenvolvida pela Amazon Web Services. É a origem do que hoje chamamos de Infrastructure-as-a-Service (IaaS). Ao permitir o acesso remoto ao processamento, na prática “alugando” computadores às empresas, a Amazon ofereceu uma nova visão sobre o sistema. O serviço permitia às empresas eliminar a necessidade de um investimento inicial em hardware, facilitando o desenvolvimento e implantação de serviços e aplicativos com mais rapidez e menos investimento em hardware.

De 2006 para cá aconteceram muitas outras mudanças, avanços e novidades na computação em nuvem. Sobre algumas, já falamos aqui, destacando o potencial, por exemplo, da Data Analytics as a Service. De acordo com a ABES – Associação Brasileira das Empresas de Software, somente no Brasil, de 2015 a 2017, foi registrado um aumento de 86,92% no faturamento desse segmento.  A nuvem apresenta uma série de soluções empresariais, que podem se aplicar a qualquer tipo de negócio. É necessário, entretanto, avaliar cada caso, uma vez que há riscos em relação a segurança das plataformas e à capacidade de atendimento das redes, especialmente em determinadas áreas e países.

Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô

23 de agosto de 2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 0 thoughts on “Empregos do futuro: piloto de drone, terapeuta do Facebook e professor de robô”

Conheça profissões que podem surgir e se popularizar nos próximos dez anos.

 

Quem viveu as últimas décadas assistiu à extinção de várias profissões e ao surgimento de tantas outras. E, acompanhando a curva cada vez mais acentuada do avanço tecnológico, inúmeros empregos atuais deixarão de existir. Nós mesmos já falamos disso por aqui

O Center for the Future of Work, criado pela empresa de serviços tecnológicos Cognizant, elencou dezenas de atividades que possivelmente surgirão, analisando variados aspectos que caracterizam o mundo atual, dentre os quais, é claro, os tecnológicos: automação, biotecnologia, física quântica, inteligência artificial, cibersegurança, realidade virtual e outros. 

Algumas dessas formas de trabalho soam bastante curiosas, embora não sejam improváveis e ainda pareçam um pouco distantes no horizonte. Entre eles estão desenvolvedores de órgãos humanos, professores de inglês como segunda língua para robôs, agricultores verticais urbanos, drone jockeys, manobristas de frotas autônomas e até mesmo terapeutas de dependência do Facebook. 

As profissões que, na avaliação dos estudiosos do Centro, estão prestes a se tornar relevantes e têm potencial de empregar centenas de milhares de pessoas, são o foco principal do relatório “21 jobs of the future: a guide to getting – and staying – employed over the next 10 years”. Veja alguns exemplos:

  • Data detective – devem vasculhar grandes volumes de dados para resolver questões complexas, verdadeiros enigmas surgidos na reunião das informações coletadas por dispositivos IoT, sensores, monitores biométricos, entre outros. 
  • AI-Assisted Healthcare Technician – técnicos que saibam lidar com o auxílio da Inteligência artificial serão cada vez mais necessários, dada a progressiva inserção dessa tecnologia no ramo da saúde. 
  • Cyber City Analyst – esse analista garantirá o funcionamento eficiente dos sistemas integrados nas chamadas “cidades inteligentes”. Cuidarão para que os fluxos de dados automatizados sigam bem, corrigindo erros, evitando e resolvendo ataques hacker.
  • Man-Machine Teaming Manager – será o responsável por gerir as relações entre humanos e máquinas, de modo a articular as principais qualidades e mitigar as limitações deles no trabalho, e desenvolverá os sistemas que permitam que essas equipes híbridas se comuniquem bem.
  • Personal Data Broker – como as tendências atuais determinam que os dados são propriedade dos indivíduos, e não das corporações, surgirá a figura do corretor de dados. Ele fará o monitoramento e a comercialização dos dados gerados por seu cliente. 
  • Personal Memory Curator – fará uso de ambientes virtuais e realidade aumentada para que idosos possam “habitar”, resgatando experiências e contextos passados que ofereçam conforto psicológico, sobretudo em casos de perda de memória (algo semelhante com o que é mostrado no episódio “San Junipero”, da série Black Mirror).
  • Augmented Reality Journey Builder – assim como há os escritores, os cineastas e os compositores, surgirão os construtores de narrativas em realidade aumentada, capazes de criar, projetar, construir, gamificar e personalizar a próxima geração de narrativas.

Resta agora saber quais dessas previsões se concretizará, de fato, nos próximos anos. Para qual delas você se candidataria? 

O blog de ideias da GoToData

Compartilhe

Facebook
Twitter
LinkedIn