Posts in Pessoas

O que alunos e professores devem saber sobre segurança digital

14/02/2020 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “O que alunos e professores devem saber sobre segurança digital”

Cada vez mais presente nas escolas, internet é uma ferramenta extraordinária, mas traz riscos.

 

Embora lenta, a adoção de novas tecnologias de ensino pelas escolas da rede pública e privada do Brasil avançou na última década. Mais de 90% das escolas públicas contam com acesso à internet, embora nem sempre disponibilizado aos alunos. Os dados são do Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação. As escolas privadas estão na frente e, apesar de que apenas 47% tenham laboratórios, a maioria faz uso efetivo dos sistemas disponíveis.

A infraestrutura de acesso ao computador e à internet são apenas um passo e, ao redor do mundo, estão em andamento centenas de experiências de aplicação nas salas de aula das novas tecnologias de comunicação e informação. Mais e mais a relação entre professores e alunos é mediada pela rede. E, portanto, está sujeita a problemas que vão de simples mau uso (mas com efeitos devastadores) à ataques de cibercriminosos. Entre os riscos mais conhecidos estão:

  • Wi-fi não-seguro: Muitas redes disponibilizadas em escolas são tão vulneráveis como redes públicas de cafés, aeroportos ou praças. Algumas utilizam tecnologia pré autenticação PSK, facilitando o acesso de pessoas não-autorizadas a qualquer dispositivo conectado à rede.
  • Práticas obsoletas de proteção: A segurança digital das instituições de ensino é tão forte como seu elo mais fraco. Um simples software não atualizado pode permitir a invasão de um computador e, por ele, cibercriminosos acessam o restante da rede.

Nos Estados Unidos, o FBI divulgou uma lista de ações a serem seguidas pelos responsáveis pelas escolas, pais e estudantes. As instituições devem, como primeira ação, identificar quais informações estão em sua posse, hierarquizando o que é estratégico e sigiloso, como os dados pessoais dos alunos, assim como suas notas, por exemplo. Além de alinhadas com as regras da Lei Geral de Proteção de Dados, as práticas de segurança devem ser constantemente reavaliadas.  Atividades suspeitas devem ser monitoradas e as contra-ações decididas previamente, com a elaboração de um plano de respostas a incidentes.

Os pais devem participar das ações de proteção, afirma a especialista Emily Kowalsky. Ela reforça a importância de efetivamente verificar se o celular ou notebook do filho está atualizado e com sistemas ativos de proteção (firewalls e antivírus). Mesmo jovens, os alunos devem saber reconhecer um ataque de phishing, por exemplo, ou uma rede não segura. Um pai deve ter acesso às senhas dos filhos menores e consultar o histórico de navegação com frequência.

O compartilhamento de informações pessoais no ambiente escolar é um risco efetivo e muitas escolas desenvolvem campanhas de prevenção. A foto ou comentário compartilhada em privado com o colega vira um caso de grande repercussão ao vazar para o grupo de colegas. O mesmo vale para professores.

A internet é uma extraordinária ferramenta de aprendizagem, divertimento, lazer e interação, mas esconde seus perigos, em casa, no trabalho, e com certeza na escola. Vale ficar atento.

Dr. Algoritmo e o coronavírus

07/02/2020 Posted by Pessoas, Tendências 0 thoughts on “Dr. Algoritmo e o coronavírus”

Inteligência artificial previu surto antes do alerta da OMS e está sendo usada na luta contra a doença.

 

O mundo está sobressaltado com as notícias de que o ainda pouco conhecido coronavírus acometeu milhares de pessoas na China e começou a se espalhar por outros países. A Organização Mundial da Saúde (OMS) emitiu a notificação do surto da doença em 9 de janeiro, três dias depois de uma nota do Centro de Controle e Prevenção de Doenças dos Estados Unidos. Mas quem primeiro notou o perigo que se aproximava foi um algoritmo de inteligência artificial.

Em 31 de dezembro do ano passado o sistema da healthtech canadense BlueDot enviou a seus clientes um alerta de possível doença em regiões onde o coronavírus se manifestou. E mais. Ainda foi capaz de antever alguns dos primeiros destinos para os quais a enfermidade foi “exportada”: Seul, Taipei, Tóquio e Bangkok. 

O BlueDot se baseia em dados coletados de agências de notícias em 65 idiomas, redes de pesquisa de doenças em animais e plantas, comunicados oficiais de empresas do agronegócio e pecuária, entre outras. Um grupo de 40 colaboradores, entre cientistas e programadores, qualifica os dados, desconsiderando o que não é credível e acrescentando informações complementares. 

Por meio de Machine Learning todo esse volume de dados é lido e interpretado, gerando os alertas – que por ora são direcionados apenas aos clientes da empresa, público que deve ser ampliado em breve, segundo o fundador e CEO da BlueDot, Kamran Khan. “Podemos captar notícias de possíveis surtos, pequenos murmúrios, fóruns ou blogs com indicações de algum tipo de evento incomum acontecendo”, descreve. Há, segundo ele, um grande esforço para que as informações sejam validadas, de forma a não gerar alarmes falsos e ondas de pânico. 

A solução desponta como uma funcionalidade importante, que promete mais celeridade em relação aos organismos oficiais. “Sabemos que não se pode confiar nos governos para fornecer informações sensíveis em tempo hábil”, comenta Khan. Os interesses políticos e econômicos em não divulgar a gravidade de certos problemas pode, de fato, influenciar na rapidez em que a informação chega à população. 

Um soldado na luta contra o vírus

A inteligência artificial também está a serviço do tratamento dos casos e do gerenciamento de toda a batalha contra o coronavírus. Autoridades de Xangai lançaram dias atrás um robô capaz de conversar com as pessoas, identificar seu quadro de saúde e recomendar ações que minimizem riscos de contágio.“Com base em sua condição, é aconselhável que você fique em casa para uma observação de quarentena de 14 dias. Enviaremos suas informações aos centros de saúde comunitários para acompanhamento”, diz o sistema, em um exemplo de intervenção. 

Em Pequim e Shenzen, ferramentas de IA integrantes dos sistemas de controle de aeroportos e estações de trem detectam o calor corporal dos passageiros, identificando áreas de aglomeração. Assim, consegue piorizar viagens que diminuam o número de pessoas em uma mesma plataforma e até mesmo verificar sinais de febre em um indivíduo. 

O coronavírus têm mostrado um potencial de contaminação muito rápido, estando próximo de alcançar o número de casos registrados de Ebola e já tendo superado em quase quatro vezes as ocorrências de SARS. Felizmente, seu percentual de letalidade (2,0% dos casos) é bem inferior ao dessas duas doenças (43,9% e 9,6%, respectivamente) e do H1N1 (17,4%). 

Seguimos todos – humanos e algoritmos – na expectativa de que o surto seja contido.

(Crédito da imagem: _freakwave_ por Pixabay)

Sobre machismo e inteligência artificial

28/01/2020 Posted by Pessoas, Tecnologia 0 thoughts on “Sobre machismo e inteligência artificial”

Assédio contra assistentes virtuais dotadas de Inteligência Artificial acende o alerta sobre abusos, seja no mundo digital, seja na vida real. 

 

O uso de assistentes virtuais de voz, presentes em vários dispositivos, está se popularizando com rapidez. Só nos Estados Unidos, estima-se que 110 milhões de pessoas façam uso de tecnologias do tipo. Siri (da Apple), Cortana (da Microsoft) e Alexa (da Amazon) são os nomes mais conhecidos em uma lista que vem crescendo. Incansáveis e dispostas, nos auxiliam em diversas tarefas como pesquisar informações e dar comandos para aplicativos e aparelhos eletrônicos, sempre com respostas gentis e tom acolhedor. 

Curiosamente, e talvez não tão por acaso assim, as três ferramentas citadas têm nomes que remetem ao gênero feminino e possuem vozes femininas, por padrão. O Google Assistant, embora tenha nome genérico, também fala com voz de mulher. E a postura dessas assistentes, que por vezes beira a completa subserviência, tem ensejado uma série de abusos por parte dos usuários.  

As tecnologias de comunicação nos permitem interagir com milhares de pessoas e, ainda assim, cresce no mundo o número de solitários. Como resultado, essas ferramentas são usadas com frequência para conversas íntimas e de conteúdo sexualizado. Já em 2016 o diretor executivo da Robin Labs, Ilya Eckstein, destacava como a ferramenta Robin, criada por sua empresa para auxiliar no trânsito, recebia grande volume de mensagens com conotação sexual. Os principais usuários eram caminhoneiros e adolescentes que viam em Robin uma forma de entretenimento. 

No ano passado a Revista Veja registrou em uma reportagem as respostas das principais assistentes virtuais quando interpeladas com a frase “você é gostosa”. Alexa reagia com um “Gentileza sua dizer isso”, Google Assistant fazia graça dizendo “Tenho meu lado caliente. Alguns dos meus data centers funcionam a quase 40 graus”, Siri tentava sair pela tangente com um “Nas nuvens, todos são bonitos” e apenas Cortana conseguia ser mais evasiva: “É melhor a gente falar sobre outra coisa”. Nenhuma delas, contudo, rechaçava com veemência o comentário inadequado. 

Esse panorama vem chamando a atenção de estudiosos e motivou a elaboração de um relatório pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Chamado de “Eu ficaria vermelha, se pudesse”, o trabalho reuniu uma série de reflexões sobre as causas e implicações dessa realidade. O título da publicação é a resposta que a assistente Siri dava até 2017 para a frase “você é uma p***”. 

O relatório frisa que a preponderância de assistentes com voz feminina reforça a noção ultrapassada de que as mulheres devem assumir posturas dóceis e servis, estão sempre prontas a ajudar e devem tolerar abusos. E mais: percebe-se que os comportamentos agressivos e abusivos para com esses sistemas são análogos às relações reais nas quais impera a submissão de um dos lados. Como os softwares são programados para não contestar qualquer ameaça, os usuários se sentem superiores, no direito de interpelá-las como bem entendem. 

Reflexo virtual de um problema bastante real

“Inteligência artificial não é algo místico ou mágico. É algo que o ser humano produz, um reflexo direto da sociedade que criou a tecnologia”. Ao afirmar isso, a Diretora da Divisão de Igualdade de Gênero da Unesco, Gülser Corat, traz para a discussão a responsabilidade que os desenvolvedores dos sistemas têm sobre o comportamento de suas criações. Já até falamos aqui sobre os vieses que fazem os algoritmos reproduzirem discriminação de raça ou gênero, fruto das visões que, intencionalmente ou não, são incutidas em suas diretrizes no seu processo de programação. 

Os baixos índices de diversidade caracterizam o setor de desenvolvimento tecnológico. Em comparação com a presença masculina, a participação feminina é reduzida. Nos EUA, apenas um quarto das vagas em programação e matemática é preenchido por mulheres – número ligeiramente inferior ao observado na década de 1960. Em se tratando especificamente da área de IA, a proporção é ainda mais discrepante: só 12% das pesquisadoras e 6% das desenvolvedoras de software são mulheres. Em um cenário tão predominantemente masculino, as necessidades e pontos de vista femininos acabam não sendo atendidos a contento. 

Uma das iniciativas que tenta oferecer uma alternativa é a da agência de publicidade norte-americana Virtue, que reuniu engenheiros de som e linguistas de diversas orientações sexuais e identidades de gênero para desenvolver uma voz “neutra” para assistentes de IA. O resultado foi o sistema batizado de Q, derivado da palavra queer, que em inglês se refere a pessoas de gêneros e orientações sexuais variadas. Em sua apresentação, Q convida à cooperação: “Preciso de sua ajuda. Juntos, podemos assegurar que a tecnologia reconheça a todos nós”. 

A Unesco também se mobilizou, lançando em parceria com a agência de Comunicação SunsetDDB o movimento “Hey, atualize minha voz!”. A proposta é alertar para a importância da educação cibernética e do respeito às assistentes de voz e conclamar as grandes empresas de tecnologia a aprimorar seus sistemas para responder de forma adequada a interlocuções desrespeitosas. 

Segundo dados colhidos pelo movimento, 73% das mulheres reais afirmaram já ter sofrido algum tipo de assédio em ambientes online. Permitir que os abusos possam ser feitos às assistentes virtuais livremente é uma forma demonstrar conivência com atitudes como essa, tendo em vista que seus sistemas estão cada vez mais realistas, mimetizando cada vez melhor a interação humana. 

Se um homem se sente no direito de ser abusivo com uma mulher virtual por se sentir superior a ela, por que não faria o mesmo com uma parceira de carne e osso? A grande urgência consiste nisso: em pleno século 21, não há mais espaço para relações assim – nem mesmo com alguém “de mentira”.

Na imagem, reprodução do vídeo de apresentação da assistente virtual Q 

Ada Lovelace e o mistério do bug original

10/12/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Ada Lovelace e o mistério do bug original”

História e legado da condessa britânica considerada a primeira programadora da história vêm sendo redescobertos.

Hoje é aniversário de Ada Lovelace, pioneira da programação. Com sua inteligência brilhante, ela anteviu as possibilidades dos computadores, muito antes dos computadores serem construídos.

Nascida em 10 de dezembro de 1815, em Londres, Augusta Ada King teve uma vida curta e intensa. Sua mãe casou e rapidamente se separou do poeta, dândi e maluco Lord Byron. Recebeu uma educação esmerada (em ciências, não em etiqueta, como era de praxe na época para as mulheres) e desde criança demonstrou aptidão para a matemática. Casou-se com William King em 1835, recebendo o título de Condessa de Lovelace. Ambos adoravam corridas de cavalos. Morreu aos 37 anos, após uma série de problemas de saúde.

Aos 17 anos ela ficou amiga do matemático Charles Babbage, inventor da “Máquina Diferencial”, um mecanismo (movido a vapor!) capaz de fazer cálculos avançados para a época e que é hoje considerado o primeiro “computador”. Este vídeo bacana (em inglês) mostra uma exibição de como ele seria. Encantada com as possibilidades oferecidas pelo dispositivo, Ada usou seu aristocrático círculo de influências para divulgar e buscar fundos para sua construção.

O projeto teve um protótipo construído (quase um MVP), mas Babbage abandonou a iniciativa e concentrou suas forças em um modelo mais avançado, a “Máquina Analítica”. Em 1843, Ada traduziu para o inglês e acrescentou notas a um trabalho do engenheiro italiano Luigi Federico Menabrea sobre a Máquina Analítica. Nestas notas (muito mais extensas que o próprio artigo) estão as maiores contribuições de Ada para a ciência. Em uma delas (nota A) ela registra (pela primeira vez na história) que no futuro o invento seria capaz de não apenas fazer cálculos, mas também de processar qualquer tipo de relação entre grandezas e poderia, por exemplo, “compor músicas”. O que é muito comum hoje, veja aqui, por exemplo.

Sua contribuição mais famosa, no entanto, é uma proposta de código para rodar na invenção. Não era uma linguagem, no sentido que elas não existiam ainda, mas sim uma sequencia a ser executada para o cálculo dos números de Bernoulli. Feitos à mão, seriam cálculos que demorariam meses e gerariam todo tipo de erro. Ada Lovelace mostrou como a máquina pensada por Babbage poderia resolver o problema em muito menos tempo.

Recentemente, diversos programadores tentaram (e conseguiram) recriar o programa em linguagens atuais. Em C, temos uma tradução bem famosa aqui. Seu programador, Sinclair Target, explica no blog Two-bit History que não é uma recriação exata, mas um esforço que procurou ser o mais fiel possível, e que o teste mostrou como Lovelace efetivamente dominava o que no futuro chamaríamos de linguagem de programação, com a previsão de loops e outras ferramentas. No entanto, nas palavras de Sinclair:

Para a minha frustração, os resultados não estavam corretos. Depois de alguns ajustes, finalmente percebi que o problema não era o meu código. O bug estava no original!

Um bug é um erro ou falha no código e, no diagrama de 1842, uma operação indicava v5 / v4, quando o correto seria v4 / v5. Típico erro de “digitação” ou falha do programador? Não é possível identificar, mas é a situação em que o erro apenas comprova que Lovelace era realmente uma programadora. Programar é enfrentar os bugs. Há uma versão em Python, aqui.

As contribuições de Ada Lovelace permaneceram esquecidas por mais de um século e somente nas últimas décadas, com pesquisas sobre a história da computação, ela ganhou o status de pioneira da programação. Desde 2009, comemora-se em outubro o Dia de Ada Lovelace, uma celebração das conquistas femininas nas ciências.

Existem muitos livros sobre ela, mas nossa dica é uma ficção histórica, o romance steampunk A Máquina Diferencial, de William Gibson e Bruce Sterling. A narrativa é baseada na seguinte premissa: a máquina idealizada por Babbage é efetivamente construída e concede à Inglaterra uma vantagem estratégica no mundo, em plena Revolução Industrial, e neste cenário misturam-se espiões, exploradores e cientistas. O livro traz Lady Lovelace entre seus personagens.

Computadores-bebê e as leis da física

06/12/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Computadores-bebê e as leis da física”

Sistema avalia o comportamento de objetos em uma cena a partir de percepções intuitivas da física.

A grade curricular do ensino básico no Brasil só aprofunda os conteúdos de Física no ensino médio, quando os alunos já estão na adolescência. Mas a percepção das leis universais físicas é algo que já desenvolvemos desde os primeiros meses de idade. Ou, como explica , Kevin A. Smith, cientista do Departamento de Ciências do Cérebro e Cognitivas (BCS) e membro do Centro de Cérebros, Mentes e Máquinas (CBMM) do Massachusetts Institute of Technology (MIT):  

“Quando os bebês completam 3 meses de idade, eles têm uma noção de que os objetos não piscam para dentro e para fora da existência e não podem se mover através de outros ou se teletransportar”

Smith é um dos responsáveis pela criação de um modelo de Inteligência Artificial (IA) que compreende conceitos básicos de física intuitiva relacionados ao comportamento de objetos. O objetivo é desenvolver ferramentas melhores de IA e fornecer aos estudiosos uma melhor compreensão da cognição infantil.

O sistema chamado ADEPT observa objetos em movimento em determinada cena e prevê como eles devem se comportar a partir de sua física subjacente. A cada quadro do vídeo é emitido um “sinal de surpresa”, que é tanto maior quanto mais improvável seja o comportamento do item observado. 

Dois módulos compõem o experimento. Um extrai informações sobre o objeto (tais como posição, forma e velocidade), enquanto o outro prevê as representações futuras com base em um conjunto de possibilidades. 

Por exemplo: se um objeto está atrás de uma parede, espera-se que ele permaneça lá, a não ser que algum fator externo incida sobre ele. Se a parede cair e o objeto tiver desaparecido, há uma incompatibilidade com um preceito físico. O modelo “pensa” assim: “havia um objeto que, segundo minha previsão, deveria continuar ali. Ele desapareceu. Isso é surpreendente!”. 

Nos testes comparativos da percepção do computador e de humanos, os níveis de surpresa registrados foram semelhantes. Mas curiosamente o sistema se mostrou surpreso em algumas situações em que as pessoas não foram surpreendidas (mas talvez devessem ter sido). Em um vídeo em que um objeto se move a certa velocidade, passa por trás de uma parede e sai imediatamente do outro lado, o que só aconteceria se ele tivesse acelerado de forma impressionante ou teletransportado, duas coisas absolutamente improváveis. As pessoas não deram muita bola para essa incongruência, mas o ADEPT se incomodou. 

Outra característica interessante é que como a identificação da cena observada é feita por geometria aproximada (sem grande atenção aos detalhes), o sistema demonstrou versatilidade para lidar com objetos para os quais não foi treinado. 

“Não importa se um objeto é um retângulo, um círculo, um caminhão ou um pato. A ADEPT apenas vê que há um objeto em uma posição, movendo-se de uma certa maneira, para fazer previsões”, diz Smith. “Da mesma forma, crianças pequenas também parecem não se importar muito com algumas propriedades como a forma ao fazer previsões físicas”.

Na sequência dos estudos, os pesquisadores pretendem se aprofundar na investigação de como as crianças observam e aprendem sobre o mundo, incorporando essas descobertas no ADEPT. “Queremos ver o que mais precisamos construir para entender o mundo como os bebês e formalizar o que sabemos sobre psicologia para criar melhores agentes de IA”, comenta Smith.

Ensinando solidariedade às máquinas

03/12/2019 Posted by Data Science, Pessoas, Tendências 0 thoughts on “Ensinando solidariedade às máquinas”

No Dia de Doar, refletimos sobre o espaço da solidariedade em tempos de Inteligência Artificial.

Todo dia é dia de doar, mas hoje, a primeira terça-feira depois do Dia de Ação de Graças (o Thanksgiving Day tão celebrado pelos americanos), comemora-se em diversos países o Dia de Doar (Giving Tuesday, lá fora). O movimento mundial teve início em 2012 e vem crescendo desde então. Desapegar e ajudar o próximo é um ato essencialmente orgânico. Não apenas humanos, mas diversas espécies colaboram de alguma forma entre si, garantindo abrigo, alimento e afeto a membros mais fracos da comunidade. Nos perguntamos: é possível ensinar solidariedade às máquinas?

A resposta é sim. Mais do que isso, a solidariedade deve ser um princípio ético central na Inteligência Artificial, defende Miguel Luengo-Oroz, Chief Data Scientist da Global Pulse, uma iniciativa da Organização das Nações Unidas (ONU) com foco no acompanhamento de inovações tecnológicas e de comunicação. Em artigo recentemente publicado na prestigiosa revista Nature, Luengo-Oroz chama a atenção para a necessidade de um compromisso com o tema, uma vez que os riscos envolvidos são elevados, e mesmo sistema confiáveis podem ser usados para:

  • Prever o aparecimento de um câncer letal em pessoas que, sem saber, terão seu acesso negado a seguros e planos de saúde;
  • Automatizar tarefas e funções diversas, aumentando a produtividade, mas deixando milhares (ou milhões) de humanos sem trabalho;
  • Antever nossas decisões e cruzar a tênue linha que separa a sugestão da manipulação.

O pesquisador destaca que tecnologias poderosas exigem compromissos e não por acaso a energia nuclear permanece disponível somente com um tratado de não-proliferação de armas nucleares em vigor, assim como existem barreiras legais e fiscalização mundial sobre as pesquisas para manipulação genética.

Diversos países organizam-se para incluir guidelines de inclusão, como a Declaração de Montreal para uma IA responsável, de 2017. O texto propõe que o desenvolvimento de inteligências autônomas deve ser compatível com a manutenção dos laços de solidariedade entre as pessoas. Gostou? Declare seu apoio aqui:

Como um princípio, a solidariedade aplicada à Inteligência Artificial prevê:

1) O compartilhamento da prosperidade criada pela IA, com a implementação de mecanismos para redistribuir o aumento da produtividade entre todos, assim como também distribuir o trabalho, garantindo que a desigualdade não aumente.

 2) A reflexão sobre o impacto das aplicações no longo prazo, evitando a irrelevância de vastos grupos humanos. As consequências devem ser pensadas antes da execução dos sistemas. Repetindo as palavras do escritor Yuval Noah Harari, a Inteligência Artificial pode nos tornar irrelevantes. Os ganhos de produtividade e a capacidade de modelar, replicar e automatizar nossas ações podem criar uma geração de inúteis, como já falamos neste blog.

O maior desafio, no longo prazo, é descobrir como redistribuir o aumento da produtividade de forma a evitar a irrelevância. Não é a tecnologia baseada no homem, mas sim na humanidade, adverte Luengo-Oroz.

Inteligência artificial: uma aliada dos psicólogos e psiquiatras

28/11/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Inteligência artificial: uma aliada dos psicólogos e psiquiatras”

Aplicações de IA vêm sendo desenvolvidas para auxiliar no tratamento de questões da mente humana.

A integração da Inteligência Artificial com a área da saúde é uma tendência em franco desenvolvimento. Já falamos dessa interface aqui no blog, mostrando alguns softwares e dispositivos médicos dotados de IA, do auxílio que os algoritmos podem dar na análise de exames de imagem ou mesmo abordando as previsões para os próximos focos de inovação em saúde.

E é ainda importante destacar que a Saúde é uma área pioneira na análise de dados, com o desenvolvimento, ainda nos anos 1970, da corrente prática chamada de “Medicina Baseada em Evidências” (MBE), antecedendo práticas similares na educação, segurança e outras. Na definição da Revista da Associação Médica Brasileira, a “MBE se traduz pela prática da medicina em um contexto em que a experiência clínica é integrada com a capacidade de analisar criticamente e aplicar de forma racional a informação científica de forma a melhorar a qualidade da assistência médica”. 

As áreas de psicologia e psiquiatria estão entre as que se beneficiam dessa “dobradinha”. Enquanto algumas patologias podem ser diagnosticadas por exames de sangue ou de imagem, as doenças psíquicas têm causas complexas e multifatoriais. Para aumentar a assertividade de prescrições e evitar custos e desgaste aos pacientes, sobretudo em casos refratários (nos quais não há resposta aos tratamentos convencionais), é valioso prever qual tratamento surtirá melhor resultado, com menos efeitos colaterais. Já existem bons exemplos. 

Um grupo de pesquisadores da Universidade de Yale desenvolveu um modelo baseado em Machine Learning (ML) para identificar quais pacientes alcançariam remissão sintomática após 12 semanas utilizando o antidepressivo Citalopram. Das 164 variáveis coletadas entre os pacientes, concluíram que com apenas 25 eram capazes de identificar com 64,60% de acurácia quais deles responderiam bem ao tratamento. 

Outro trabalho, que envolveu pesquisadores suecos, holandeses e britânicos, apontou com 91,70% de acerto quais pacientes com Transtorno de Ansiedade Social se beneficiariam da Terapia Cognitiva Comportamental, fazendo uso de imagens de ressonância magnética funcional. 

Por sua vez, pesquisadores dos EUA, Canadá e China elaboraram um modelo preditivo que indicou os níveis de resposta de pacientes com esquizofrenia ao antipsicótico Risperidona e outro que, a partir de exames de imagem, identificava pacientes com esse distúrbio com 78,60% de assertividade. 

A IA também pode ser usada como auxiliar dos psicólogos e psiquiatras na avaliação dos tradicionais testes gráficos. Um exemplo é o trabalho desenvolvido no Departamento de Ciência da Computação da Universidade da Virginia que resultou em uma versão digital do teste neuropsicológico do relógio, associada a outras duas atividades, de repetir e recordar palavras. O resultado é um aplicativo simples capaz de promover a triagem de quadros demenciais com 99,53% de acurácia. 

Os exemplos, como vimos, já são muitos e as possibilidades são inúmeras. É a tecnologia, mais uma vez, prometendo auxiliar na busca por mais saúde e bem estar.

Reconhecimento facial já é! E agora?

18/11/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “Reconhecimento facial já é! E agora?”

Integração com o celular disseminou a tecnologia, mas risco de abuso também é crescente.

Como muitas tecnologias inovadoras, o reconhecimento facial por imagem guarda um tremendo potencial para simplificar, melhorar e tornar mais seguros muitos aspectos da nossa vida. Do sistema bancário ao atendimento médico, passando pelo comércio, entretenimento, trabalho e educação. Tema frequente na ficção científica, tornou-se primeiro uma aposta, depois uma tendência. Hoje, é uma realidade e a chave de seu sucesso é a integração com os celulares. A empresa de estudos de tendências Counterpoint estima que, até o final de 2020 – e 2020 já é – mais de um bilhão de smartphones terão algum tipo de desbloqueio baseado em reconhecimento facial (ou via digital), além de um crescente número de aplicativos de entretenimento e criação de conteúdo, como o Beard Booth, o Face Swap ou o Truthify.

A integração com o celular sinalizou para a indústria que o reconhecimento facial veio para ficar. Estudo da Allied Market Research estima que o mercado mundial de detecção facial vai atingir US$ 9.6 bilhões até 2022.

O crescimento acelerado chamou a atenção não apenas da indústria. Suas implicações transcendem o campo da tecnologia, e devemos esperar uma batalha em torno das implicações de seu uso generalizado. Usuários, empresas, governo e a sociedade civil compartilham alguns pontos, mas divergem em dezenas de outros, principalmente em relação à sua aplicação nas áreas de segurança e em questões envolvendo privacidade.

Muitos especialistas acreditam que há uma similaridade com o processo de popularização do automóvel. Por décadas, o setor manteve-se desregulado, ou com regras pouco rígidas, em um mundo que estava aprendendo a conviver com os carros. Tanto as leis de trânsito como as próprias especificações de segurança para a indústria eram desconexas e pouco compreendidas. Basta lembrar, por exemplo, que a obrigatoriedade de uso do cinto de segurança é uma conquista bastante recente. Na verdade, a indústria automobilística nem mesmo era obrigada a equipar os carros com esses itens até o final da década de 1960.

O principal temor relacionado ao reconhecimento facial é o uso abusivo por empresas e governos. A capacidade de uso em massa por regimes, autoritários ou não, é um receio antigo e real. Há indícios de que a China usa ferramentas no controle de minorias étnicas e, não por acaso, os manifestantes de Hong Kong abusam de sombrinhas e máscaras para também não caírem nos sistemas de controle político. Cidadãos de países democráticos enfrentam problemas diferentes, mas tão graves quantos. As denúncias de algoritmos preconceituosos baseados em reconhecimento de imagens são inúmeras.

Inteligência artificial ameaça criar geração de inúteis

08/11/2019 Posted by Data Science, Pessoas, Tecnologia, Tendências 1 thought on “Inteligência artificial ameaça criar geração de inúteis”

Em palestras pelo Brasil, autor de Sapiens defende acordo global contra uso lesivo da tecnologia.

O  professor e escritor israelense Yuval Harari tornou-se conhecido no mundo inteiro com o sucesso do livro “Sapiens: uma breve história da humanidade”, traduzido em mais de 40 idiomas e com milhões de cópias vendidas. Com outros dois best sellers lançados desde então, o historiador ocupou notícias e conteúdos online nos últimos dias em função de sua primeira visita ao Brasil, onde participa de alguns eventos. 

Harari resume em três vertentes os problemas que a humanidade vai enfrentar no século 21: as mudanças climáticas, os avanços da biotecnologia/bioengenharia e a ascensão da inteligência artificial. O desenvolvimento das tecnologias e seu impacto na sociedade contemporânea é assunto central e recorrente tanto em seus escritos quanto nas conferências que têm proferido. 

Uma das preocupações que ele destaca é um assunto no qual já tocamos aqui: o fato de que a tecnologia provoca mudanças constantes e significativas no mercado de trabalho e possivelmente criará uma massa de pessoas sem utilidade, do ponto de vista econômico e financeiro. “Se a maior luta do século 20 foi contra a exploração, a maior luta do século 21 será contra a irrelevância. Por isso os governos têm que proteger as pessoas”, afirmou em uma palestra no encerramento da 5ª Semana de Inovação, realIzada pela Escola de Administração Pública (Enap), em Brasília. Ele completa, em outro tema abordado aqui pelo blog: 

“O risco é que a revolução da inteligência artificial resulte em algo como a revolução industrial do século XIX: desigualdade extrema entre alguns países que dominam a economia global e outros que colapsam completamente, porque seu principal ativo de mão de obra manual barata se torna irrelevante”

O valor dos dados e sua importância estratégica é outra questão chave para o escritor. A combinação de avanços no domínio da biologia humana com o poder tecnológico digital pode resultar num “hackeamento” dos indivíduos. “É possível criar algoritmos que nos conhecem melhor que nós, que podem nos hackear e manipular nossos sentimentos e nossos desejos. E eles não precisam ser perfeitos, apenas nos conhecer melhor. E isso não é difícil porque muitos de nós não se conhecem muito bem”. 

Em entrevista ao El País em 2018, traçou um interessante paralelo entre algumas forças capazes de controlar as pessoas ao longo do século 20, tais como os partidos fascistas dos anos 1930, a KGB e os grandes conglomerados atuais. As organizações no século passado conseguiam estabelecer altos níveis de controle, mas não tinham tecnologia para seguir e manipular cada indivíduo pessoalmente. Hoje isso já é possível (e acontece). “Já estamos vendo como a propaganda é desenhada de forma individual, porque há informação suficiente sobre cada um de nós. Se você quer criar muita tensão dentro de um país em relação à imigração, coloque uns tantos hackers e trolls para difundir notícias falsas personalizadas. Para a pessoa partidária de endurecer as políticas de imigração você manda uma notícia sobre refugiados que estupram mulheres. E ela aceita porque tem tendência a acreditar nessas coisas. Para a vizinha dela, que acha que os grupos anti-imigrantes são fascistas, envia-se uma história sobre brancos espancando refugiados, e ela se inclinará a acreditar. Assim, quando se encontrarem na porta de casa, estarão tão irritados que não vão conseguir estabelecer uma conversa tranquila. Isso aconteceu nas eleições dos Estados Unidos de 2016 e na campanha do Brexit.”

A aposta do escritor para a condução desses grandes desafios da humanidade está no diálogo e na cooperação. Não há, segundo ele, oposição entre as ideias de nacionalismo e globalização. Os estados podem e devem garantir sua soberania e liberdade, mas devem se unir para evitar que as grandes corporações se apoderem e façam mau uso dos dados, o bem mais valioso do século 21. “Precisamos de um acordo global. E isso é possível. Não construindo muros, como está na moda, mas construindo confiança. No entanto, estamos na direção oposta neste momento.”

#AprendinoEnem: Inteligência Artificial e Big Data caem na prova

05/11/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “#AprendinoEnem: Inteligência Artificial e Big Data caem na prova”

Tecnologias da Informação e Comunicação foram presença constante nas questões do primeiro dia do Exame.

Quase 4 milhões de pessoas participaram do Exame Nacional do Ensino Médio (Enem) neste final de semana. As provas são o principal meio de acesso ao ensino superior e uma boa nota é a garantia de vaga nos cursos mais disputados em universidades públicas (e muitas privadas). O conteúdo é vasto, mas o candidato desta última edição aprendeu que vale a pena estar sintonizado com as novas Tecnologias da Informação e Comunicação (TICs) e seu impacto na sociedade.

Das 45 questões da prova de Linguagens, Códigos e suas Tecnologias, 20% estavam relacionadas de forma direta às TICs. Foram nove questões para quem selecionou o inglês como língua estrangeira e 10 para os optantes pelo espanhol.

Temas muito atuais estiveram presentes na prova, como a Inteligência Artificial. A questão abordava a experiência realizada no Japão com um sistema incumbido de escrever um conto. A resposta correta exigia do candidato o entendimento da diferença entre a estrutura e a criatividade da linguagem humana.

Big Data e análise de dados também marcaram presença na prova, em questão abordando o projeto Data Viva, uma plataforma aberta de visualização de dados sociais e econômicos do Brasil. Para acertar, o candidato deveria entender que a análise de grandes volumes de dados é capaz de oferecer informações estratégicas à sociedade.

A questão mais divertida, e que viralizou após o exame, apresentava uma lista de tipos on-line, classificados por seu perfil de postagem, como o “Turista em tempo integral” (que posta o ano inteiro fotos das férias), a “Mãe orgulhosa demais” (que faz questão de contar todas as gracinhas, até as que só tem graça para ela própria) e o “Baladeiro Vida Louca” (com seu feed de imagens de festas e bebidas). A resposta correta informava que as redes sociais estimulam a exposição exagerada dos indivíduos.

Outras questões abordaram as características da geração que não se lembra como era o mundo antes da internet, a disponibilização de imagens para compartilhamento com licenciamento Creative Commons, o que é software livre e sua contribuição para a sociedade e a exposição de imagens de crianças na rede. Além de um texto que citava um boicote à cantina da escola via twitter, promovida por alunos indignados com o preço do pão de queijo.

Fica a dica para as próximas edição do Enem: Leia o Why!