Posts in Tecnologia

Bactérias e computadores: Bio-IoT

16/01/2020 Posted by Tecnologia, Tendências 0 thoughts on “Bactérias e computadores: Bio-IoT”

Experimento explora a capacidade dos microrganismos para transportar e armazenar informações, o que pode resultar em uma versão biológica da Internet das Coisas.

 

A cada vez mais complexa rede de dispositivos conectados entre si e trocando dados a todo momento vem sendo chamada de Internet das Coisas (IoT, na sigla em inglês). A integração desses aparelhos e itens do dia a dia tem se mostrado uma tendência que promete estar presente em nossas vidas por muito tempo. São os softwares e circuitos eletrônicos tornando nossa vida mais fácil.

Mas um grupo de cientistas vêm explorando possibilidades que vão além das máquinas. Em 2018 o italiano Federico Tavella coordenou um trabalho que fez com que bactérias Escherichia coli recebessem e transmitissem mensagens simples, tais como “Olá, mundo!”. O fato de as bactérias serem capazes de se “comunicar” de forma eficaz, possuírem diversos mecanismos e “sensores” e uma complexa arquitetura de armazenamento e processamento de informações chama a atenção. 

As E. Coli guardam informações nos plasmídeos, estruturas de DNA em forma de anel, e podem transmiti-las a outros espécimes por um processo chamado de conjugação. Além disso, elas se movimentam, possuem receptores na parede celular que detectam luz, temperatura, substâncias químicas etc e são minúsculas. Para completar, são organismos relativamente fáceis de “projetar” e manipular. 

A partir dessa constatação Raphael Kim e Stefan Poslad, professores da Universidade Queen Mary de Londres, se debruçaram sobre a pergunta: se é assim, por que não usar bactérias para desenvolver uma versão biológica da Internet das Coisas?

As aplicações, segundo eles, podem ser as mais variadas. “As bactérias podem ser programadas e implantadas em diferentes ambientes, como o mar e as ‘cidades inteligentes’, para detectar toxinas e poluentes, coletar dados e realizar processos de biorremediação”. E mais: “Abrigando DNA que codifica hormônios úteis, por exemplo, as bactérias podem nadar para um destino escolhido dentro do corpo humano, produzir e liberar hormônios quando acionadas pelo sensor interno do micróbio”, comentam. 

Mas há também preocupações quanto ao que pode acontecer se o uso desses microrganismos for amplamente difundido. A começar pelo fato de que as bactérias não possuem GPS nem funcionam como computadores nos quais a mensagem sai de um lugar específico e se direciona a outro(s) de forma razoavelmente rastreável. Há limites em controlá-las.

Também o processo de evolução desses seres, com mutações e seleções, pode gerar consequências imprevisíveis. Sem falar no risco de pessoas mal-intencionadas entrarem no jogo e interferirem de forma negativa, tal qual um hacker espalha um vírus de computador. 

Fica a tarefa para a comunidade científica, a de refletir sobre as possibilidades e os limites dessa vertente. “Esses desafios oferecem um espaço rico para discussão sobre as implicações mais amplas dos sistemas da Internet das Coisas, impulsionados por bactérias”.

 

Tecnologia à flor da pele

14/01/2020 Posted by Tecnologia 0 thoughts on “Tecnologia à flor da pele”

“Pele” artificial promete ampliar as possibilidades de interface entre humanos e máquinas.

 

A computação e o uso das tecnologias digitais se popularizaram quando os inventores e as corporações conseguiram encontrar caminhos para tornar esse mundo mais próximo das pessoas comuns. A criação de interfaces instintivas e dispositivos de fácil utilização permitiu um mundo de interações e usos. Um exemplo longevo é o mouse, que ganhou aprimoramentos em suas décadas de existência mas ainda hoje se assemelha com seu projeto original (assunto do qual já falamos em um post muito interessante aqui no blog).

Pesquisadores da Faculdade de Engenharia da Universidade de Bristol, em parceria com a Telecomm ParisTech e a Universidade de Sorbonne, estão desenvolvendo uma tecnologia com potencial de abrir muitas outras possibilidades. Com a sua “Skin-On”, eles buscam imitar a pele humana e gerar inputs para computadores, tablets, smartphones e outros aparelhos. 

Imitando as camadas da pele humana, os protótipos possuem uma camada texturizada na superfície, uma de eletrodos e fios condutores e uma de “hipoderme”. Assim, a Skin-On permite sensações para muito além do toque detectável por touchpads ou telas de aparelhos celular. Ela é capaz de captar vários gestos, detectar localização e pressão e “sentir” cócegas, carícias, torções e beliscões. 

“A pele artificial é amplamente estudada no campo da robótica, mas com foco em objetivos de segurança, sensoriamento ou cosmético. Esta é a primeira pesquisa que conhecemos que analisa a exploração de pele artificial realista como um novo método de entrada para dispositivos de realidade aumentada”, comenta Marc Teyssier, principal autor da pesquisa.

Neste vídeo é possível ver uma demonstração das funcionalidades que a Skin-On oferece. A ideia é agregar aos aparelhos possibilidades de interação e comunicação. A Dra, Anne Roudaut, supervisora da pesquisa, professora associada de interação humano-computador da Universidade de Bristol, comenta o objetivo do experimento: “Este trabalho explora a interseção entre homem e máquina. Vimos muitos trabalhos tentando aprimorar humanos com partes de máquinas. Aqui, examinamos o contrário e tentamos tornar os dispositivos que usamos todos os dias mais parecidos conosco”, disse o Dr. Roudaut.

O artigo publicado descreve as etapas para replicar a pesquisa e os estudiosos interessados em integrar o desenvolvimento são convidados a entrar em contato. Os próximos passos devem envolver a incorporação de mais características da pele humana, tais como pelos e sensibilidade à temperatura. Os resultados prometem ser de arrepiar

Na imagem, amostra da Skin-On como touchpad de um laptop (Crédito: Divulgação)

Computação quântica versus criptografia: uma ameaça?

09/01/2020 Posted by Tecnologia, Tendências 0 thoughts on “Computação quântica versus criptografia: uma ameaça?”

Avanços da Computação Quântica impressionam, mas também preocupam especialistas em segurança.

Sinais concretos de uma Computação Quântica funcional já começam a aparecer. Após a notícia de que a Google pode ter alcançado esse feito com seu processador Sycamore, essa realidade parece cada vez mais próxima. Nesse contexto, é natural que cientistas e empresas busquem se aprimorar e sair na frente dessa corrida tecnológica.

Quanto mais estudos sobre o tema, mais se especula sobre as possibilidades que a Computação Quântica pode trazer, aumentando as expectativas mas também as preocupações, sendo a segurança uma das mais urgentes.

A criptografia é a base da segurança na internet e é essencial para comércio, privacidade e até mesmo segurança nacional. A criptografia moderna consiste na codificação de informações para que o acesso a elas seja limitado, normalmente por quem possui a “chave” para esse código, como é o caso das senhas em sistemas online. Esses dados estão relativamente seguros nos dias de hoje, ainda que a ação de crackers possa ser uma ameaça.

A Computação Quântica se  baseia em máquinas capazes de fazer cálculos muito mais rápidos que as atuais, aumentando a eficiência e até otimizando o consumo de energia, e isso abre portas para os mais diversos avanços, desde simulações, modelamentos e análises complexas. Mas esse poder de processamento também pode servir a pessoas mal-intencionadas. Especialistas temem que o processo de desencriptação seria muito mais fácil e rápido em computadores quânticos e, assim, boa parte da nossa base de dados estaria desprotegida.

A Dra. Jill Pipher, Presidente da Sociedade Americana de Matemática, pesquisadora das ameaças à segurança que vêm com essa nova vertente tecnológica, alerta: “devemos começar agora a preparar todos os nossos sistemas de segurança da informação para resistir à computação quântica. Primeiro, perceber o poder da computação quântica e [segundo] proteger contra os perigos que ela pode trazer.”

Pipher acredita que um método de criptografia que tem potencial de resistir à computação quântica é o que desenvolveu em 1996 com Jeffrey Hoffstein e Joseph Silverman, chamado NTRUEncrypt. Ele é mais eficiente que outros tipos tradicionalmente usados, como o RSA (Rivest-Shamir-Adelman) ou ECC (criptografia de curva elíptica). “Descobrimos que o sistema de criptografia que construímos não pode ser quebrado por um computador quântico”. Mas mesmo com essa aposta, ela conclama para que mais pesquisadores se empenhem em buscar soluções: “Precisamos de muito mais pesquisas nessa área”. 

Imagem gerada por algoritmo

Inteligência artificial: o assunto do ano

06/01/2020 Posted by Tecnologia, Tendências 0 thoughts on “Inteligência artificial: o assunto do ano”

Em retrospectiva de 2019 no blog da GoToData, o tema foi dos que mais despertou o interesse dos leitores. 

A Inteligência Artificial (IA) saiu dos filmes de ficção científica e já está entre nós, às vezes muito mais do que nos damos conta. Não à toa o assunto apareceu por várias vezes aqui no blog da GoToData, e nem é necessário um algoritmo para atestar isso. Ao longo de 2019 trouxemos notícias e reflexões sobre diversos aspectos dessa tecnologia que revoluciona o mundo. 

As ferramentas que fazem uso da IA e passaram por aqui são as mais variadas e intrigantes. Desde o algoritmo capaz de encontrar a solução para um cubo mágico em questão de segundos e o sistema que auxilia a escolha dos filmes da Sessão da Tarde – e adora o Adam Sandler! –, até a tecnologia que permite a um catéter “navegar” pela corrente sanguínea em busca de vazamentos e um veículo a andar de forma inteligente e autônoma

Nessa jornada, descobrimos que até já existem máquinas incrivelmente competentes em escrever textos e ficamos preocupados com o futuro dos nossos redatores humanos! Uma brincadeira, é claro, mas que nos remete à atenção que vários especialistas têm dado às implicações do desenvolvimento da automação e da IA no mundo do trabalho. Falamos do receio de sermos superados ou até mesmo dominados pelas máquinas e de como a IA pode criar, na opinião do escritor e historiador israelense Yuval Noah Harari, uma “geração de inúteis” (do ponto de vista econômico e financeiro). Parece consenso que só os diferenciais dos humanos em relação às máquinas e um pacto global pelo desenvolvimento consciente e responsável da tecnologia podem nos salvar. 

Nesse sentido, refletimos sobre como a presença de uma visão humanista dentro das equipes que criam, aperfeiçoam e utilizam os sistemas de IA é cada vez mais necessária, para torná-los mais úteis e evitar, por exemplo, que reproduzam julgamentos e visões preconceituosas. Vários experimentos baseados na interlocução de humanos com robôs caminham no mesmo sentido de buscar equilíbrio e explorar o potencial positivo dessa relação, como o que colocou computadores para mediar conflitos, o que analisou a posição das pessoas diante de um dilema moral envolvendo robôs e o que testou o quanto os participantes se afetavam com a pressão exercida por um agente não-humano

Em 2020 e nos anos seguintes a aposta é que o assunto – tão atual e relevante que marcou presença forte até mesmo na última prova do ENEM – continuará na pauta do desenvolvimento científico e seguirá impactando nossas vidas. O futuro próximo promete grandes doses de inovação. Vamos juntos acompanhar as cenas dos próximos capítulos?

O que deve estar na agenda dos CIOs?

06/01/2020 Posted by Negócios, Tecnologia, Tendências 0 thoughts on “O que deve estar na agenda dos CIOs?”

Levantamento da Gartner mostra insights para líderes de informação e tecnologia.

“Há uma marcha implacável em direção à maturidade digital”. E mais: “o digital não é mais um diferencial”. Com essas frases categóricas – afirmações que já não são tão surpreendentes assim para você que acompanha o blog da GoToData e está ligado nas tendências –, o analista do Gartner Andy Rowsell-Jones apresentou os resultados da pesquisa CIO Agenda 2020

O levantamento, realizado anualmente pelo Gartner Inc., trouxe em sua última edição dados acerca dos processos de transformação digital. Dos mais de mil CIOs (Chief Information Officer) entrevistados, 40% afirmaram que conseguiram escalar iniciativas digitais que fomentaram a tecnologia para gerar mudanças significativas em seus negócios, o que representou um aumento de 17% em relação ao período anterior. 

Entretanto, a maior parte das organizações está só aprimorando os modelos de negócio já existentes, e não promovendo transformações a partir de suas vulnerabilidades. Desses insights surgem algumas dicas para enfrentar essas ameaças e os ciclos de disrupção digital:

  • É preciso analisar bem os horizontes do negócio e da empresa. Os melhores líderes examinam o contexto para identificar tendências e, assim, direcionam suas ações no sentido da onda de mudanças. Ao antecipar as curvas de mudança, consegue liderar seu time com coesão e sintonia.
  • Desenvolver processos e plataformas ágeis é outro diferencial. CIOs devem estar preparados para não apenas reagir, mas para sair na frente. 
  • É altamente valioso mostrar-se adaptável, dado o cenário de constante mudança. Equilíbrio entre planejamento e estratégias claras, de um lado, e capacidade de se adequar às demandas, de outro.
  • Também é importante para os CIOs investir com inteligência na tecnologia e construir relacionamentos sólidos. Quanto mais sintonizado está com os demais do C level, melhores os resultados e maior a capacidade de responder ao mercado. 

Rowsell-Jones dá ainda a tônica para o ano que está prestes a começar. Segundo ele, as empresas precisam estar preparadas para a eventualidade de crises, inflexões e disrupções: “O sucesso em 2020 significa aumentar a preparação da organização de TI e da empresa para suportar a interrupção iminente dos negócios, planejando-o com antecedência.”

Um veterano retorna mais sensível ao espaço

17/12/2019 Posted by Tecnologia 0 thoughts on “Um veterano retorna mais sensível ao espaço”

CIMON, Robô dotado de Inteligência Artificial, volta à Estação Espacial Internacional com a capacidade de analisar emoções humanas.

Em “2001: uma odisseia no espaço” – história de Arthur C. Clarke imortalizada no cinema sob direção de Stanley Kubrick – o computador HAL 9000 comanda a nave espacial Discovery, onde se passa boa parte da trama. Dotado de Inteligência Artificial (IA), ele interage com os tripulantes, joga xadrez, aprecia manifestações artísticas e é capaz de expressar e interpretar emoções humanas. 

Pouco mais de cinquenta anos após o lançamento do filme, pioneiro em abordar os limites e dilemas da ainda incipiente IA, vemos algo semelhante acontecendo na vida real. No início de dezembro a cápsula espacial Dragon, da SpaceX, levou pela segunda vez à Estação Espacial Internacional (ISS, na sigla em inglês) o robô CIMON, primeiro assistente de astronauta com IA. O dispositivo foi desenvolvido conjuntamente pela IBM, a Airbus e o Centro Aeroespacial Alemão (DLR).

O nome é derivado de Crew Interactive Mobile Companion (“Companheiro Móvel Interativo da Tripulação”, em tradução livre) e pronuncia-se Simon. Embora não tenha formato humanóide e ostente um “rosto” cartunesco, CIMON retorna ao espaço com aprimoramentos, sobretudo em relação à sua capacidade de lidar com as emoções humanas. 

“Quando implantado pela primeira vez na ISS, CIMON provou que podia entender não apenas o conteúdo dentro de um determinado contexto, mas também a intenção por trás dele”, comenta Matthias Biniok em comunicado da IBM. O sistema foi atualizado com o “Watson Tone Analyzer”, ferramenta que permite avaliar as emoções dos astronautas e responder às situações de maneira apropriada. “Com esta atualização, CIMON transformou-se de assistente científico em parceiro empático de conversação”.

O assistente tem se mostrado bem-sucedido na missão de auxiliar os tripulantes da ISS. Nos estreitos corredores da Estação Espacial, ele ajuda nos experimentos científicos realizados em ambientes sem gravidade, exibindo instruções, gravando imagens e avaliando o processo. Com isso, poupa tempo entre os procedimentos e facilita a consulta de informações. Em um ambiente hostil e estressante aos humanos, tem sido um bom companheiro. 

Veteranos do espaço, tais como CIMON, podem ser nossos olhos e ouvidos em viagens aos confins do universo. “Se você vai para a Lua ou para Marte, você não pode levar todos os engenheiros com você. Então, os astronautas estarão por conta própria. Mas com a inteligência artificial, você tem disponível instantaneamente todo o conhecimento da humanidade” comenta Christian Karrasch, líder do projeto no DLR. Só esperamos que CIMON cresça e torne-se um aliado, e não um psicopata, como seu colega da ficção. 

2019 chega ao fim e Data Science segue em alta

12/12/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “2019 chega ao fim e Data Science segue em alta”

Dados, Inteligência Artificial e Machine Learning dominaram o ano.

A última década marcou avanços extraordinários na tecnologia, abrindo caminhos para um novo ciclo que promete ser ainda mais disruptivo. Às portas dos anos 2020, a Ciência de Dados, a Inteligência Artificial (IA) e outros segmentos afins consolidaram sua posição de destaque e seguirão na pauta.

O relatório anual “Data Science and Machine Learning Market Study”, da Dresner Advisory Services, trouxe uma série de insights e informações sobre esse contexto. A começar pelo fato de que iniciativas relacionadas a Data Science e Machine Learning (ML), tais como análises preditivas, algoritmos avançados e mineração de dados, apareceram no oitavo lugar entre 37 tecnologias e práticas consideradas como prioritárias por empresas que adotaram IA e ML em 2019.

Os departamentos de marketing e vendas são os que demonstraram valorizar mais a ciência de dados como instrumento para ajudar a alcançar suas metas e resultados. Quatro em cada dez equipes afirmaram que os dados são essenciais para o sucesso de seus setores. Na sequência, apareceram os segmentos de Business Intelligence Competency Centers (BICC), Pesquisa e Desenvolvimento (P&D) e Gerência de Público.

O alto nível de interesse compartilhado por esses departamentos reflete esforços para definir novos modelos de receitas e melhorar a experiência dos usuários usando dados,  IA e ML. Um terço das empresas entrevistadas adotou alguma ferramenta do tipo, a maioria delas utilizando até 25 modelos diversos.

Entre os setores que mais acreditam no potencial de dados, ML e IA para seu sucesso no mercado estão os serviços financeiros e de seguros, assistência médica, atacado e varejo.

Outro dado interessante e que mostra o poder dessas tecnologias no mundo corporativo atual apontou que 70% dos departamentos de P&D têm maior probabilidade de adotar Data Science, ML e AI. Para o time da Dresner, isso é um indicativo de que o desenvolvimento dessas ferramentas deve aumentar ainda mais nos próximos anos.

Além do mais, 2019 foi o ano recorde em matéria de interesse das empresas nesse tipo de recurso. O levantamento, que começou a ser feito em 2014, vem mostrando ano após ano o crescimento desse interesse. “Desde então, expandimos nossa cobertura para refletir mudanças de opinião e adoção e adicionamos novos critérios, incluindo uma seção que abrange redes neurais”, comenta Howard Dresner, fundador e diretor de pesquisa da Dresner.

Ada Lovelace e o mistério do bug original

10/12/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Ada Lovelace e o mistério do bug original”

História e legado da condessa britânica considerada a primeira programadora da história vêm sendo redescobertos.

Hoje é aniversário de Ada Lovelace, pioneira da programação. Com sua inteligência brilhante, ela anteviu as possibilidades dos computadores, muito antes dos computadores serem construídos.

Nascida em 10 de dezembro de 1815, em Londres, Augusta Ada King teve uma vida curta e intensa. Sua mãe casou e rapidamente se separou do poeta, dândi e maluco Lord Byron. Recebeu uma educação esmerada (em ciências, não em etiqueta, como era de praxe na época para as mulheres) e desde criança demonstrou aptidão para a matemática. Casou-se com William King em 1835, recebendo o título de Condessa de Lovelace. Ambos adoravam corridas de cavalos. Morreu aos 37 anos, após uma série de problemas de saúde.

Aos 17 anos ela ficou amiga do matemático Charles Babbage, inventor da “Máquina Diferencial”, um mecanismo (movido a vapor!) capaz de fazer cálculos avançados para a época e que é hoje considerado o primeiro “computador”. Este vídeo bacana (em inglês) mostra uma exibição de como ele seria. Encantada com as possibilidades oferecidas pelo dispositivo, Ada usou seu aristocrático círculo de influências para divulgar e buscar fundos para sua construção.

O projeto teve um protótipo construído (quase um MVP), mas Babbage abandonou a iniciativa e concentrou suas forças em um modelo mais avançado, a “Máquina Analítica”. Em 1843, Ada traduziu para o inglês e acrescentou notas a um trabalho do engenheiro italiano Luigi Federico Menabrea sobre a Máquina Analítica. Nestas notas (muito mais extensas que o próprio artigo) estão as maiores contribuições de Ada para a ciência. Em uma delas (nota A) ela registra (pela primeira vez na história) que no futuro o invento seria capaz de não apenas fazer cálculos, mas também de processar qualquer tipo de relação entre grandezas e poderia, por exemplo, “compor músicas”. O que é muito comum hoje, veja aqui, por exemplo.

Sua contribuição mais famosa, no entanto, é uma proposta de código para rodar na invenção. Não era uma linguagem, no sentido que elas não existiam ainda, mas sim uma sequencia a ser executada para o cálculo dos números de Bernoulli. Feitos à mão, seriam cálculos que demorariam meses e gerariam todo tipo de erro. Ada Lovelace mostrou como a máquina pensada por Babbage poderia resolver o problema em muito menos tempo.

Recentemente, diversos programadores tentaram (e conseguiram) recriar o programa em linguagens atuais. Em C, temos uma tradução bem famosa aqui. Seu programador, Sinclair Target, explica no blog Two-bit History que não é uma recriação exata, mas um esforço que procurou ser o mais fiel possível, e que o teste mostrou como Lovelace efetivamente dominava o que no futuro chamaríamos de linguagem de programação, com a previsão de loops e outras ferramentas. No entanto, nas palavras de Sinclair:

Para a minha frustração, os resultados não estavam corretos. Depois de alguns ajustes, finalmente percebi que o problema não era o meu código. O bug estava no original!

Um bug é um erro ou falha no código e, no diagrama de 1842, uma operação indicava v5 / v4, quando o correto seria v4 / v5. Típico erro de “digitação” ou falha do programador? Não é possível identificar, mas é a situação em que o erro apenas comprova que Lovelace era realmente uma programadora. Programar é enfrentar os bugs. Há uma versão em Python, aqui.

As contribuições de Ada Lovelace permaneceram esquecidas por mais de um século e somente nas últimas décadas, com pesquisas sobre a história da computação, ela ganhou o status de pioneira da programação. Desde 2009, comemora-se em outubro o Dia de Ada Lovelace, uma celebração das conquistas femininas nas ciências.

Existem muitos livros sobre ela, mas nossa dica é uma ficção histórica, o romance steampunk A Máquina Diferencial, de William Gibson e Bruce Sterling. A narrativa é baseada na seguinte premissa: a máquina idealizada por Babbage é efetivamente construída e concede à Inglaterra uma vantagem estratégica no mundo, em plena Revolução Industrial, e neste cenário misturam-se espiões, exploradores e cientistas. O livro traz Lady Lovelace entre seus personagens.

Computadores-bebê e as leis da física

06/12/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Computadores-bebê e as leis da física”

Sistema avalia o comportamento de objetos em uma cena a partir de percepções intuitivas da física.

A grade curricular do ensino básico no Brasil só aprofunda os conteúdos de Física no ensino médio, quando os alunos já estão na adolescência. Mas a percepção das leis universais físicas é algo que já desenvolvemos desde os primeiros meses de idade. Ou, como explica , Kevin A. Smith, cientista do Departamento de Ciências do Cérebro e Cognitivas (BCS) e membro do Centro de Cérebros, Mentes e Máquinas (CBMM) do Massachusetts Institute of Technology (MIT):  

“Quando os bebês completam 3 meses de idade, eles têm uma noção de que os objetos não piscam para dentro e para fora da existência e não podem se mover através de outros ou se teletransportar”

Smith é um dos responsáveis pela criação de um modelo de Inteligência Artificial (IA) que compreende conceitos básicos de física intuitiva relacionados ao comportamento de objetos. O objetivo é desenvolver ferramentas melhores de IA e fornecer aos estudiosos uma melhor compreensão da cognição infantil.

O sistema chamado ADEPT observa objetos em movimento em determinada cena e prevê como eles devem se comportar a partir de sua física subjacente. A cada quadro do vídeo é emitido um “sinal de surpresa”, que é tanto maior quanto mais improvável seja o comportamento do item observado. 

Dois módulos compõem o experimento. Um extrai informações sobre o objeto (tais como posição, forma e velocidade), enquanto o outro prevê as representações futuras com base em um conjunto de possibilidades. 

Por exemplo: se um objeto está atrás de uma parede, espera-se que ele permaneça lá, a não ser que algum fator externo incida sobre ele. Se a parede cair e o objeto tiver desaparecido, há uma incompatibilidade com um preceito físico. O modelo “pensa” assim: “havia um objeto que, segundo minha previsão, deveria continuar ali. Ele desapareceu. Isso é surpreendente!”. 

Nos testes comparativos da percepção do computador e de humanos, os níveis de surpresa registrados foram semelhantes. Mas curiosamente o sistema se mostrou surpreso em algumas situações em que as pessoas não foram surpreendidas (mas talvez devessem ter sido). Em um vídeo em que um objeto se move a certa velocidade, passa por trás de uma parede e sai imediatamente do outro lado, o que só aconteceria se ele tivesse acelerado de forma impressionante ou teletransportado, duas coisas absolutamente improváveis. As pessoas não deram muita bola para essa incongruência, mas o ADEPT se incomodou. 

Outra característica interessante é que como a identificação da cena observada é feita por geometria aproximada (sem grande atenção aos detalhes), o sistema demonstrou versatilidade para lidar com objetos para os quais não foi treinado. 

“Não importa se um objeto é um retângulo, um círculo, um caminhão ou um pato. A ADEPT apenas vê que há um objeto em uma posição, movendo-se de uma certa maneira, para fazer previsões”, diz Smith. “Da mesma forma, crianças pequenas também parecem não se importar muito com algumas propriedades como a forma ao fazer previsões físicas”.

Na sequência dos estudos, os pesquisadores pretendem se aprofundar na investigação de como as crianças observam e aprendem sobre o mundo, incorporando essas descobertas no ADEPT. “Queremos ver o que mais precisamos construir para entender o mundo como os bebês e formalizar o que sabemos sobre psicologia para criar melhores agentes de IA”, comenta Smith.

Inteligência artificial: uma aliada dos psicólogos e psiquiatras

28/11/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Inteligência artificial: uma aliada dos psicólogos e psiquiatras”

Aplicações de IA vêm sendo desenvolvidas para auxiliar no tratamento de questões da mente humana.

A integração da Inteligência Artificial com a área da saúde é uma tendência em franco desenvolvimento. Já falamos dessa interface aqui no blog, mostrando alguns softwares e dispositivos médicos dotados de IA, do auxílio que os algoritmos podem dar na análise de exames de imagem ou mesmo abordando as previsões para os próximos focos de inovação em saúde.

E é ainda importante destacar que a Saúde é uma área pioneira na análise de dados, com o desenvolvimento, ainda nos anos 1970, da corrente prática chamada de “Medicina Baseada em Evidências” (MBE), antecedendo práticas similares na educação, segurança e outras. Na definição da Revista da Associação Médica Brasileira, a “MBE se traduz pela prática da medicina em um contexto em que a experiência clínica é integrada com a capacidade de analisar criticamente e aplicar de forma racional a informação científica de forma a melhorar a qualidade da assistência médica”. 

As áreas de psicologia e psiquiatria estão entre as que se beneficiam dessa “dobradinha”. Enquanto algumas patologias podem ser diagnosticadas por exames de sangue ou de imagem, as doenças psíquicas têm causas complexas e multifatoriais. Para aumentar a assertividade de prescrições e evitar custos e desgaste aos pacientes, sobretudo em casos refratários (nos quais não há resposta aos tratamentos convencionais), é valioso prever qual tratamento surtirá melhor resultado, com menos efeitos colaterais. Já existem bons exemplos. 

Um grupo de pesquisadores da Universidade de Yale desenvolveu um modelo baseado em Machine Learning (ML) para identificar quais pacientes alcançariam remissão sintomática após 12 semanas utilizando o antidepressivo Citalopram. Das 164 variáveis coletadas entre os pacientes, concluíram que com apenas 25 eram capazes de identificar com 64,60% de acurácia quais deles responderiam bem ao tratamento. 

Outro trabalho, que envolveu pesquisadores suecos, holandeses e britânicos, apontou com 91,70% de acerto quais pacientes com Transtorno de Ansiedade Social se beneficiariam da Terapia Cognitiva Comportamental, fazendo uso de imagens de ressonância magnética funcional. 

Por sua vez, pesquisadores dos EUA, Canadá e China elaboraram um modelo preditivo que indicou os níveis de resposta de pacientes com esquizofrenia ao antipsicótico Risperidona e outro que, a partir de exames de imagem, identificava pacientes com esse distúrbio com 78,60% de assertividade. 

A IA também pode ser usada como auxiliar dos psicólogos e psiquiatras na avaliação dos tradicionais testes gráficos. Um exemplo é o trabalho desenvolvido no Departamento de Ciência da Computação da Universidade da Virginia que resultou em uma versão digital do teste neuropsicológico do relógio, associada a outras duas atividades, de repetir e recordar palavras. O resultado é um aplicativo simples capaz de promover a triagem de quadros demenciais com 99,53% de acurácia. 

Os exemplos, como vimos, já são muitos e as possibilidades são inúmeras. É a tecnologia, mais uma vez, prometendo auxiliar na busca por mais saúde e bem estar.