Posts tagged "AI"

2019 chega ao fim e Data Science segue em alta

12/12/2019 Posted by Data Science, Negócios, Tecnologia, Tendências 0 thoughts on “2019 chega ao fim e Data Science segue em alta”

Dados, Inteligência Artificial e Machine Learning dominaram o ano.

A última década marcou avanços extraordinários na tecnologia, abrindo caminhos para um novo ciclo que promete ser ainda mais disruptivo. Às portas dos anos 2020, a Ciência de Dados, a Inteligência Artificial (IA) e outros segmentos afins consolidaram sua posição de destaque e seguirão na pauta.

O relatório anual “Data Science and Machine Learning Market Study”, da Dresner Advisory Services, trouxe uma série de insights e informações sobre esse contexto. A começar pelo fato de que iniciativas relacionadas a Data Science e Machine Learning (ML), tais como análises preditivas, algoritmos avançados e mineração de dados, apareceram no oitavo lugar entre 37 tecnologias e práticas consideradas como prioritárias por empresas que adotaram IA e ML em 2019.

Os departamentos de marketing e vendas são os que demonstraram valorizar mais a ciência de dados como instrumento para ajudar a alcançar suas metas e resultados. Quatro em cada dez equipes afirmaram que os dados são essenciais para o sucesso de seus setores. Na sequência, apareceram os segmentos de Business Intelligence Competency Centers (BICC), Pesquisa e Desenvolvimento (P&D) e Gerência de Público.

O alto nível de interesse compartilhado por esses departamentos reflete esforços para definir novos modelos de receitas e melhorar a experiência dos usuários usando dados,  IA e ML. Um terço das empresas entrevistadas adotou alguma ferramenta do tipo, a maioria delas utilizando até 25 modelos diversos.

Entre os setores que mais acreditam no potencial de dados, ML e IA para seu sucesso no mercado estão os serviços financeiros e de seguros, assistência médica, atacado e varejo.

Outro dado interessante e que mostra o poder dessas tecnologias no mundo corporativo atual apontou que 70% dos departamentos de P&D têm maior probabilidade de adotar Data Science, ML e AI. Para o time da Dresner, isso é um indicativo de que o desenvolvimento dessas ferramentas deve aumentar ainda mais nos próximos anos.

Além do mais, 2019 foi o ano recorde em matéria de interesse das empresas nesse tipo de recurso. O levantamento, que começou a ser feito em 2014, vem mostrando ano após ano o crescimento desse interesse. “Desde então, expandimos nossa cobertura para refletir mudanças de opinião e adoção e adicionamos novos critérios, incluindo uma seção que abrange redes neurais”, comenta Howard Dresner, fundador e diretor de pesquisa da Dresner.

Computadores-bebê e as leis da física

06/12/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Computadores-bebê e as leis da física”

Sistema avalia o comportamento de objetos em uma cena a partir de percepções intuitivas da física.

A grade curricular do ensino básico no Brasil só aprofunda os conteúdos de Física no ensino médio, quando os alunos já estão na adolescência. Mas a percepção das leis universais físicas é algo que já desenvolvemos desde os primeiros meses de idade. Ou, como explica , Kevin A. Smith, cientista do Departamento de Ciências do Cérebro e Cognitivas (BCS) e membro do Centro de Cérebros, Mentes e Máquinas (CBMM) do Massachusetts Institute of Technology (MIT):  

“Quando os bebês completam 3 meses de idade, eles têm uma noção de que os objetos não piscam para dentro e para fora da existência e não podem se mover através de outros ou se teletransportar”

Smith é um dos responsáveis pela criação de um modelo de Inteligência Artificial (IA) que compreende conceitos básicos de física intuitiva relacionados ao comportamento de objetos. O objetivo é desenvolver ferramentas melhores de IA e fornecer aos estudiosos uma melhor compreensão da cognição infantil.

O sistema chamado ADEPT observa objetos em movimento em determinada cena e prevê como eles devem se comportar a partir de sua física subjacente. A cada quadro do vídeo é emitido um “sinal de surpresa”, que é tanto maior quanto mais improvável seja o comportamento do item observado. 

Dois módulos compõem o experimento. Um extrai informações sobre o objeto (tais como posição, forma e velocidade), enquanto o outro prevê as representações futuras com base em um conjunto de possibilidades. 

Por exemplo: se um objeto está atrás de uma parede, espera-se que ele permaneça lá, a não ser que algum fator externo incida sobre ele. Se a parede cair e o objeto tiver desaparecido, há uma incompatibilidade com um preceito físico. O modelo “pensa” assim: “havia um objeto que, segundo minha previsão, deveria continuar ali. Ele desapareceu. Isso é surpreendente!”. 

Nos testes comparativos da percepção do computador e de humanos, os níveis de surpresa registrados foram semelhantes. Mas curiosamente o sistema se mostrou surpreso em algumas situações em que as pessoas não foram surpreendidas (mas talvez devessem ter sido). Em um vídeo em que um objeto se move a certa velocidade, passa por trás de uma parede e sai imediatamente do outro lado, o que só aconteceria se ele tivesse acelerado de forma impressionante ou teletransportado, duas coisas absolutamente improváveis. As pessoas não deram muita bola para essa incongruência, mas o ADEPT se incomodou. 

Outra característica interessante é que como a identificação da cena observada é feita por geometria aproximada (sem grande atenção aos detalhes), o sistema demonstrou versatilidade para lidar com objetos para os quais não foi treinado. 

“Não importa se um objeto é um retângulo, um círculo, um caminhão ou um pato. A ADEPT apenas vê que há um objeto em uma posição, movendo-se de uma certa maneira, para fazer previsões”, diz Smith. “Da mesma forma, crianças pequenas também parecem não se importar muito com algumas propriedades como a forma ao fazer previsões físicas”.

Na sequência dos estudos, os pesquisadores pretendem se aprofundar na investigação de como as crianças observam e aprendem sobre o mundo, incorporando essas descobertas no ADEPT. “Queremos ver o que mais precisamos construir para entender o mundo como os bebês e formalizar o que sabemos sobre psicologia para criar melhores agentes de IA”, comenta Smith.

Data Science salva vidas!

20/09/2019 Posted by Data Science, Pessoas, Tecnologia 0 thoughts on “Data Science salva vidas!”

A medicina está usando Inteligência Artificial e Machine Learning para aprimorar seus serviços.

A Inteligência Artificial e o Machine Learning possuem grande potencial transformador nos serviços de saúde. Os fabricantes de dispositivos médicos estão aproveitando a quantidade imensa de dados que são gerados todos os dias na área para desenvolver tecnologias e inovar seus produtos. Avanços na detecção precoce de doenças, diagnósticos mais precisos, identificação de novas observações ou padrões na fisiologia humana e desenvolvimento de diagnósticos personalizados estão no radar.

Os softwares destinados para fins médicos são os grandes alvos da IA e do Machine Learning. O Fórum Internacional de Reguladores de Dispositivos Médicos (IMDRF) define Software como Dispositivo Médico (SaDM) como todo aquele que executa finalidades médicas sem fazer parte de um hardware. A área já recebeu diversos avanços, mas os SaDM ainda podem se aprimorar conforme se evoluem as tecnologias de IA e ML, melhorando diretamente os cuidados de saúde dos pacientes.

Podemos citar alguns exemplos de SaDM baseadas em IA/ML, como o Software de Unidade de Terapia Intensiva, o Aplicativo Médico de Lesão de Pele e o Software de identificação de desvio de Tubos de Alimentação em Raios X. A seguir, vamos falar um pouco sobre eles.

O Software de Unidade de Terapia Intensiva com aplicação de IA/ML recebe eletrocardiograma, sangue, sinais de pressão e oximetria do pulso do paciente. Os sinais fisiológicos são processados e analisados para detectar padrões que ocorrem no início da instabilidade fisiológica. Se detectada, um sinal é gerado para indicação clínica imediata. Esse aplicativo conduz o gerenciamento clínico em uma situação crítica de saúde.

O Aplicativo Médico de Lesão de Pele com aplicação de IA/ML usa imagens tiradas pela câmera do smartphone do paciente para fornecer informações a um dermatologista sobre as características físicas de uma lesão cutânea. Isso permite que o médico rotule a lesão como benigna ou maligna. O aplicativo impulsionará o gerenciamento clínico em situações sérias de saúde.

O Software de identificação de desvio de Tubos de Alimentação em Raios X com aplicação de IA/ML analisa radiografias de tórax de pacientes internados após a colocação de um tubo de alimentação. Isso permite que o programa avalie quaisquer colocações incorretas e realize uma espécie de triagem, conduzindo o gerenciamento clínico em situações graves.

Esses são só alguns exemplos citados pela U.S. Food and Drug Administration (FDA), em um relatório que busca trazer uma discussão sobre a regulamentação e eventuais modificações a serem feitas em alguns destes softwares, no intuito de aumentar a precisão e melhorar a tecnologia atrelada ao sistema de saúde.

A Data Science está com um leque de aplicações cada vez mais amplo, e sua implementação pode ser extremamente benéfica, mudando drasticamente certos hábitos e costumes, além de melhorar a qualidade de vida, prospecção de negócios e impactando substancialmente áreas como a saúde. Quando bem explorada, ela pode fazer diferença e até salvar a vida de milhões de pessoas.

Sociólogos de robôs

14/08/2019 Posted by Pessoas, Tecnologia, Tendências 0 thoughts on “Sociólogos de robôs”

Sistemas de Inteligência Artificial precisam de mais profissionais de humanas em seu desenvolvimento.

Ferramentas de inteligência artificial vão aos poucos conquistando seu espaço no cotidiano das pessoas. Estão disfarçadas em serviços cada vez mais populares, como os oferecidos por aplicativos de transporte, paquera, trânsito e publicidade. Ou bem visíveis, como as assistentes incorporadas em produtos, serviços ou plataformas. Embora nem todas mereçam o rótulo de inteligentes – vide os limitados robôs do tipo “posso ajudar”, em sites diversos -, várias alcançaram níveis bem sofisticados de operação, como as já famosas Siri, Cortana e Alexa.

Sistemas de inteligência artificial são sustentados por algoritmos e dados. E, como já mostramos aqui e ali, ambos trazem o risco de distorção.  As máquinas com capacidade de aprender o fazem a partir de informações recolhidas previamente, das quais sairão os parâmetros para predições, ações e reações. Mas, por mais “independentes”, esses dispositivos são programados e alimentados por humanos e seus dados. Eles carregam vieses pessoais, visões de mundo e distorções. Como resultado, o risco de sistemas preconceituosos ou discriminatórios. Um exemplo, ligado às já citadas assistentes virtuais Siri e Alexa, mostra a reprodução de um padrão sexista.

“Há evidências crescentes de que a Inteligência Artificial pode exacerbar a desigualdade, perpetuar a discriminação e causar danos”

O alerta é de Mona Sloane, pesquisadora do Instituto para o Conhecimento Público, da Universidade de Nova York. Em conjunto com Emanuel Mosso, da City University, eles acabaram de publicar artigo defendendo a inclusão de profissionais das áreas sociais no desenvolvimento de projetos de IA, como forma de reduzir o potencial de dano e ampliar seus benefícios à sociedade. Em resumo, mais “gente de humanas”, com destaque específico para os sociólogos. Eles listam três habilidades específicas das áreas de ciências sociais:

·  As ciências sociais têm uma extensa pesquisa e conhecimento sobre o entendimento das categorias identificadas socialmente, assim como sua organização e estratificação na sociedade. A construção história e o usos de termos como “raça”, e suas implicações, fazem parte do dia-a-dia do sociólogo, mas não dos engenheiros.

·  A análise quantitativa de dados, base de sistemas de machine learning, por exemplo, seriam beneficiadas com os protocolos já em uso na pesquisa social. Seu objetivo é exatamente identificar padrões e intenções que levaram à coleta dos dados, evitando armadilhas.

·  A sociologia exige reflexão para os métodos de análise qualitativa de dados, com um foco bem claro na percepção da influencia do observador sobre o ambiente pesquisado. Algoritmos buscam exatamente a capacidade de transcender a analise quantitativa e chegar à algum ponto próximo à subjetividade. Um espaço em que os pesquisadores da área de sociologia conhecem bem.

O artigo reconhece o esforço dos engenheiros em incorporar nos algoritmos valores alinhados com os da humanidade, mas que é excepcionalmente difícil definir e codificar valores tão fluidos e contextualizados como os ligados às pessoas.

Rápido e sem as mãos: o “cubo mágico” e a inteligência artificial

23/07/2019 Posted by Tecnologia 0 thoughts on “Rápido e sem as mãos: o “cubo mágico” e a inteligência artificial”

Algoritmo com a missão de resolver o famoso puzzle mostra avanço na tecnologia deep learning.

Quase todas as pessoas já devem ter visto um Cubo de Rubik, sobretudo após os anos 1980, quando o brinquedo virou febre mundial. Por aqui, o brinquedo batizado com o nome de seu criador ficou mais conhecido “cubo mágico” e, desde então, tem quebrado cabeças, geração após geração. Afinal, é preciso muito raciocínio para encontrar a combinação das cores de cada uma de suas faces, e não apenas a mera habilidade com as mãos para girar as partes do cubo de forma aleatória. 

Há muitos anos há competições oficiais de cubo mágico e existe até mesmo uma “World Cube Association”. O recorde mundial do cubo de 3×3, o mais tradicional deles, é de incríveis 3,47 segundos, estabelecido em 2018 pelo chinês Yusheng Du. 

Algoritmos não têm mãos, mas são bons em raciocínio lógico e matemático, disso tudo já sabemos. Pesquisadores da Universidade da California, em Irvine, resolveram desenvolver, então, um sistema de deep learning que resolvesse o Cubo de Rubik no mínimo de movimentos possíveis e no menor tempo possível. Longe de estarem apenas criando um jogador virtual, os envolvidos no projeto desejam, com essa iniciativa, auxiliar o avanço desse ramo da ciência que busca criar máquinas capazes de raciocinar, planejar e tomar decisões. 

O algoritmo criado, chamado de DeepCubeA, é do gênero “deep reinforcement learning”, que funciona sem qualquer conhecimento de domínio específico inserido previamente por humanos. A tarefa é complexa, tendo em vista os bilhões de caminhos possíveis para resolver o jogo. O sistema conseguiu, após “treinar” sozinho e aprender por dois dias, desenvolver a habilidade de concluir todos os desafios em fração de segundos, e em 60% das vezes com o mínimo necessário de movimentos – em torno de 20, conforme já foi comprovado.

O principal responsável pelo projeto, o prof. Pierre Baldi, afirma que o objetivo de projetos como este é construir a próxima geração de sistemas de IA. “Esses sistemas não são realmente inteligentes; são frágeis e você pode facilmente quebrá-los ou enganá-los. Como criamos IA avançada, que é mais inteligente, mais robusta e capaz de raciocinar, entender e planejar? Este trabalho é um passo em direção a essa meta pesada”, comenta.

Algoritmos contra o preconceito

12/07/2019 Posted by Pessoas, Tendências 2 thoughts on “Algoritmos contra o preconceito”

Universidade desenvolve ferramenta para reduzir risco de resultados discriminatórios em sistemas de Inteligência Artificial.

 

Um dos maiores temores em relação à disseminação da Inteligência Artificial é a limitação de acesso ao processo de aprendizagem – cada vez mais complexo, como nos cérebros humanos – e consequente incerteza em relação aos resultados. Com algoritmos exponencialmente sofisticados, como os usados nas máquinas de deep learning e suas redes neurais, é muitas vezes impossível acompanhar o “raciocínio” seguido até determinada solução. Um desafio ainda maior devido à acelerada adoção de sistemas de machine learning nas áreas de segurança, educação, finanças e negócios, entre outras. Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões. São os sistemas black box, que já falamos aqui.

As máquinas com capacidade de aprender o fazem a partir de informações recolhidas previamente, das quais sairão os parâmetros para predições, ações e reações. Mas, por mais “independentes”, esses dispositivos são programados e alimentados por humanos e seus dados. Eles carregam vieses pessoais, visões de mundo e distorções. Como resultado, o risco de sistemas preconceituosos ou discriminatórios.

Um famoso estudo de pesquisadores das universidades de Virginia e Washington mostrou como sistemas de identificação de imagens rotularam como sendo de mulheres imagens de homens na cozinha. Afetadas pela tendência registrada em seus bancos de dados, as máquinas reproduziram um estereótipo comum entre os humanos. Situações semelhantes já foram encontradas em programas para identificar suspeitos, por meio de reconhecimento facial, e outros.

Pesquisadores da Penn State e Columbia University acabam de apresentar uma ferramenta com o objetivo de identificar discriminação indesejável nos sistemas de inteligência artificial.

“Sistemas como este são treinados por uma imensa quantidade de dados, mas se os dados são enviesados, eles afetarão o resultado”

Vasant Honavar, professor da Penn State, cita como exemplo um algoritmo destinado a identificar os melhores candidatos para uma vaga de emprego, baseado em determinadas habilidades. Mas como os dados trazem uma série histórica em que mais homens foram empregados, no passado, o sistema tem a tendência de também privilegiar os homens em detrimento das mulheres. “Não há nada de errado com os algoritmos, eles fazem o que devem fazer, mas os dados usados aumentam o potencial para recomendações injustas. Se nenhuma mulher foi contratada no passado para determinada posição, é provável que o sistema não recomende mulheres para uma nova vaga no futuro”, completa o professor.

A menos que modificações sejam introduzidas nos algoritmos, como as desenvolvidas pela universidade. Os cientistas testaram o novo método usando diversos tipos de dados disponíveis, como a renda e demografia do censo norte-americano. A ferramenta de inteligência artificial foi capaz de detectar o risco de discriminação atribuído a determinados atributos, como gênero e raça.

Caixinhas de segredos: as máquinas que não conseguimos decifrar

26/04/2019 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “Caixinhas de segredos: as máquinas que não conseguimos decifrar”

Uso de “algoritmos caixa-preta” levantam controvérsia. Devemos usar máquinas que “pensam” sem que saibamos exatamente como?

A ameaça dos computadores insurgentes que renderam à literatura e ao cinema ótimas histórias, todas envolvendo a humanidade posta em risco pela rebeldia de suas criações, não é realidade. Pelo menos ainda.

Mas outra questão envolvendo a Inteligência Artificial (IA) tem provocado um grande dilema: muitos dos sistemas de machine learning, modalidade que abrange as máquinas capazes de aprender, são verdadeiras caixas-pretas. Falamos disso em outro artigo.

Enquanto a maioria dos softwares são codificados com lógica programável, ou seja, respondem conforme os parâmetros determinados por seus programadores, não é possível saber exatamente qual é o processo pelo qual alguns algoritmos de IA passam até que cheguem às suas conclusões.

As convolutional neural networks (redes neurais convolucionais) são um exemplo. Com seus neurônios artificiais conectados de forma a tentar mimetizar a estrutura de um cérebro humano, é difícil acompanhar e “enxergar” o que se dá nelas. Rápidas e complexas, elas complicam a vida de quem quer quer compreendê-las. Resta aos curiosos analisar seus resultados e, por inferência, supor o processo. Daí o motivo de muitos especialistas se posicionarem como contrários ao uso de algoritmos caixa-preta, ou ao menos preocupados com algumas das consequências de seu uso.

Elizabeth Holm, professora de ciência e engenharia de materiais na Universidade Carnegie Mellon, posiciona-se favoravelmente ao uso desses recursos. Primeiramente ela ressalta que, tal qual nesses sistemas, alguns processos do pensamento humano também são insondáveis. Não raro confiamos em resultados de pensamentos que não podemos descrever ou explicar, por exemplo, e que nem por isso são necessariamente ruins ou prejudiciais. Para ela, o que vale para os humanos, nesse caso, deve valer também para a máquina.

Seus argumentos seguem em torno de três regras, estabelecidas por ela. A primeira, a mais simples, determina que se o custo de uma decisão ruim é pequeno e, por sua vez, o valor de uma decisão acertada é alto, vale a pena usar.

No segundo caso, mesmo com custos altos, vale a pena usar essas caixas-pretas quando é a melhor opção para fazer determinado trabalho. Um exemplo são os algoritmos utilizados em carros autônomos, que certamente serão condutores melhores que os humanos, mas que ainda assim, se houver falha em seus processos, podem causar graves acidentes.

A terceira situação em que se justifica o uso dos black box algorithms é quando a máquina é capaz de fazer algo de maneira diferente que os humanos, ou mesmo coisas das quais não somos capazes. Aí a decisão se aproxima da opção entre fazer ou não fazer algo, entre avançar ou não em algum aspecto.

Para Andrew McAfee, especialista em machine learning e automação, impor barreiras regulatórias para o uso de caixas-pretas na IA e exigir altos níveis de interpretabilidade nos sistemas poderia retardar o progresso da tecnologia.

Há, porém, muitos outros que defendem que esse progresso não pode vir a qualquer custo. Se não é possível entender exatamente como o sistemas caixa-preta funcionam e quais parâmetros utilizam, fica mais fácil duvidar deles ou perder a confiança neles.

A IBM, gigante no setor tecnológico, respondeu a essa corrente disponibilizando na nuvem, um serviço que torna visíveis os parâmetros de IA dos sistemas da empresa e permite a detecção de vieses durante seu funcionamento. Dados de um relatório elaborado pelo Institute for Business Value, vinculado à corporação, mostraram que 82% das empresas observadas consideram implementar IA em seus processos, mas delas 60% ainda têm receio quanto a questões de responsabilidade e compliance e 63% não dispõem de recursos humanos e/ou tecnológicos adequados para incorporar a tecnologia de forma confiável.

A ideia é que a ferramenta seja aplicável também a outros modelos, ambientes e sistemas tais como Tensorflow, Watson, AWS SageMaker, AzureMA e SparkML e seja personalizável para sistemas internos das organizações. Ela permite a entrada de dados para complementar ao modelo para diminuir a tendência de viés e mostra o caminho da tomada de decisões enquanto em execução.

Além disso, já inclui parâmetros que atendem a padrões de conformidade e regulação, como é o caso do GDPR (Regulamento Geral sobre a Proteção de Dados, implementado pela União Europeia). A companhia também vai disponibilizar ferramentas open source e materiais que fomentem a colaboração da comunidade tecnológica em torno do assunto.

É fato que a evolução não pára e a IA veio para ficar de vez, e provavelmente questões como essa, de ordem prática e ética, se sucederão. A controvérsia dos algoritmos caixa-preta é uma das bolas da vez.

Máquinas pensam como humanos. Ou o contrário?

27/03/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Máquinas pensam como humanos. Ou o contrário?”

Experimento colocou humanos e máquinas para identificar imagens e, curiosamente, os “equívocos” foram semelhantes.

Enquanto a inteligência artificial (IA) deixa “no chinelo” os humanos quando o assunto é fazer cálculos complexos ou armazenar grandes volumes de informações e dados, ainda temos vantagens sobre as máquinas ao identificar imagens, por exemplo.

Apesar dos avanços nos sistemas de IA – como é o caso das “redes neurais” – que já permitem o funcionamento de programas de reconhecimento facial, carros autônomos e mesmo aplicações em diagnósticos médicos, a tecnologia ainda esbarra em erros aparentemente bobos para um olho humano.

Alterações propositais em imagens podem confundir completamente a identificação delas por um computador. Parece dado que a inteligência artificial “enxerga” de forma diferente que as pessoas. Esse ponto frágil pode ser explorado por hackers e ameaçar a segurança de alguns sistemas e, portanto, é objeto de estudos.

Para aprofundar o assunto, um grupo de pesquisadores do Departamento de Ciências Psicológicas e do Cérebro da Johns Hopkins’ University decidiu inverter o ponto de vista. Será que os humanos não são capazes de pensar como as máquinas?

Para isso, em um conjunto de experimentos, pessoas foram convidadas a avaliar imagens que já haviam enganado computadores e identificá-las com as mesmas opções de vocabulário – relativamente limitadas – das quais os dispositivos dispunham. No primeiro teste, deram a elas duas opções: a que havia sido escolhido pelo sistema e uma outra, aleatória. Em 75% das vezes os participantes escolheram o rótulo dado pela máquina. Quase todas elas (98%) responderam a maior parte das vezes de forma igual ao algoritmo de IA.

Em outra tentativa, mais ousada, as opções apresentadas eram as duas primeiras escolhidas pelo computador, e outro resultado surpreendente se apresentou: 91% das escolhas humanas foram iguais às dos sistemas. Quando submetidas às mesmas 48 opções apresentadas ao algoritmo, a maior parte dos participantes optou por uma resposta coincidente – em valores acima das taxas de chance aleatória.

A avaliação de mais de 1.800 pessoas durante os experimentos mostrou que talvez as máquinas não estejam tão equivocadas assim, dados os inputs dados por seus programadores. Até nos equívocos elas se parecem mais conosco do que imaginamos.

Se meu carro andasse sozinho…

06/02/2019 Posted by Tecnologia, Tendências 0 thoughts on “Se meu carro andasse sozinho…”

Processamento de imagens é utilizado para viabilizar o desejo de ternos carros autônomos.

Os carros autônomos, uma das maiores apostas entre as novas tecnologias, enfrentam um número ilimitado de cenários criados pela realidade. As decisões a serem tomadas resumem-se a basicamente quatro: acelerar, frear, virar à direita, virar à esquerda. O desafio é qual escolher, em qual ordem, após a leitura de um mundo capaz de oferecer uma infinita gama de acontecimentos.

Pesquisadores da Universidade de Stanford apresentaram uma proposta híbrida de sistema capaz de lidar de forma mais eficiente com o problema. Eles construíram um novo tipo de câmera com inteligência artificial, capaz de classificar e identificar as imagens com mais rapidez e economia. E, melhor: é um sistema com potencial para ser pequeno o suficiente para caber nos próprios sensores, o que não é possível hoje. O estudo foi publicado aqui.

Os autores da pesquisa juntaram dois tipos de computadores em um modelo híbrido óptico e elétrico com foco em processamento de imagens. O sistema é eficiente ao usar a câmera óptica para fazer um pré-processamento da imagem, filtrando os resultados de forma múltipla (o que exigirá um pesado algoritmo matemático, se feito apenas pelo computador). O filtro ocorre de forma natural, à medida que a luz passa pelas lentes da câmera, economizando também a energia necessária ao processamento. Energia que é destinada ao segundo nível do sistema, usado para fazer os cálculos e as tomadas de decisão. O resultado é uma máquina que faz menos cálculos, usa menos memória e energia.

“É um sistema especialmente rápido em sua tomada de decisões, o que é estratégico em tecnologias como os carros autônomos”, comemora Gordon Wetztein, um dos autores do artigo.

Para entender melhor o sistema, é importante conhecer como se dá o processamento de imagens.

A técnica mais básica é chamada de edge detection. A ideia central é que os pixels de um determinado objeto serão relativamente parecidos. Por isso a palavra edge, que remete a borda. Uma vez determinadas todas as bordas dos objetos da imagem, é possível identificá-los.

Em uma rua, o algoritmo de edge detection é capaz de identificar, com alguma facilidade, um carro em movimento. Por sua vez, se o sistema é capaz de registrar e calcular a distância entre as lanternas traseiras, a redução na distância entre elas indica que o veículo está se distanciando, enquanto o aumento informa que ele está mais próximo.

A edge detection tem duas limitações: baixa performance em ambientes com pouca iluminação ou contraste e a exigência de muita informação para a tomada de decisões. O algoritmo é obrigado a “ler” todos a cena apenas para entender o que está acontecendo e, então, agir.

Uma técnica mais avançada é a classificação de imagens. O algoritmo já contém algumas características e padrões dos objetos. Ele já sabe, por exemplo, como deve ser um carro, uma pessoa ou uma placa de sinalização. Ele compara as informações obtidas na câmera com padrões de cores, formas, tamanhos e outros parâmetros, identificando o objeto e tomando as decisões necessárias. Uma placa de pare significa parar.

A classificação de imagens é mais variada e complexa que a edge detection. O uso das camadas de interpretação, propiciado pelas técnicas de Neural Networks, ajuda. Por exemplo, o computador pode perguntar se a imagem traz uma área vermelha, se esta área vermelha tem o formato de um octógono e se está escrito “pare” nesta área. Se as respostas são sim, é provável que seja uma placa de parada obrigatória. O Neural Network permite que cada pergunta esteja em um nó da rede, sendo feita de forma paralela e espalhando-se em milhares de nós.

A realidade, entretanto, é capaz de oferecer muito mais informação que a capacidade dos sistemas atuais. Identificar uma placa já não é fácil, imagine os contextos desafiadores das ruas e avenidas dos grandes centros urbanos e sua multiplicidade de cenários. Os sistemas atuais ainda são grandes, lentos e consomem muita energia.

Portanto sente, aperte os cintos e dirija com cuidado. Ainda demora um pouco até que possa aposentar sua carteira de habilitação.

2018: o ano da transformação digital (por enquanto)

20/12/2018 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “2018: o ano da transformação digital (por enquanto)”

Big Data, Inteligência Artificial e Machine Learning permanecem em alta.

O ano de 2018 marcou um novo patamar no desenvolvimento das tecnologias e da ciência de dados, em se tratando de Big Data, Inteligência Artificial (IA), Machine Learning e outras vertentes. Com funcionalidades mais eficientes e, consequentemente, mais difundidas mundo afora, podemos dizer que este foi – ao menos até que 2019 termine e assuma o posto – o ano da “transformação digital”. Várias das mais tradicionais companhias seguiram neste caminho, sejam elas desenvolvedoras de soluções do gênero, sejam meras usuárias.

Em IA, alguns avanços vieram a olhos vistos, literalmente. Para citar um exemplo, houve grandes melhorias nas Generative Adversarial Networks, redes neurais capazes de gerar, por meio de algoritmos, fotografias com algum nível de verossimilhança. Nos testes os observadores ainda conseguem com certa facilidade distinguir fotos verdadeiras das resultantes do processo artificial, mas a melhoria nos resultados é perceptível.

Sistemas de Machine Learning baseados nos princípios computacionais de nosso cérebro, tais como o Recursive Cortical Networks, seguem sendo aprimorados. O software desenvolvido pela empresa norte-americana Vicarious busca interpretar fotos, vídeos e outros dados visuais de forma semelhante a como fazemos nós, humanos. Um de seus principais desafios é alcançar altos níveis de assertividade em testes CAPTCHA – de leitura de caracteres distorcidos, em qualquer contexto.

Mas tamanho avanço na área de IA, sobretudo a partir do desenvolvimento de Deep Learning nos últimos anos, curiosamente faz com que muitos especialistas compartilhem um sentimento de “e agora?”. A base disso está no questionamento, feito por parte de alguns, dos fundamentos e das abordagens desse ramo da ciência. O receio nem é tanto pela ameaça de dominação do mundo pelas máquinas: é que a exagerada hype que o campo vive possa culminar em desapontamento e descrédito. A defesa é que o desenvolvimento continue, mas com aplicações práticas concretas e benéficas para a sociedade.

A reboque da adesão de mais e mais pessoas e organizações à tecnologia, aumentou também o conhecimento por parte do público das possíveis armadilhas que uma vida ultraconectada esconde. Mais pessoas estão cientes dos riscos que a massiva coleta e tráfego de dados pessoais pode oferecer. Casos com ampla repercussão como o da Equifax e da Cambridge Analytica colocaram uma pulga atrás da orelha de muita gente, e seus desdobramentos não param. Notícia recente aponta que o Facebook além de ter colaborado com a consultoria política que ajudou a eleger Donald Trump, também forneceu informações privadas de seus usuários para serviços como a Netflix e o Spotify.

A rede social de Mark Zuckerberg e a Google são detentoras dos dados coletados por suas ferramentas – pelos termos aos quais seus usuários aderem. A disponibilidade dessa matéria prima as coloca em posição privilegiada para identificar perfis, detectar tendências e identificar oportunidades, bem como para desenvolver IA e outras soluções.

Uma tendência que aparece como possibilidade para aumentar a segurança e mesmo permitir que outros players desenvolvam IA é a tecnologia Blockchain. O sistema promete altos níveis de confiabilidade, dando aos usuários mais tranquilidade em fornecer seus dados, que seriam processados de forma completamente anônima e irrastreável. Iniciativas nessa direção cresceram este ano, mas as dúvidas relativas à regulamentação das criptomoedas (intrínsecas ao blockchain) colocaram a tecnologia em modo de espera.

A capilarização da tecnologia nos âmbitos pessoais e profissionais amplia as funcionalidades oferecidas, mas sob o risco de abusos e crimes. Esta percepção das responsabilidades e riscos atrelados aos novos poderes oferecidos pelas tecnologias foi também crescente ao longo do ano e, assim como a transformação digital, promete crescer ainda mais em 2019.