Posts tagged "Artificial Inteligence"

Ensinando solidariedade às máquinas

03/12/2019 Posted by Data Science, Pessoas, Tendências 0 thoughts on “Ensinando solidariedade às máquinas”

No Dia de Doar, refletimos sobre o espaço da solidariedade em tempos de Inteligência Artificial.

Todo dia é dia de doar, mas hoje, a primeira terça-feira depois do Dia de Ação de Graças (o Thanksgiving Day tão celebrado pelos americanos), comemora-se em diversos países o Dia de Doar (Giving Tuesday, lá fora). O movimento mundial teve início em 2012 e vem crescendo desde então. Desapegar e ajudar o próximo é um ato essencialmente orgânico. Não apenas humanos, mas diversas espécies colaboram de alguma forma entre si, garantindo abrigo, alimento e afeto a membros mais fracos da comunidade. Nos perguntamos: é possível ensinar solidariedade às máquinas?

A resposta é sim. Mais do que isso, a solidariedade deve ser um princípio ético central na Inteligência Artificial, defende Miguel Luengo-Oroz, Chief Data Scientist da Global Pulse, uma iniciativa da Organização das Nações Unidas (ONU) com foco no acompanhamento de inovações tecnológicas e de comunicação. Em artigo recentemente publicado na prestigiosa revista Nature, Luengo-Oroz chama a atenção para a necessidade de um compromisso com o tema, uma vez que os riscos envolvidos são elevados, e mesmo sistema confiáveis podem ser usados para:

  • Prever o aparecimento de um câncer letal em pessoas que, sem saber, terão seu acesso negado a seguros e planos de saúde;
  • Automatizar tarefas e funções diversas, aumentando a produtividade, mas deixando milhares (ou milhões) de humanos sem trabalho;
  • Antever nossas decisões e cruzar a tênue linha que separa a sugestão da manipulação.

O pesquisador destaca que tecnologias poderosas exigem compromissos e não por acaso a energia nuclear permanece disponível somente com um tratado de não-proliferação de armas nucleares em vigor, assim como existem barreiras legais e fiscalização mundial sobre as pesquisas para manipulação genética.

Diversos países organizam-se para incluir guidelines de inclusão, como a Declaração de Montreal para uma IA responsável, de 2017. O texto propõe que o desenvolvimento de inteligências autônomas deve ser compatível com a manutenção dos laços de solidariedade entre as pessoas. Gostou? Declare seu apoio aqui:

Como um princípio, a solidariedade aplicada à Inteligência Artificial prevê:

1) O compartilhamento da prosperidade criada pela IA, com a implementação de mecanismos para redistribuir o aumento da produtividade entre todos, assim como também distribuir o trabalho, garantindo que a desigualdade não aumente.

 2) A reflexão sobre o impacto das aplicações no longo prazo, evitando a irrelevância de vastos grupos humanos. As consequências devem ser pensadas antes da execução dos sistemas. Repetindo as palavras do escritor Yuval Noah Harari, a Inteligência Artificial pode nos tornar irrelevantes. Os ganhos de produtividade e a capacidade de modelar, replicar e automatizar nossas ações podem criar uma geração de inúteis, como já falamos neste blog.

O maior desafio, no longo prazo, é descobrir como redistribuir o aumento da produtividade de forma a evitar a irrelevância. Não é a tecnologia baseada no homem, mas sim na humanidade, adverte Luengo-Oroz.

Como é belo meu algoritmo!

12/08/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Como é belo meu algoritmo!”

Experimento revela admiração por fórmulas e equações, similar à expressada por sonatas e pinturas.

A busca pela beleza une pintores, poetas, músicos e outros artistas. E também os matemáticos e estatísticos, confirma agora estudo conjunto das universidades de Bath e Yale. O experimento buscava testar se nós compartilhamos com algoritmos e equações a mesma sensibilidade estética das artes. “Nós” as pessoas comuns, pois já é notória a paixão dos matemáticos pelo seu objeto de estudo: confira aqui a famosa lista com as dez mais lindas equações de todos os tempos.

E, de fato, também valorizamos uma bela sequência de números. No experimento, pessoas foram divididas em grupos e orientadas a avaliar quatro sonatas de piano, pinturas de paisagens e algoritmos, atribuindo a cada um notas nos quesitos beleza, universalidade, sofisticação, profundidade, simplicidade, elegância e seriedade.

Os resultados foram cruzados, assim como a relação entre eles. As conclusões foram surpreendentes, com a revelação de um padrão unindo as avaliações das peças artísticas e matemáticas e, mais, capaz de predizer o gosto médio de cada grupo em relação a uma determinada fórmula. Os resultados apontaram uma mesma correlação entre as notas de elegância e beleza para cada avaliação. Pessoas que consideravam elegantes uma equação ou sonata, tendiam a também avaliá-las como belas.

Ou seja, nós compartilhamos uma “intuição” sobre o que é um algoritmo belo ou não.

“Demonstramos este fenômeno, mas não entendemos os limites dele. É importante refazê-lo, com outras obras de arte. Mas acredito que entender o que uma pessoa considera bonito em matemática nos permitiu entender nossa própria compreensão da matemática”, disse Samuel G.B. Johnson, um dos coautores do estudo e professor na Escola de Administração da Universidades de Bath. Sua carreira é dedicada ao entendimento de como as pessoas avaliam diferentes argumentos e conceitos.

Já o professor Stefan Steinberger, da Universidade de Yale, deu início à pesquisa ao perceber a elevada correlação entre seus estudantes de matemática e o gosto por música.

Para o estudo, foram usados os seguintes algoritmos, equações e fórmulas: o “truque de Gauss” (usado para somar potências), o princípio pingeonhole (também conhecido como teorema de Dirichlet), uma prova geométrica da fórmula de Faulhber e uma amostra gráfica da soma de uma série geométrica infinita.

Nas sonatas, a número 4, D 780, de Schubert, a fuga em Mi menor, de Bach, a variação Diabelli, de Beethoven, e o prelúdio em Ré maior, op. 87, de Shostakovich. As paisagens: Olhando o Vale de Yosemite e Tempestade nas montanhas rochosas, de Albert Bierstadt, o Vagão de Feno, de John Constable, e O Coração dos Andes , de Frederic Edwin Church (foto em destaque).

Máquinas pensam como humanos. Ou o contrário?

27/03/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Máquinas pensam como humanos. Ou o contrário?”

Experimento colocou humanos e máquinas para identificar imagens e, curiosamente, os “equívocos” foram semelhantes.

Enquanto a inteligência artificial (IA) deixa “no chinelo” os humanos quando o assunto é fazer cálculos complexos ou armazenar grandes volumes de informações e dados, ainda temos vantagens sobre as máquinas ao identificar imagens, por exemplo.

Apesar dos avanços nos sistemas de IA – como é o caso das “redes neurais” – que já permitem o funcionamento de programas de reconhecimento facial, carros autônomos e mesmo aplicações em diagnósticos médicos, a tecnologia ainda esbarra em erros aparentemente bobos para um olho humano.

Alterações propositais em imagens podem confundir completamente a identificação delas por um computador. Parece dado que a inteligência artificial “enxerga” de forma diferente que as pessoas. Esse ponto frágil pode ser explorado por hackers e ameaçar a segurança de alguns sistemas e, portanto, é objeto de estudos.

Para aprofundar o assunto, um grupo de pesquisadores do Departamento de Ciências Psicológicas e do Cérebro da Johns Hopkins’ University decidiu inverter o ponto de vista. Será que os humanos não são capazes de pensar como as máquinas?

Para isso, em um conjunto de experimentos, pessoas foram convidadas a avaliar imagens que já haviam enganado computadores e identificá-las com as mesmas opções de vocabulário – relativamente limitadas – das quais os dispositivos dispunham. No primeiro teste, deram a elas duas opções: a que havia sido escolhido pelo sistema e uma outra, aleatória. Em 75% das vezes os participantes escolheram o rótulo dado pela máquina. Quase todas elas (98%) responderam a maior parte das vezes de forma igual ao algoritmo de IA.

Em outra tentativa, mais ousada, as opções apresentadas eram as duas primeiras escolhidas pelo computador, e outro resultado surpreendente se apresentou: 91% das escolhas humanas foram iguais às dos sistemas. Quando submetidas às mesmas 48 opções apresentadas ao algoritmo, a maior parte dos participantes optou por uma resposta coincidente – em valores acima das taxas de chance aleatória.

A avaliação de mais de 1.800 pessoas durante os experimentos mostrou que talvez as máquinas não estejam tão equivocadas assim, dados os inputs dados por seus programadores. Até nos equívocos elas se parecem mais conosco do que imaginamos.

Crônica de uma tragédia transmitida ao vivo

22/03/2019 Posted by Pessoas, Tecnologia 0 thoughts on “Crônica de uma tragédia transmitida ao vivo”

Transmissão em tempo real do massacre em Christchurch pelo Facebook mostrou limitações dos sistemas de inteligência artificial da rede social.

Na tarde de 15 de março mais um ataque a tiros impactou o mundo. Um supremacista branco abriu fogo em uma mesquita na cidade de Christchurch, Nova Zelândia, matando 50 pessoas e ferindo outras 20 em estado grave. A diferença desse ataque para os anteriores foi ter sido transmitido ao vivo pelo Facebook.

Os 17 minutos registrados por uma câmera que o assassino trazia no capacete ficaram no ar 12 minutos após o fim da transmissão, e os sistemas de reconhecimento de imagem da rede social não foram capazes de identificá-las como conteúdo inadequado. A inteligência artificial tem obtido resultados muito bons na identificação de nudez ou pornografia, violência real ou gráfica, suicídio e até mesmo propaganda terrorista, mas esbarrou nesse caso específico.

O vídeo original, segundo informações divulgadas pelo próprio Facebook, foi visualizado cerca de 4 mil vezes, e foi tirado do ar somente após a denúncia de um usuário.

Em nota, Guy Rosen, vice-presidente de integridade da plataforma, explicitou algumas das limitações dos sistemas de inteligência artificial. Como eles são “treinados” a partir de dados e, felizmente, eventos como esse são raros, há a dificuldade em aprimorar a detecção automática de imagens assim.

Além do mais, há a possibilidade de os algoritmos treinados acusarem conteúdos visualmente semelhantes, porém “inofensivos”, como seria o caso de imagens de jogos realistas de tiro. Como esses conteúdos são comuns na rede social, identificar todos eles como inadequados sobrecarregaria os responsáveis humanos pelo monitoramento de conteúdo e processamento de denúncias. Nesse cenário, vídeos reais poderiam demorar a ser detectados e excluídos, repetindo o problema.

Outra dificuldade é o processamento de variações do vídeo original, que proliferaram rapidamente e nos dias seguintes. Versões editadas, gravações da tela de um televisor exibindo as imagens ou conteúdos de grandes meios de comunicação que contém trechos do registro também devem ser removidos, o que aumenta o desafio. Segundo o Facebook, já foram encontradas e removidas 800 variações do conteúdo, todas elas identificadas e processadas individualmente.

Diferentemente de peças de propaganda terrorista de organizações como o Estado Islâmico, vindas de poucas fontes, destinadas a públicos restritos e não disseminadas pela grande mídia, conteúdos como o de Christchurch são compartilhados e replicados milhares de vezes.

Para tentar acelerar a descoberta de réplicas do vídeo, entraram em ação técnicas de reconhecimento de áudio, que identificavam pelo som vídeos que continham trechos do massacre. Em 24 horas o Facebook disse ter conseguido remover 1,2 milhões de cópias ainda durante o upload, mas estimou que outras 300 mil chegaram a ficar disponíveis.

Não bastasse a preocupação com as formas de evitar atos terríveis como esses, é premente buscar formas de não permitir que eles sejam transmitidos ao vivo, impactando espectadores e inspirando atos semelhantes. 

Se meu carro andasse sozinho…

06/02/2019 Posted by Tecnologia, Tendências 0 thoughts on “Se meu carro andasse sozinho…”

Processamento de imagens é utilizado para viabilizar o desejo de ternos carros autônomos.

Os carros autônomos, uma das maiores apostas entre as novas tecnologias, enfrentam um número ilimitado de cenários criados pela realidade. As decisões a serem tomadas resumem-se a basicamente quatro: acelerar, frear, virar à direita, virar à esquerda. O desafio é qual escolher, em qual ordem, após a leitura de um mundo capaz de oferecer uma infinita gama de acontecimentos.

Pesquisadores da Universidade de Stanford apresentaram uma proposta híbrida de sistema capaz de lidar de forma mais eficiente com o problema. Eles construíram um novo tipo de câmera com inteligência artificial, capaz de classificar e identificar as imagens com mais rapidez e economia. E, melhor: é um sistema com potencial para ser pequeno o suficiente para caber nos próprios sensores, o que não é possível hoje. O estudo foi publicado aqui.

Os autores da pesquisa juntaram dois tipos de computadores em um modelo híbrido óptico e elétrico com foco em processamento de imagens. O sistema é eficiente ao usar a câmera óptica para fazer um pré-processamento da imagem, filtrando os resultados de forma múltipla (o que exigirá um pesado algoritmo matemático, se feito apenas pelo computador). O filtro ocorre de forma natural, à medida que a luz passa pelas lentes da câmera, economizando também a energia necessária ao processamento. Energia que é destinada ao segundo nível do sistema, usado para fazer os cálculos e as tomadas de decisão. O resultado é uma máquina que faz menos cálculos, usa menos memória e energia.

“É um sistema especialmente rápido em sua tomada de decisões, o que é estratégico em tecnologias como os carros autônomos”, comemora Gordon Wetztein, um dos autores do artigo.

Para entender melhor o sistema, é importante conhecer como se dá o processamento de imagens.

A técnica mais básica é chamada de edge detection. A ideia central é que os pixels de um determinado objeto serão relativamente parecidos. Por isso a palavra edge, que remete a borda. Uma vez determinadas todas as bordas dos objetos da imagem, é possível identificá-los.

Em uma rua, o algoritmo de edge detection é capaz de identificar, com alguma facilidade, um carro em movimento. Por sua vez, se o sistema é capaz de registrar e calcular a distância entre as lanternas traseiras, a redução na distância entre elas indica que o veículo está se distanciando, enquanto o aumento informa que ele está mais próximo.

A edge detection tem duas limitações: baixa performance em ambientes com pouca iluminação ou contraste e a exigência de muita informação para a tomada de decisões. O algoritmo é obrigado a “ler” todos a cena apenas para entender o que está acontecendo e, então, agir.

Uma técnica mais avançada é a classificação de imagens. O algoritmo já contém algumas características e padrões dos objetos. Ele já sabe, por exemplo, como deve ser um carro, uma pessoa ou uma placa de sinalização. Ele compara as informações obtidas na câmera com padrões de cores, formas, tamanhos e outros parâmetros, identificando o objeto e tomando as decisões necessárias. Uma placa de pare significa parar.

A classificação de imagens é mais variada e complexa que a edge detection. O uso das camadas de interpretação, propiciado pelas técnicas de Neural Networks, ajuda. Por exemplo, o computador pode perguntar se a imagem traz uma área vermelha, se esta área vermelha tem o formato de um octógono e se está escrito “pare” nesta área. Se as respostas são sim, é provável que seja uma placa de parada obrigatória. O Neural Network permite que cada pergunta esteja em um nó da rede, sendo feita de forma paralela e espalhando-se em milhares de nós.

A realidade, entretanto, é capaz de oferecer muito mais informação que a capacidade dos sistemas atuais. Identificar uma placa já não é fácil, imagine os contextos desafiadores das ruas e avenidas dos grandes centros urbanos e sua multiplicidade de cenários. Os sistemas atuais ainda são grandes, lentos e consomem muita energia.

Portanto sente, aperte os cintos e dirija com cuidado. Ainda demora um pouco até que possa aposentar sua carteira de habilitação.

O senhor da guerra gosta de robôs

21/12/2018 Posted by Tecnologia, Tendências 0 thoughts on “O senhor da guerra gosta de robôs”

Como o desenvolvimento da Inteligência Artificial pode levar ao maior avanço da indústria bélica e/ou ao fim da humanidade.

Desde que o mundo é mundo, há guerra – ou ao menos a partir de quando evoluímos do macaco. Stanley Kubrick, em seu célebre “2001: uma odisseia no espaço”, chama de “A aurora do homem” a sequência na qual um de nossos ancestrais símios descobre que pode usar um osso para matar uma presa. Na alegoria, ao aprendermos a subjugar outros animais, nos tornamos humanos. Mas não demora até que o primata perceba que, com a arma recém descoberta, pode também vencer um opositor da mesma espécie.

Grandes avanços tecnológicos ou foram aplicados em batalhas ao longo de milênios ou foram desenvolvidos exatamente com a finalidade de conferir a um povo certo tipo de supremacia. “Uma guerra sempre avança a tecnologia, mesmo sendo guerra santa, quente, morna ou fria”, cantava a Legião Urbana em “A Canção do Senhor da Guerra”. A constatação do compositor Renato Russo evidencia que, a pretexto de defender-se ou atacar um inimigo, a tecnologia avança.

A descoberta da pólvora e o desenvolvimento das armas nucleares representaram as duas  grandes revoluções bélicas da história. Hoje, assistimos ao advento de uma terceira: a aplicação da inteligência artificial no campo militar.

Aos governos capazes de controlar as novas tecnologias, as potencialidades são extraordinárias, e, claro, estratégicas. Estamos falando em um poder com capacidade para equilibrar (ou desequilibrar) o jogo das grandes potências. Muito além das discussões prosaicas sobre aplicações da Inteligência Artificial no dia a dia, discutem-se planos de hegemonia mundial. Estados Unidos, Rússia, China e União Europeia organizam-se, ou melhor, armam-se.

Vladimir Putin disse claramente que “aquele que se tornar líder nesta tecnologia, será também líder do mundo”, e colocou como objetivo para a Rússia ter suas Forças Armadas com 30% de equipamentos autômatos até 2022. A Conselho de Estado Chinês determinou investimentos pesados em pesquisa e desenvolvimento de Inteligência Artificial aplicada à defesa. Nos Estados Unidos, a aliança entre governo e militares injeta bilhões em pesquisa e, mais recentemente, adotou posturas mais agressivas.

“Existe alguém que está contando com você / pra lutar em seu lugar já que nessa guerra / não é ele quem vai morrer”

Estando a corrida desenvolvimentista nessa área já em curso, estudiosos de Inteligência Artificial e Robótica vêm alertando sobre os perigos iminentes do uso de armas autônomas. Aos defensores, cabe o argumento de que substituir humanos por máquinas reduziria as baixas. Os que criticam, questionam: haverá redução de baixas para qual dos lados em guerra? Ademais, como esses armamentos não dependem de materiais caros ou de difícil obtenção para serem feitos, rapidamente estarão sendo produzidos pela indústria bélica em larga escala e a preços acessíveis.

Um dos mais respeitados coletivos de cientistas, executivos e filantropos que buscam fomentar o desenvolvimento das tecnologias de forma benéfica para a humanidade é o “Future of Life Institute”. Em um de seus manifestos – “Armas autônomas: uma carta aberta de pesquisadores de Inteligência Artificial” e Robótica”, em tradução livre – a organização postulou todas essas preocupações e conclamou aos membros da comunidade científica a se posicionarem contrários à sua participação em pesquisas do gênero. Para os signatários do documento, nesse âmbito há inúmeras outras formas de a Inteligência Artificial ser usada para o bem, sobretudo na proteção de civis.

No filme de Kubrick, macaco faz do osso um prolongamento do próprio braço, aumentando seu poder de ferir e matar. Ao fim desse preâmbulo, finalmente derrota seu adversário e, em júbilo, arremessa sua arma para o ar. Com um corte, a cena deixa de mostrar o objeto, agora substituído por uma nave interestelar, simbolizando o salto que fizemos, enquanto seres que dominam e desenvolvem tecnologias ao próprio favor. Estamos à beira de outra desses pontos de inflexão. Resta saber se isso nos abrirá novos horizontes ou representará nosso fim.

2018: o ano da transformação digital (por enquanto)

20/12/2018 Posted by Data Science, Tecnologia, Tendências 0 thoughts on “2018: o ano da transformação digital (por enquanto)”

Big Data, Inteligência Artificial e Machine Learning permanecem em alta.

O ano de 2018 marcou um novo patamar no desenvolvimento das tecnologias e da ciência de dados, em se tratando de Big Data, Inteligência Artificial (IA), Machine Learning e outras vertentes. Com funcionalidades mais eficientes e, consequentemente, mais difundidas mundo afora, podemos dizer que este foi – ao menos até que 2019 termine e assuma o posto – o ano da “transformação digital”. Várias das mais tradicionais companhias seguiram neste caminho, sejam elas desenvolvedoras de soluções do gênero, sejam meras usuárias.

Em IA, alguns avanços vieram a olhos vistos, literalmente. Para citar um exemplo, houve grandes melhorias nas Generative Adversarial Networks, redes neurais capazes de gerar, por meio de algoritmos, fotografias com algum nível de verossimilhança. Nos testes os observadores ainda conseguem com certa facilidade distinguir fotos verdadeiras das resultantes do processo artificial, mas a melhoria nos resultados é perceptível.

Sistemas de Machine Learning baseados nos princípios computacionais de nosso cérebro, tais como o Recursive Cortical Networks, seguem sendo aprimorados. O software desenvolvido pela empresa norte-americana Vicarious busca interpretar fotos, vídeos e outros dados visuais de forma semelhante a como fazemos nós, humanos. Um de seus principais desafios é alcançar altos níveis de assertividade em testes CAPTCHA – de leitura de caracteres distorcidos, em qualquer contexto.

Mas tamanho avanço na área de IA, sobretudo a partir do desenvolvimento de Deep Learning nos últimos anos, curiosamente faz com que muitos especialistas compartilhem um sentimento de “e agora?”. A base disso está no questionamento, feito por parte de alguns, dos fundamentos e das abordagens desse ramo da ciência. O receio nem é tanto pela ameaça de dominação do mundo pelas máquinas: é que a exagerada hype que o campo vive possa culminar em desapontamento e descrédito. A defesa é que o desenvolvimento continue, mas com aplicações práticas concretas e benéficas para a sociedade.

A reboque da adesão de mais e mais pessoas e organizações à tecnologia, aumentou também o conhecimento por parte do público das possíveis armadilhas que uma vida ultraconectada esconde. Mais pessoas estão cientes dos riscos que a massiva coleta e tráfego de dados pessoais pode oferecer. Casos com ampla repercussão como o da Equifax e da Cambridge Analytica colocaram uma pulga atrás da orelha de muita gente, e seus desdobramentos não param. Notícia recente aponta que o Facebook além de ter colaborado com a consultoria política que ajudou a eleger Donald Trump, também forneceu informações privadas de seus usuários para serviços como a Netflix e o Spotify.

A rede social de Mark Zuckerberg e a Google são detentoras dos dados coletados por suas ferramentas – pelos termos aos quais seus usuários aderem. A disponibilidade dessa matéria prima as coloca em posição privilegiada para identificar perfis, detectar tendências e identificar oportunidades, bem como para desenvolver IA e outras soluções.

Uma tendência que aparece como possibilidade para aumentar a segurança e mesmo permitir que outros players desenvolvam IA é a tecnologia Blockchain. O sistema promete altos níveis de confiabilidade, dando aos usuários mais tranquilidade em fornecer seus dados, que seriam processados de forma completamente anônima e irrastreável. Iniciativas nessa direção cresceram este ano, mas as dúvidas relativas à regulamentação das criptomoedas (intrínsecas ao blockchain) colocaram a tecnologia em modo de espera.

A capilarização da tecnologia nos âmbitos pessoais e profissionais amplia as funcionalidades oferecidas, mas sob o risco de abusos e crimes. Esta percepção das responsabilidades e riscos atrelados aos novos poderes oferecidos pelas tecnologias foi também crescente ao longo do ano e, assim como a transformação digital, promete crescer ainda mais em 2019.