Transmissão em tempo real do massacre em Christchurch pelo Facebook mostrou limitações dos sistemas de inteligência artificial da rede social.
Na tarde de 15 de março mais um ataque a tiros impactou o mundo. Um supremacista branco abriu fogo em uma mesquita na cidade de Christchurch, Nova Zelândia, matando 50 pessoas e ferindo outras 20 em estado grave. A diferença desse ataque para os anteriores foi ter sido transmitido ao vivo pelo Facebook.
Os 17 minutos registrados por uma câmera que o assassino trazia no capacete ficaram no ar 12 minutos após o fim da transmissão, e os sistemas de reconhecimento de imagem da rede social não foram capazes de identificá-las como conteúdo inadequado. A inteligência artificial tem obtido resultados muito bons na identificação de nudez ou pornografia, violência real ou gráfica, suicídio e até mesmo propaganda terrorista, mas esbarrou nesse caso específico.
O vídeo original, segundo informações divulgadas pelo próprio Facebook, foi visualizado cerca de 4 mil vezes, e foi tirado do ar somente após a denúncia de um usuário.
Em nota, Guy Rosen, vice-presidente de integridade da plataforma, explicitou algumas das limitações dos sistemas de inteligência artificial. Como eles são “treinados” a partir de dados e, felizmente, eventos como esse são raros, há a dificuldade em aprimorar a detecção automática de imagens assim.
Além do mais, há a possibilidade de os algoritmos treinados acusarem conteúdos visualmente semelhantes, porém “inofensivos”, como seria o caso de imagens de jogos realistas de tiro. Como esses conteúdos são comuns na rede social, identificar todos eles como inadequados sobrecarregaria os responsáveis humanos pelo monitoramento de conteúdo e processamento de denúncias. Nesse cenário, vídeos reais poderiam demorar a ser detectados e excluídos, repetindo o problema.
Outra dificuldade é o processamento de variações do vídeo original, que proliferaram rapidamente e nos dias seguintes. Versões editadas, gravações da tela de um televisor exibindo as imagens ou conteúdos de grandes meios de comunicação que contém trechos do registro também devem ser removidos, o que aumenta o desafio. Segundo o Facebook, já foram encontradas e removidas 800 variações do conteúdo, todas elas identificadas e processadas individualmente.
Diferentemente de peças de propaganda terrorista de organizações como o Estado Islâmico, vindas de poucas fontes, destinadas a públicos restritos e não disseminadas pela grande mídia, conteúdos como o de Christchurch são compartilhados e replicados milhares de vezes.
Para tentar acelerar a descoberta de réplicas do vídeo, entraram em ação técnicas de reconhecimento de áudio, que identificavam pelo som vídeos que continham trechos do massacre. Em 24 horas o Facebook disse ter conseguido remover 1,2 milhões de cópias ainda durante o upload, mas estimou que outras 300 mil chegaram a ficar disponíveis.
Não bastasse a preocupação com as formas de evitar atos terríveis como esses, é premente buscar formas de não permitir que eles sejam transmitidos ao vivo, impactando espectadores e inspirando atos semelhantes.