Estudo explora a confiabilidade de agentes de inteligência artificial na mediação de conflitos em equipes de trabalho.
Já estamos nos acostumando a “ouvir” algumas ferramentas digitais, hoje amplamente usadas. Siri e Alexa são alguns exemplos difundidos de assistentes virtuais, Google Maps e Waze nos apontam distâncias e caminhos, isso para citar apenas alguns exemplos. Mas será que confiaríamos em instrumentos dotados de inteligência artificial para mediar conflitos?
Essa pergunta motivou um estudo que envolveu pesquisadores das Universidades do Sul da Califórnia (USC) e de Denver. Os pesquisadores criaram um avatar de agente virtual que interagia com uma equipe de três pessoas e estava programado para provocar falhas e gerar conflitos. O objetivo era avaliar se esse agente tinha potencial de atuar melhorando a colaboração e mediando a situação.
Em uma pesquisa anterior, o mesmo grupo detectou que as pessoas tinham mais liberdade para fazer confissões a um terapeuta virtual. Na experiência agora apresentada, a conclusão foi distinta. Os envolvidos tiveram menos propensão a se envolver com Chris, o agente virtual, quando os conflitos surgiam.
As 27 situações de teste foram realizadas em uma academia militar. Em nenhuma das ocorrências o agente foi ignorado ou menosprezado. Os membros da equipe interagiam com ele normalmente, ouvindo, sendo simpáticos e agradecendo por suas contribuições. Contudo, quando se iniciava o contexto conflituoso, o envolvimento dos humanos com a máquina diminuía consideravelmente.
Isso indica que os agentes virtuais ainda não gozam de tanta credibilidade para mediar conflitos, mas as perspectivas são boas. Comentários dos participantes indicaram a percepção de que essas ferramentas são neutras e imparciais. “Nossos resultados mostram que agentes virtuais e robôs potencialmente sociais podem ser bons mediadores de conflitos em todos os tipos de equipes. Será muito interessante descobrir as intervenções e respostas sociais para finalmente integrar perfeitamente agentes virtuais em equipes humanas para que eles tenham melhor desempenho”, comenta Kerstin Haring, professor assistente de ciência da computação na Universidade de Denver, autor principal do estudo.
Os cientistas pretendem reproduzir essa investigação em outros ambientes profissionais.