A voz da Siri, Alexa ou de outra assistente virtual não atrai todos os públicos. Na verdade, se o tom de voz e a personalidade dessas tecnologias fossem mais parecidas com as do proprietário, elas teriam mais credibilidade no que falam. Isso é o que mostra novo estudo da Universidade da Pensilvânia (EUA), que analisou como os usuários recebem essas assistentes a depender da semelhança consigo mesmo.

Como o estudo foi feito

  • Para o estudo, um grupo de pesquisadores coletou dados de como 401 participantes definem seu próprio nível de extroversão (introvertidos ou extrovertidos);
  • Então, eles designaram essas pessoas a três grupos de controle diferentes para analisar como a personalidade de uma assistente de voz impacta no que ela diz e na experiência geral do usuário;
  • Os participantes de alguns grupos foram confrontados aleatoriamente com a assistente introvertida ou extrovertida, enquanto outro grupo foi designada a uma assistente adaptada à personalidade da pessoa;
  • Depois que os dispositivos fizeram uma breve introdução de fala, os voluntários tiveram de avaliar a experiência geral, a atratividade e a qualidade do serviço;
  • Ainda, posteriormente, esses grupos foram confrontados com informações falsas sobre a vacinação da Covid-19 falada pelas assistentes dentro de seus respectivos grupos, para ver como eles a recebiam. Eles tiveram de reavaliar a experiência ao final.

Leia mais:

Imagem mostra o dispositivo da Amazon, o Echo Dot, que funciona com a assistente virtual Alexa, em cima de uma mesa; ao lado, livros empilhados
Assistente virtual Alexa Echo Dot Amazon (Imagem: Anna Quelhas/Shutterstock)

Assistente virtual personalizada venceu

Os resultados mostraram que assistentes virtuais com voz e personalidade ajustada para se parecem com a do usuário tiveram recepção mais positiva do que as padronizadas. Além disso, os proprietários prestavam mais atenção no que elas tinham a dizer.

publicidade

Isso foi exemplificado pelo caso da vacinação da Covid-19. Nos grupos em que a assistente personalizada proferiu informações falsas sobre a vacinação, participantes não vacinados duvidaram do que ela dizia. 38% dos não vacinados que participaram da pesquisa mudaram de ideia depois do teste.

Segundo os pesquisadores, quando a assistente tem personalidade ou voz mais parecida com a deles, os usuários tendem a ter mais consideração por ela.

Pessoa segurando iPhone enquanto ativa a Siri
Imagem: Wachiwit/Shutterstock

No entanto, a situação da vacinação foi contra-intuitiva: ao invés de simplesmente acreditarem no que o dispositivo diz, os participantes realmente pensaram sobre o assunto e procuraram a fonte correta, o que indica que eles prestaram mais atenção no que foi dito.

De acordo com o TechXplore, isso, inclusive, os ajudou a criar resistência contra informações falsas, já que, uma vez que eles estão mais atentos e receptivos, eles tendem a desconfiar mais do que foi dito.