Uso de IA para falar com os mortos divide opiniões nos EUA

Chatbots criam avatares de pessoas que já faleceram; aumento do uso desses apps nos EUA rende discussão ética entorno do assunto
Por Bob Furuya, editado por Bruno Capozzi 13/12/2023 02h40, atualizada em 02/01/2024 11h55
inteligencia-artificial-mulher.png
Imagem: Sergey Tarasov/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Você toparia conversar com o avatar de um amigo ou ente querido mesmo depois da morte dele? Passaria horas consultando alguém que não existe mais no plano físico? Confiaria nas respostas, mesmo sabendo que foi um computador que as criou? Acharia tudo muito mórbido? Pagaria por uma experiência dessa?

Esses são alguns dos questionamentos que vêm sendo feitos nos Estados Unidos, diante do aumento do uso de chatbots para esse fim.

Leia mais

Uma reportagem do jornal The New York Times ouviu pessoas que usaram essas Inteligências Artificiais. Muitos gostaram, mas outros ficaram enojados, como se fosse um desrespeito àqueles que já partiram.

Aplicativos como o StoryFile e o HereAfter AI oferecem esse tipo de serviço. O primeiro está no mercado desde 2017; o segundo entrou em 2019.

Apesar de um tempo relativamente longo no mercado, as plataformas começaram a ter mais acessos recentemente, com a maior exposição na mídia de informações sobre tecnologias de IA, como o ChatGPT.

Em paralelo a isso, aumentaram as discussões no campo ético. Um jornalista pode usar o ChatGPT para escrever textos? Um publicitário pode usar a ferramenta para criar uma campanha? As obras criadas pela IA podem ser consideradas obras de arte? E, agora, é correto conversar com o avatar de alguém que já morreu?

Especialistas discutem

Para Alex Connock, pesquisador sênior da Saïd Business School da Universidade de Oxford e autor de “The Media Business and Artificial Intelligence”, tudo é uma questão de consentimento.

Em entrevista ao Times, ele afirmou o seguinte:

“Como todas as linhas éticas da IA, tudo se resumirá à permissão. Se você fez isso com conhecimento de causa e de boa vontade, acho que a maioria das preocupações éticas pode ser superada com bastante facilidade.”

David Spiegel, presidente associado de psiquiatria e ciências comportamentais da Escola de Medicina de Stanford, disse que programas como StoryFile e HereAfter AI podem ser importantes para as pessoas, desde que elas entendam claramente do que se trata:

“O crucial é manter uma perspectiva realista do que você está examinando – que não é que essa pessoa ainda esteja viva, se comunicando com você, mas que você está revisitando o que ela deixou”.

Ilustração de mão humana quase tocando mão robótica de inteligência artificial
(Imagem: Willyam Bradberry/Shutterstock)

Como funcionam esse serviços

  • Os dois aplicativos, HereAfter AI e StoryFile, geram as respostas a partir de entrevistas concedidas pelos clientes, ainda vivos, claro.
  • São feitas perguntas como “Conte-me sobre sua infância” e “Qual foi o maior desafio que você enfrentou?”.
  • A partir dessas respostas, a Inteligência Artificial cria um avatar que consegue interagir com os usuários dos apps, criando respostas próprias.
  • Como foram gravadas entrevistas, a base de dados dessas plataformas consegue utilizar a voz e a imagem real dessas pessoas.
Bob Furuya
Colaboração para o Olhar Digital

Roberto (Bob) Furuya é formado em Jornalismo pela Universidade Presbiteriana Mackenzie e atua na área desde 2010. Passou pelas redações da Jovem Pan e da BandNews FM.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.