Influenciadora mostra como a IA pode descobrir uma traição

Mia disse que divulgou tudo apenas para que mais pessoas usem a IA caso notem comportamentos suspeitos dos parceiros
Gabriel Sérvio09/08/2023 09h16
Influenciadora mostra como a IA pode descobrir uma traição
Imagem: Tero Vesalainen
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Simular uma voz usando inteligência artificial (IA) é uma área da tecnologia que avança em ritmo acelerado. Hoje, já existem ferramentas relativamente simples de usar que fazem todo o processo a partir de segundos da fala de uma pessoa.

A novidade serve para pegadinhas entre amigos e também para outros fins. A influenciadora Mia Dio, por exemplo, mostrou como a IA pode ser usada para descobrir uma traição. A jovem de 22 anos compartilhou tudo para seus mais de 5 milhões de seguidores no TikTok.

O que você precisa saber:

  • Mia usou um programa chamado ElevenLabs para clonar a voz do namorado.
  • O software é pago e custa US$ 4 – menos de R$ 20 na cotação atual. 
  • Em contato com um amigo, a influenciadora usou o “truque” para descobrir se ele havia beijado outra pessoa.

Segundo as informações do Daily Mail, no fim tudo não passou de uma brincadeira e todos estavam cientes da brincadeira. Mia disse que divulgou tudo apenas para que mais pessoas usem a inteligência artificial caso notem comportamentos suspeitos dos parceiros.

Leia mais:

Comecei a pensar em cenários em que uma imitação de voz de IA teria sido útil. Pensei em um ex que havia me traído e como esse tipo de tecnologia teria me poupado muito tempo (…) ficamos chocados com a proximidade dos resultados

O vídeo viralizou na rede social e já acumula quase 3 milhões de visualizações:

@miadio

I cloned my boyfriends voice using #AI to find out if he was cheating on me. #fyp #cheating #boyfriend #voicecloning

♬ original sound – Mia Dio

No fim, o caso reforça que será cada vez mais comum encontrar aplicativos parecidos por aí. Serviços como o ElevenLabs usam tecnologia deepfake para dificultar que a voz clonada seja identificada. Segundo especialistas, quanto melhor a qualidade do áudio da voz original, mais convincente é a cópia criada por IA.

Um estudo recente da University College London inclusive aponta que os humanos só conseguiram detectar uma fala gerada por IA em 73% dos casos.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Gabriel Sérvio é formado em Comunicação Social pelo Centro Universitário Geraldo Di Biase e faz parte da redação do Olhar Digital desde 2020.