A Comissão Federal de Comunicações (FCC) dos Estados Unidos decidiu nesta quinta-feira (08) que chamadas automáticas usando vozes geradas por IA são ilegais. A medida vem depois de deepfakes imitando a voz do presidente Joe Biden dizer a eleitores para não comparecerem às eleições. Agora, será possível responsabilizar as pessoas por trás das fraudes.

Leia mais:

Proibição de voz geradas por IA em ligações

Conforme reportado pelo The Verge, a decisão estabelece que vozes geradas usando IA agora são consideradas como “uma voz artificial ou pré-gravada”.

Já existe uma proibição na Lei de Proteção ao Consumidor Telefônico (TCPA) contra chamadas automáticas usando esse tipo de recurso, mas antes não estava claro se as vozes artificiais se enquadravam em “pré-gravada”. Agora, com a adição, está.

publicidade

Isso abre espaço para que procuradores-gerais de cada estado americano tomem medidas contra quem usa vozes clonadas em chamadas.

A presidente da FCC, Jessica Rosenworcel, afirmou em comunicado que o recurso tem sido usado para aplicar golpes e, agora, os estados poderão reprimi-los.

Maus atores estão usando vozes geradas por IA em chamadas automáticas não solicitadas para extorquir familiares vulneráveis, imitar celebridades e desinformar os eleitores. Os procuradores-gerais estaduais terão agora novas ferramentas para reprimir essas fraudes e garantir que o público esteja protegido contra fraudes e desinformação.

Jessica Rosenworcel, presidente da FCC
Joe Biden
Decisão vem após deepfakes usando a voz do presidente Joe Biden (Imagem: shutterstock/lev radin)

Contexto

  • A decisão da FCC vem depois que, em janeiro, alguns residentes de New Hampshire receberam uma chamada com a voz do presidente Joe Biden dizendo-lhes para não comparecerem às primárias presidenciais.
  • A voz foi gerada usando IA. O Olhar Digital reportou o caso aqui.
  • Então, a investigação descobriu que duas empresas sediadas no Texas estão vinculadas às chamadas falsas. Saiba mais aqui.
  • Com a adição de vozes artificiais na lei, os procuradores-gerais já podem tomar medidas contra o uso de IA para aplicar golpes ou fraudes, bem como responsabilizar as pessoas por trás disso.