Diante do boom causado pelo ChatGPT desde novembro do ano passado, mostrando suas poderosas capacidades, surgiu também certo temor sobre os limites que ela pode alcançar – tanto para o bem, como para o mal.

A mobilização começou com o TikTok nos EUA, que teme que o app chinês repasse informações privadas dos usuários para o governo chinês (atualmente, o país debate o banimento da rede social – outros países trabalham com a mesma ideia). Apps de imagens que utilizam IA, como o Midjourney, também estão sob escrutínio, por conta da linha tênue entre imagens reais e imagens geradas por esses apps.

Leia mais:

Quanto ao ChatGPT, a Itália foi o primeiro país do oeste a demonstrar preocupação com a IA da OpenAI e bani-la temporariamente.

publicidade

O que aconteceu?

Consequências

A OpenAI – que recebe aporte da Microsoft e implantou o ChatGPT no Bing Chat – está correndo o risco de levar multa de US$ 21,8 milhões, ou 4% de sua receita global, caso não acerte sua situação em 20 dias. Ainda, o app está banido provisoriamente da Itália.

Outros países também estão de olho no ChatGPT

E não é só a Itália que está preocupada com o rápido avanço do ChatGPT e suas implicações na sociedade. Outros governos estão alinhando suas próprias leis para a IA (e para as redes sociais), sobretudo a IA generativa (IA que gera novo conteúdo baseado em comandos dos usuários), caso do ChatGPT.

Como citamos no começo desta reportagem, a IA está cada dia mais avançada, tendo “consciência própria” (IA generativa) e até criando imagens – como as mais famosas recentemente: a “prisão” do ex-presidente dos EUA, Donald Trump, e o belo casaco de frio “usado” pelo Papa Francisco -, tudo em questão de segundos.

Com esse avanço gigantesco, fica complicado para os governos mundiais acompanharem as tecnologias e imporem limites para proteger dados e integridade de suas populações.

Precisamos ter muito cuidado para não criar um mundo onde os humanos sejam de alguma forma subservientes a um futuro maior de máquinas. A tecnologia está aqui para nos servir. Está lá para tornar nosso diagnóstico de câncer mais rápido ou fazer com que os humanos não tenham que fazer trabalhos que não queremos fazer. Precisamos pensar nisso com muito cuidado agora e precisamos agir sobre isso agora, do ponto de vista da regulamentação.

Sophie Hackford, futurista e consultora de inovação tecnológica global da John Deere, ao programa “Squawk Box Europe”, da CNBC

Confira, a seguir, como alguns países estão lidando com o ChatGPT e derivados:

Reino Unido

Na semana passada, o Reino Unido anunciou planos para regulamentar a IA. Ao invés de criar novas regras, o governo britânico pediu aos órgãos reguladores de diferentes setores que apliquem leis já existentes.

A proposta dos britânicos não cita nominalmente o ChatGPT, mas elenca alguns princípios-chave para as companhias seguirem quando utilizarem a IA em seus produtos, incluindo segurança, transparência, justiça, responsabilidade e contestabilidade.

A proposta do Reino Unido, agora, não é o de restringir o ChatGPT e similares, mas, sim, garantir que as companhias estão desenvolvendo e utilizando a IA de forma responsável e dando aos usuários informações suficientes sobre como e por que certas decisões são tomadas.

Na quarta-feira (29), a ministra de Digital, Michelle Donelan, em fala no Parlamento britânico, afirmou que, realizando abordagem não-estatutária, o governo poderá “responder rapidamente aos avanços na IA e para intervir se necessário”.

UE (União Europeia)

O restante da Europa está na expectativa de ter regulamentações bem mais restritivas do que a dos britânicos. A UE, que, por vezes, tem estado à frente das demandas de regulações de tecnologia, propôs legislação de IA inovadora.

Conhecida como o Ato Europeu de IA, a regulamentação irá restringir bastante o uso da IA em infraestruturas críticas, educação, aplicação das leis e no sistema judicial.

O Ato trabalhará em conjunto com a Regulamentação Geral de Proteção de Dados da UE. Quando a regulamentação foi desenhada, os reguladores não imaginavam o quão poderosa a IA se tornaria.

Segundo a Reuters, o esboço da lei considerava o ChatGPT uma forma de IA de propósito geral utilizada em aplicações de alto risco (definidas como as que afetas os direitos fundamentais das pessoas, ou sua segurança).

Eles enfrentariam medidas, incluindo duras avaliações de risco e requisito para acabar com a discriminação decorrente dos algoritmos de alimentação de conjuntos de dados.

A UE tem grande e profundo conhecimento em IA. Eles têm acesso a alguns dos melhores talentos do mundo e não é uma conversa nova para eles. Vale a pena confiar que eles têm o melhor dos estados-membros e estão totalmente cientes das potenciais vantagens competitivas que essas tecnologias podem trazer em relação aos riscos.

Max Heinemeyer, diretor de produtos da Darktrace, à CNBC

Imagem: Vitor Miranda/Shutterstock

Apesar de a UE estar trabalhando nas leis para a IA, alguns países do bloco estão “impacientes” e já pensam em seguir o exemplo da Itália. “Em princípio, um procedimento semelhante também é possível na Alemanha“, disse Ulrich Kelber, comissário federal de proteção de dados da Alemanha, ao jornal Handelsblatt.

A Reuters informou que os reguladores de Irlanda e França já entraram em contato com seus colegas italianos para saber mais sobre suas descobertas. Por sua vez, a Suécia descartou proibição.

EUA

Até o momento, os Estados Unidos não propuseram nenhuma lei formal para brecar a IA. O instituto Nacional de Ciência e Tecnologia dos EUA lançou um guia nacional que ajuda as companhias no uso, desenvolvimento e implantação de sistemas de IA, de modo a gerenciar riscos e danos potenciais.

Contudo, vale ressaltar que o guia é algo voluntário, não acarretando punições para as empresas que não o seguirem. Além disso, não há conversas para brecar o ChatGPT no país.

No mês passado, a FTC (Federal Trade Comission) recebeu reclamação de um grupo de pesquisa sem fins lucrativos, na qual alega que o GPT-4, modelo de linguagem da OpenAI mais recente, é “tendencioso, enganoso e um risco para a privacidade e a segurança pública” e viola as diretrizes de IA da agência.

A reclamação poderia resultar em uma investigação. Contudo, a FTC não quis comentar o assunto.

Imagem: Ascannio/Shutterstock

China

Assim como diversas ferramentas ocidentais, o ChatGPT não está disponível na China, idem em outros países que possuem forte censura na internet, como Coreia do Norte, Irã e Rússia. Da mesma forma que as demais empresas que não permitem suas ferramentas nesses países, a OpenAI não permite que usuários chineses se cadastrem na plataforma.

Contudo, o país asiático não deve ficar de fora da moda: gigantes da tecnologia chinesas, como Baidu, Alibaba e JD.com, já possuem planos para desenvolverem suas próprias versões do ChatGPT.

A China está interessada em garantir que suas big techs desenvolvam produtos alinhados às estritas regulamentações locais. Por exemplo, no mês passado, o país introduziu regulamentação inédita que trata de deepfakes (imagens, textos ou vídeos, gerados ou alterados por IA).

Os reguladores chineses introduziram, anteriormente, regras que regem a maneira como as empresas operam os algoritmos de recomendação. Um dos requisitos é que as empresas devem apresentar detalhes de seus algoritmos ao regulador. Tais leis poderiam, em teoria, se aplicar a qualquer tipo de tecnologia no estilo ChatGPT.

Imagem: Ascannio/Shutterstock

Brasil

O Brasil está seguindo os passos da UE e já prepara projeto de lei para regulamentar o uso das IAs. O PL 21, de autoria do deputado Eduardo Bismarck (PDT/CE) – que foi presidente da Frente Parlamentar Mista da Inteligência Artificial de 2021 -, foi aprovado na Câmara dos Deputados em setembro de 2021, mas, desde então, segue aguardando uma oportunidade de ser apreciado pelo Senado.

Nesse intervalo, ele já recebeu diversas adições balizadas por comissão de juristas que possuem ligação com a temática, finalizadas em dezembro do ano passado, pois o projeto original foi considerado com poucas regulamentações e definições divergentes. O foco da regulamentação é evitar a violação dos direitos básicos de usuários que tiveram algum tipo de contato com a IA.

O problema dela [definição de IA] é que, se define de forma muito estrita, empresas com tecnologia de IA, mas que não se enquadram nisso podem ficar fora da regulação. Mas, se ela é muito ampla, fica difícil, pode afetar tecnologias que não necessariamente são IA.

Rodolfo Tamanaha, sócio do Madrona Advogados, em entrevista à revista Exame

[Uma IA é um] sistema computacional, com graus diferentes de autonomia [que utilize] abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real.

Projeto de Lei 21

Contudo, o texto ainda não possui, em seu corpo, a abordagem de temas em voga após a ascensão do ChatGPT e ferramentas que se baseiam na IA, como a propriedade intelectual de materiais criados e dados usados para treinar as IAs.

Com informações de CNBC, Poder360 e Exame

Imagem destacada: Diego Thomazini/Shutterstock

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!