Quando a figura de robôs realizando tarefas humanas complexas era apenas matéria-prima para obras de ficção científica, o célebre escritor Isaac Asimov elaborou as “três leis da robótica”. Por meio delas, um robô deveria proteger a vida humana, obedecer às ordens humanas e proteger sua existência nesta ordem e sem entrar em conflito com as premissas anteriores. Hoje, a Inteligência Artificial já faz com que as máquinas executem diversas atividades humanas – o que torna necessária a criação de leis similares para delimitar questões éticas no setor. 

Leia mais:

publicidade

Asimov já visualizava esse paradoxo em suas histórias. Afinal, quando a tecnologia evolui a ponto de criar robôs capazes de fazer as mesmas coisas de um ser humano, o que vem a seguir? A IA já consegue criar códigos de programação, produzir conteúdos diversos, conversar e dar informações às pessoas por meio das assistentes pessoais e até recriar digitalmente (e com assustadora perfeição) a voz e a imagem de uma cantora falecida há mais de 40 anos. Parece ser questão de tempo para desenvolver uma consciência própria.

Até porque é uma característica inerente a este conceito tecnológico justamente a capacidade de aprendizado para seguir evoluindo. Um sistema robusto de inteligência artificial consegue rapidamente identificar padrões a cada informação nova e, principalmente, aprender as principais demandas envolvidas. Aliado ao processamento de linguagem natural (base da plataforma do ChatGPT), está alicerçado o desenvolvimento dos robôs capazes de interagir com humanos.

publicidade

O avanço foi tão rápido que executivos de tecnologia, incluindo o bilionário Elon Musk, dono do Twitter (ou X), chegaram a publicar uma carta pedindo o interrompimento do investimento em IA no mundo justamente pela ausência de limites éticos e de segurança. No Brasil, já existia um projeto de lei de 2020 para tratar sobre inteligência artificial no país. Mas, em maio de 2023, o senador Rodrigo Pacheco enviou nova proposta para criar um marco legal para o tema, formando a base jurídica para esta ferramenta.

Parar o desenvolvimento tecnológico como pediram diversos executivos da área está totalmente fora de cogitação. Não dá para simplesmente interromper a evolução tecnológica porque ela é fruto do conhecimento. Em algum lugar terá uma pessoa estudando, testando e aperfeiçoando qualquer solução. Entretanto, a regulamentação age justamente para aparar estas arestas e garantir um ambiente pleno para que a Inteligência Artificial possa se desenvolver sem colocar em risco qualquer característica humana e social.

publicidade

Primeiro passo é definir o terreno ético da IA

Definir o conceito de ética pode ser tão complicado quanto explicar o que é inteligência artificial. Porém, de forma resumida, podemos compreender que são as ações e regras que guiam nossos comportamentos e moldam a sociedade em que vivemos. Logo, fica claro que os limites éticos de qualquer tecnologia dependem exclusivamente da compreensão, aceitação e impacto em cada país e região.

Em outras palavras: ainda que haja normas internacionais, cada território deve estabelecer suas regulamentações. Atitudes condenáveis em cada cultura, evidentemente, deverão ser proibidas – assim como entender quais recursos podem ser utilizados para trazer benefícios aos usuários e quais as contrapartidas envolvidas. Reconhecer esse ambiente onde a Inteligência Artificial vai operar e quais as fronteiras impostas pela sociedade é um passo importante da regulamentação.

publicidade

No Brasil, por exemplo, está clara a proibição de crimes diversos, como fraudes financeiras, e o necessário respeito aos direitos fundamentais de grupos sociais estabelecidos pela Constituição Federal. A IA pode – e deve – ser um recurso que estimula o bem comum e promove uma sociedade mais harmônica e justa.

Promover o debate facilita o trabalho

Chegar a esse denominador comum do que é aceitável ou não para a Inteligência Artificial fazer não é fácil. Quando se trata de um assunto tão importante assim, uma vez que mexe profundamente com a vida cotidiana, há diversas partes envolvidas, como profissionais, cidadãos, entidades públicas, empresas, entre outros – e cada uma delas com seus próprios interesses e recursos.

Numa ditadura, resolvia-se o problema com uma canetada, mas atendendo apenas as vontades de um pequeno grupo em contraponto ao interesse público. Felizmente, vivemos em uma democracia e a criação de uma regulamentação própria na área praticamente obriga a participação de todas as esferas sociais na elaboração do texto-base do projeto de lei. Desde o lobby da iniciativa privada à necessária pressão da sociedade civil.

Consultas públicas, grupos de trabalho e audiências em comissões no Poder Legislativo são apenas alguns exemplos de como o debate se constitui. É um modelo que possui falhas e poderia ser mais preciso? Sem dúvidas. Mas, nele, cada parte tem a chance de apresentar suas demandas, apontar mudanças e promover uma troca de pontos de vista para que a futura lei possa abordar aquilo que ela entende como questão ética.

É necessário elencar responsabilidades

Se há limites éticos que precisam ser respeitados, é preciso ter sanções e punições para quando alguém ultrapassar essa fronteira. Mas quem deve ser punido no caso: a IA, a empresa responsável, a pessoa que a opera? Um dos livros de Isaac Asimov parte justamente desta condição, quando um robô quebra a “lei da robótica” e mata uma pessoa. A regulamentação serve para definir responsabilidades e penalizações para diferentes casos que surgirem.

É preciso ter claro quais são as fronteiras que as empresas e profissionais podem trabalhar com a Inteligência Artificial. Produzir uma propaganda de automóvel que recria a imagem e a voz de uma artista falecida há mais de 40 anos pode ser bonito e gerar buzz nas redes sociais, mas é necessário dar um arcabouço jurídico para que essa possibilidade atue dentro da lei. Já pensou se alguém resolve utilizar a imagem de uma figura pública como Mandela ou Gandhi para vender produtos? Ou pior, para disseminar conteúdo falso ou fora de contexto?

Com uma regulamentação forte e bem debatida, todo o setor de desenvolvimento de Inteligência Artificial fica protegido. Os profissionais saberão o que podem ou não fazer em seus projetos, as empresas terão estratégias claras de utilização de suas soluções e os cidadãos poderão utilizar os recursos disponíveis para melhorarem suas vidas, além de contar com canais de investigação e de denúncia em casos de descumprimento das normas éticas.

A tecnologia entrega aquilo que queremos

O fato é que não importa o quão complexa seja a tecnologia de IA ou quanto ela consegue aprender e evoluir a partir de padrões e informações. No fim das contas, ela não passa de uma ferramenta, ou seja, algo que será utilizado pelas pessoas para atender a um determinado fim. Se isso vai ferir ou não limites éticos estabelecidos pela sociedade, será pelas ações da empresa ou cidadão envolvido, e não pela “vontade” da IA.

Como toda solução tecnológica, ela tem o poder de melhorar o mundo – desde que essa seja a nossa vontade! Quando a gente se propõe a refletir, pensar, debater e implementar normas e boas práticas que estimulem suas vantagens e inibam atitudes repreensíveis, damos um importante passo para uma sociedade mais justa, igualitária e que sabe trabalhar com aquilo que a inteligência artificial tem a oferecer – e sem se preocupar com robôs assassinos ou coisas do tipo que aparecem nos livros e filmes.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!