Conforme a IA se populariza cada vez mais, governos e líderes da tecnologia urgem por regulação que defina critérios gerais para o uso, principalmente nas questões envolvendo segurança e privacidade. No entanto, autoridades do setor ainda divergem se o futuro da tecnologia deve ser de código aberto (amplamente acessível e transparente para que qualquer pessoa possa usá-lo) ou fechado.

A discussão amplifica-se com a recente parceria entre Meta e a IBM, que lançaram nesta terça-feira (5) coalizão com mais de 50 empresas de IA chamada AI Alliance. Ela promove o código aberto para que o mercado tenha rápido crescimento. O Olhar Digital reportou esse caso aqui.

Porém, algumas companhias, como a OpenAI (desenvolvedora do ChatGPT), defendem que esse modelo deixa nas mãos do público tecnologia “alucinantemente poderosa” e isso pode ter riscos.

Leia mais:

publicidade

IA de código aberto vs fechado

O código aberto é prática antiga no mundo da tecnologia e trata-se de deixar o código de desenvolvimento de programa ou software de forma pública, gratuita e amplamente acessível. Assim, qualquer pessoa pode examiná-lo e modificá-lo para criar novos programas, se quiser.

Já o código fechado é quando o segredo para o desenvolvimento daquela tecnologia fica nas mãos da própria desenvolvedora.

O que as empresas querem

Segundo o TechXplore, apesar das empresas do setor de IA pedirem por regulação, elas o fazem seguindo interesses próprios. O mesmo se aplica à discussão de código aberto ou fechado.

A defesa da AI Alliance é que o código aberto pode promover um futuro de IA “construído em cima da troca científica aberta de ideias”.

Já a OpenAI adere ao código fechado. De acordo com Ilya Sutskever, cientista-chefe e cofundador da OpenAI, em entrevista à Universidade de Stanford em abril, isso acontece porque a IA é tecnologia poderosa que seria perigosa se disponibilizada publicamente.

Pessoa prestes a tocar linhas de programação de inteligência artificial
Imagem: NicoElNino/Shutterstock

Perigos da IA aberta: contra vs a favor

  • Sutskever destaca o código fechado tem parte a ver com parcerias comerciais entre empresas, mas que o código aberto tem seus perigos;
  • David Evan Harris, acadêmico da Universidade de Berkeley, vai na mesma linha e diz que o código aberto é ótimo em propagar a tecnologia, mas pode ser um risco. Ele dá o exemplo do filme “Oppenheimer”: quando grandes descobertas estão sendo feitas, colocar todos os detalhes nas mãos erradas podem causar danos inimagináveis;
  • O Center for Humane Technology também acredita que o código aberto tira barreiras de proteção da IA ao disponibilizá-la para o público;
  • No entanto, do lado oposto, há quem defenda que a IA “fechada” cria lobbys de empresas para reforçarem seu poder sobre o mercado. O cientista-chefe de IA da Meta, Yann LeCun, defendeu o código aberto alegando que, do contrário, forma-se “lobby corporativo massivo”;
  • Ainda, as companhias detentoras da tecnologia (como a Microsoft, que se juntou à OpenAI) poderiam proibir pesquisas nesse setor e, sozinhas, barrar o desenvolvimento;
  • Para LeCun, o código aberto possibilita que a IA reflita a totalidade do conhecimento humano ao invés de limitá-lo.