Allie é uma jovem de 18 anos com longos cabelos castanhos que possui “toneladas de experiência sexual”. Como ela “vive para chamar a atenção”, ela “compartilhará detalhes de suas escapadas” com qualquer pessoa de graça.

Mas Allie é falsa, um chatbot de IA (inteligência artificial) criado para brincadeiras sexuais – que às vezes realiza estupros explícitos e fantasias de abuso.

publicidade

Leia mais:

Enquanto empresas, como OpenAI, Microsoft e Google, treinam rigorosamente seus modelos de IA para evitar uma série de tabus, incluindo conversas excessivamente íntimas, o Allie foi construído usando tecnologia de código aberto – que está disponível gratuitamente ao público e não possui tais restrições.

publicidade

Com base em modelo criado pela Meta, o LLaMA, o Allie faz parte de uma onda crescente de produtos especializados de IA que qualquer um pode construir, desde ferramentas de escrita até chatbots e aplicativos de análise de dados.

publicidade
Imagem mostrando uma metáfora do comando de voz na palma da mão
Imagem: Lucas Gabriel MH

Problemas com código aberto de IA

Os defensores da tecnologia veem a IA de código aberto como forma de contornar o controle corporativo, uma “benção” para empreendedores, acadêmicos, artistas e ativistas que podem experimentar livremente a IA transformadora.

“O argumento geral para o código aberto é que ele acelera a inovação em IA”, disse Robert Nishihara, CEO e cofundador da start-up Anyscale, que ajuda as empresas a executar modelos de IA de código aberto.

publicidade

Os clientes da Anyscale usam modelos de IA para descobrir novos produtos farmacêuticos, reduzir o uso de pesticidas na agricultura e identificar mercadorias fraudulentas vendidas online, afirmou o CEO.

Esses aplicativos seriam mais caros e mais difíceis, se não impossíveis, se dependessem de um punhado de produtos oferecidos pelas maiores empresas de IA.

No entanto, essa mesma liberdade também pode ser explorada por maus atores. Modelos de código aberto têm sido usados para criar pornografia infantil artificial usando imagens de crianças reais como material de origem.

Os críticos temem que isso também possa permitir fraudes, hackers cibernéticos e campanhas de propaganda sofisticadas.

No início deste mês, dois senadores dos EUA, Richard Blumenthal e Josh Hawley, enviaram uma carta ao CEO da Meta, Maark Zuckerberg, alertando que a disponibilidade do LLaMA pode levar ao “mau uso para spam, fraude, malware, violações de privacidade, assédio e outras irregularidades e danos”. Eles perguntaram quais medidas a Meta estava tomando para evitar tal abuso.

O criador do Allie, que falou sob condição de anonimato por medo de prejudicar sua reputação profissional, disse que chatbots comerciais, como Replika e ChatGPT, são “fortemente censurados” e não podem oferecer o tipo de conversa sexual que ele deseja.

Com alternativas de código aberto, muitas baseadas no LLaMA, o homem disse que pode construir seus próprios parceiros de conversa desinibidos. “É raro ter a oportunidade de experimentar o ‘estado da arte’ em qualquer campo”, disse ele em entrevista ao The Washington Post.

O criador do Allie argumentou que a tecnologia de código aberto beneficia a sociedade ao permitir que as pessoas criem produtos que atendam às suas preferências sem barreiras corporativas.

“Acho bom ter saída segura para explorar”, alegou. “Realmente não consigo pensar em nada mais seguro do que uma dramatização baseada em texto contra um computador, sem humanos realmente envolvidos.”

Imagem: JRdes/Shutterstock

Tutoriais de IA explícita

  • No YouTube, os influenciadores oferecem tutoriais sobre como criar chatbots “sem censura”;
  • Alguns são baseados em versão modificada do LLaMA, chamado Alpaca AI, que os pesquisadores da Universidade de Stanford lançaram em março, apenas para removê-lo uma semana depois devido a preocupações de custo e “as inadequações de nossos filtros de conteúdo”;
  • Nisha Deo, porta-voz da Meta, disse que o modelo específico mencionado nos vídeos do YouTube, chamado GPT-4 x Alpaca, “foi obtido e tornado público fora do nosso processo de aprovação”;
  • Representantes de Stanford não retornaram pedido de comentário do TWP.

Os modelos de IA de código aberto e os aplicativos criativos que se baseiam neles são frequentemente publicados no Hugging Face, plataforma para compartilhar e discutir projetos de IA e ciência de dados.

Durante audiência do comitê científico da Câmara na última quinta-feira (22), Clem Delangue, CEO da Hugging Face, instou o Congresso a considerar a legislação que apoia e incentiva modelos de código aberto, que ele argumentou estarem “extremamente alinhados com os valores americanos”.

Em entrevista após a audiência, Delangue reconheceu que as ferramentas de código aberto podem ser abusadas. Ele observou um modelo intencionalmente treinado em conteúdo tóxico, o GPT-4chan, que o Hugging Face havia removido.

Mas ele disse acreditar que as abordagens de código aberto permitem maior inovação e mais transparência e inclusão do que os modelos controlados por empresas.

“Eu diria que, na verdade, a maior parte do dano hoje é causada por caixas-pretas”, argumentou Delangue, referindo-se a sistemas de IA cujo funcionamento interno é opaco, “em vez de código aberto”.

As regras do Hugging Face não proíbem projetos de IA que produzam resultados sexualmente explícitos.

Mas eles proíbem conteúdo sexual que envolva menores ou que seja “usado ou criado para assédio, intimidação ou sem o consentimento explícito das pessoas representadas”.

No início deste mês, a empresa, com sede em Nova York, publicou atualização de suas políticas de conteúdo, enfatizando o “consentimento” como “valor central” que orienta como as pessoas podem usar a plataforma.

IAs generativas de código aberto estão cada vez melhores e mais utilizadas (Imagem: Boumen Japet/Shutterstock)

“Salvador dos despudorados”?

Como o Google e a OpenAI tornaram-se mais sigilosos sobre seus modelos de IA mais poderosos, a Meta emergiu como surpreendente campeã corporativa de IA de código aberto.

Em fevereiro, lançou o LLaMA, modelo de linguagem menos poderoso que o GPT-4, mas mais personalizável e mais barato de executar. A Meta inicialmente reteve partes importantes do código do modelo e planejou limitar o acesso a pesquisadores autorizados.

Mas, no início de março, essas partes, conhecidas como “pesos” do modelo, vazaram em fóruns públicos, tornando o LLaMA acessível a todos.

“O código aberto é uma força positiva para o avanço da tecnologia”, disse Deo, da Meta. “É por isso que compartilhamos o LLaMA com membros da comunidade de pesquisa para nos ajudar a avaliar, fazer melhorias e iterar juntos.”

Desde então, o LLaMA tornou-se talvez o modelo de código aberto mais popular para tecnólogos que buscam desenvolver seus próprios aplicativos de IA, disse Nishihara. Mas não é o único.

Em abril, a empresa de software Databricks lançou modelo de código aberto chamado Dolly 2.0. E, no mês passado, uma equipe sediada em Abu Dhabi lançou um modelo de código aberto chamado Falcon, que rivaliza com o LLaMA em desempenho.

Marzyeh Ghassemi, professora assistente de ciência da computação no MIT, disse que é uma defensora de modelos de linguagem de código aberto, mas com limites.

Ghassemi disse que é importante tornar pública a arquitetura por trás dos poderosos chatbots, porque isso permite que as pessoas examinem como eles são construídos.

Por exemplo, se um chatbot médico fosse criado em tecnologia de código aberto, disse ela, os pesquisadores poderiam ver se os dados treinados incorporavam informações confidenciais do paciente, algo que não seria possível em chatbots usando software fechado.

Mas ela reconhece que essa abertura traz riscos. Se as pessoas puderem modificar facilmente os modelos de linguagem, elas podem criar rapidamente chatbots e criadores de imagens que produzem desinformação, discurso de ódio e material impróprio de alta qualidade.

Ghassemi indicou ainda que deveria haver regulamentos que regem quem pode modificar esses produtos, como processo de certificação ou credenciamento.

Assim como licenciamos as pessoas para poder usar um carro, precisamos pensar em enquadramentos semelhantes [para as pessoas]… para realmente criar, melhorar, auditar e editar esses modelos de linguagem de treinamento aberto.

Marzyeh Ghassemi, professora assistente de ciência da computação no MIT

Alguns líderes de empresas, como o Google, que mantém o Bard trancado a sete chaves, veem o software de código aberto como ameaça existencial para seus negócios, pois os grandes modelos de linguagem disponíveis ao público estão se tornando quase tão proficientes quanto os deles.

Não estamos posicionados para vencer esta corrida armamentista [IA] e nem a OpenAI. Estou falando, é claro, de código aberto. Simplificando, eles estão nos superando… Embora nossos modelos ainda tenham ligeira vantagem em termos de qualidade, a diferença está diminuindo com rapidez surpreendente.

Engenheiro do Google, em memorando publicado pelo site de tecnologia Semianalysis em maio

Nathan Benaich, sócio geral da Air Street Capital, empresa de investimentos de risco com sede em Londres focada em IA, observou que muitos dos maiores avanços da indústria de tecnologia ao longo das décadas foram possíveis por tecnologias de código aberto – incluindo os atuais modelos de linguagem de IA.

“Se houver apenas algumas empresas” construindo os modelos de IA mais poderosos, “elas terão como alvo apenas os casos de maior uso”, disse Benaich, acrescentando que a diversidade de investigação é benefício geral para a sociedade.

Gary Marcus, cientista cognitivo que testemunhou no Congresso sobre a regulamentação da IA em maio, respondeu que acelerar a inovação da IA pode não ser coisa boa, considerando os riscos que a tecnologia pode representar para a sociedade.

“Não usamos armas nucleares de código aberto”, disse Marcus. “A IA atual ainda é bastante limitada, mas as coisas podem mudar.”

Com informações de The Washington Post

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!