Imagem: shutterstock/Ascannio
Ao que tudo indica, não são apenas os usuários do ChatGPT que não entendem bem o funcionamento da inteligência artificial (IA) da OpenAI. Segundo Sam Altman, CEO da startup, a empresa também não compreende completamente seus grandes modelos de linguagem (LLM), indicando um problema de “interpretabilidade”.
O que você precisa saber:
Leia mais!
Vale lembrar que, recentemente, um relatório encomendado pelo governo do Reino Unido concluiu que os criadores de IA de fato “compreendem pouco sobre como os seus sistemas funcionam” e que o conhecimento científico é “muito limitado”.
“As técnicas de explicação e interpretabilidade do modelo podem melhorar a compreensão dos pesquisadores e desenvolvedores sobre como funcionam os sistemas de IA de uso geral, mas esta pesquisa no começo”, apontou o levantamento.
Algumas empresas estão tentando “abrir a caixa preta” do mistério, mapeando os neurônios artificiais de seus algoritmos. A Anthropic, por exemplo, iniciou recentemente um levantamento detalhado sobre o funcionamento interno de seus mais recente LLM, o Claude Sonnet.
A Anthropic fez um investimento significativo em pesquisas de interpretabilidade desde a fundação da empresa, porque acreditamos que compreender profundamente os modelos nos ajudará a torná-los mais seguros. Mas o trabalho realmente apenas começou. Compreender as representações que o modelo usa não nos diz como ele as utiliza; mesmo que tenhamos os recursos, ainda precisamos encontrar os circuitos nos quais eles estão envolvidos.
Anthropic em comunicado.
A ‘confissão’ de Altman chega após a OpenAI anunciar que os projetos com IA da startup passarão a ter uma nova equipe responsável para garantir a produção segura das tecnologias. A equipe será liderada diretamente CEO da companhia. Entenda a mudança aqui!
Esta post foi modificado pela última vez em 11 de julho de 2024 16:45