(Imagem: Tada Images / Shutterstock)
Pesquisadores de Stanford divulgaram um relatório nessa semana que mede a transparência dos principais modelos de inteligência artificial (IA). O estudo pediu que empresas como Google e OpenAI fornecessem mais informações sobre como suas tecnologias são feitas, hardware utilizado, dados de treinamento e mais.
Como observa o relatório do Institute for Human Centered AI de Stanford (HAI), grupo de pesquisa e desenvolvimento de tecnologias de IA, os sistemas com menos transparência apresentam uma série de dificuldades para investigações acadêmicas, elaboração de políticas e compreensão dos consumidores sobre os produtos.
Leia mais:
A avaliação de transparência foi liderada pelos pesquisadores Rishi Bommasani e Percy Liang e reuniu uma equipe de estudantes das universidades de Stanford, MIT e Princeton. O objetivo consistiu em elaborar o sistema de pontuação nomeado de Foundation Model Transparency Index, que analisa 100 aspectos de transparência dos modelos de IA.
As pontuações mais altas variaram de 47 a 54, o que, segundo o relatório “não é para se gabar”. Já a medição mais baixa ficou em 12%.
Esta é uma indicação bastante clara de como estas empresas se comparam aos seus concorrentes, e esperamos que as motive a melhorar a sua transparência.
Rishi Bommasani, líder do Center for Research on Foundation Models (CRFM).
Confira o ranking completo:
Bommasani avalia que a transparência é um indicativo importante para enfrentar ameças ao consumidor, como anúncios enganosos e desinformação.
A transparência dos modelos também garante que os reguladores tenham as informações essenciais para formular políticas de IA.
Se não houver transparência, os reguladores não conseguirão sequer colocar as questões certas, muito menos tomar medidas nestas áreas.
Rishi Bommasani, líder do Center for Research on Foundation Models (CRFM).
Esta post foi modificado pela última vez em 18 de outubro de 2023 15:03