O Google está preocupado com a forma que os seus funcionários utilizam os chatbots no trabalho, incluindo o próprio Bard. A informação foi divulgada nesta quinta-feira (15) pela Reuters.

O que aconteceu

  • Segundo fontes internas, os funcionários receberam algumas recomendações que devem ser seguidas à risca. 
  • Uma delas inclusive vale para todos que usam essas ferramentas: jamais inserir dados confidenciais nos chatbots de IA.
  • Um aviso de privacidade do Google atualizado em 1º de junho também recomenda que usuário final “não inclua informações confidenciais ou sensíveis em suas conversas com o Bard”.
  • A empresa disse que a regra faz parte de uma “uma política de longa data” sobre proteção de dados, já que a configuração padrão tanto no Bard como no ChatGPT é salvar o histórico de conversas.
  • Já os engenheiros de software devem evitar usar códigos de programação que podem ser gerado por chatbots.
  • A gigante de buscas disse que embora ajude os programados, até o Bard, feito “em casa”, pode gerar sugestões erradas de código.

Leia mais:

publicidade

Corrida da IA

Segundo uma pesquisa feita pelo site de relacionamento Fishbowl com quase 12.000 entrevistados das principais empresas dos Estados Unidos, cerca de 43% deles estavam usando o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem avisar.

Vale lembrar que as gigantes da tecnologia estão correndo contra o tempo para responder ao avanço do ChatGPT, da OpenAI. Bilhões estão em jogo em investimentos e especialistas já apontam que o mercado de IA valerá trilhões nos próximos anos. O Google lançará o Bard em mais de 180 países e em 40 idiomas.

publicidade

Com informações da Reuters

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!