O Google está preocupado com a forma que os seus funcionários utilizam os chatbots no trabalho, incluindo o próprio Bard. A informação foi divulgada nesta quinta-feira (15) pela Reuters.
O que aconteceu
- Segundo fontes internas, os funcionários receberam algumas recomendações que devem ser seguidas à risca.
- Uma delas inclusive vale para todos que usam essas ferramentas: jamais inserir dados confidenciais nos chatbots de IA.
- Um aviso de privacidade do Google atualizado em 1º de junho também recomenda que usuário final “não inclua informações confidenciais ou sensíveis em suas conversas com o Bard”.
- A empresa disse que a regra faz parte de uma “uma política de longa data” sobre proteção de dados, já que a configuração padrão tanto no Bard como no ChatGPT é salvar o histórico de conversas.
- Já os engenheiros de software devem evitar usar códigos de programação que podem ser gerado por chatbots.
- A gigante de buscas disse que embora ajude os programados, até o Bard, feito “em casa”, pode gerar sugestões erradas de código.
Leia mais:
- Inteligência artificial pode revolucionar o mercado corporativo
- O que é ChatGPT e como acessar a inteligência artificial em português
- Aprenda a usar o ChatGPT: 10 dicas valiosas para criar perguntas precisas
Corrida da IA
Segundo uma pesquisa feita pelo site de relacionamento Fishbowl com quase 12.000 entrevistados das principais empresas dos Estados Unidos, cerca de 43% deles estavam usando o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem avisar.
Vale lembrar que as gigantes da tecnologia estão correndo contra o tempo para responder ao avanço do ChatGPT, da OpenAI. Bilhões estão em jogo em investimentos e especialistas já apontam que o mercado de IA valerá trilhões nos próximos anos. O Google lançará o Bard em mais de 180 países e em 40 idiomas.
Com informações da Reuters
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!