Os funcionários do Google não estão nem um pouco satisfeitos com as notícias sobre o Project Maven, no qual a empresa colabora com o Pentágono para desenvolver softwares para drones. Um manifesto com mais de 3.100 assinaturas foi entregue a Sundar Pichai, CEO da empresa pedindo que a companhia se afaste do projeto, como informa o New York Times.

O projeto em questão utiliza as técnicas de reconhecimento de imagem que o Google desenvolve há anos nas milhões de horas de vídeo capturados pelos drones. O objetivo é utilizar a tecnologia da empresa para observar pessoas ou objetos de interesse nas filmagens.

“Caro Sundar, nós acreditamos que o Google não deveria estar envolvido em negócios de guerra. Portanto, solicitamos que o Project Maven seja cancelado, e que o Google crie, publique e aplique uma política clara de que nem o Google nem seus contratantes construirão tecnologia para guerra”, diz a carta.

A carta em questão chega a lembrar do antigo lema da empresa, o famoso “Don’t be evil” (“Não seja mau”). A crítica é de que a colaboração para criação de tecnologia para vigilância militar pode ter resultados letais, o que “não é aceitável” e pode “sujar a imagem do Google e sua capacidade de competir por novos talentos de forma irreparável”.

publicidade

Um representante da empresa, por sua vez, publicou uma resposta à carta no qual defende sua participação no Project Maven, afirmando que a cooperação com o Departamento de Defesa dos EUA não tem quaisquer fins ofensivos.

“Uma parte importante da nossa cultura é ter funcionários que estão ativamente engajados no trabalho que realizamos. Sabemos que há muitas questões em aberto envolvendo o uso de novas tecnologias, então essas conversas – com funcionários e especialistas externos – são muito importantes e benéficas.

O Maven é um projeto bastante conhecido do Departamento de Defesa, e o Google está trabalhando em uma parte dele – especificamente voltado para propósitos não-ofensivos e utilizando software de código aberto para reconhecimento de objetos disponível para qualquer cliente do Google Cloud. Os modelos são baseados somente em dados públicos. A tecnologia é usada para marcar imagens para análise humana e é voltada para salvar vidas e evitar que pessoas tenha que fazer um trabalho tedioso.

Qualquer uso militar da tecnologia de aprendizado de máquina gera preocupações válidas. Estamos ativamente engajados em uma discussão com toda a empresa sobre esse assunto importante e também com especialistas externos, enquanto continuamos a desenvolver políticas sobre o desenvolvimento de nossas tecnologias de aprendizado de máquina”.

Ainda que o Google afirme que sua tecnologia não é utilizada para fins ofensivos, a carta dos funcionários questiona essa alegação, apontando que “a tecnologia está sendo desenvolvida para os militares e, assim que for entregue, pode ser facilmente usada para apoiar tarefas letais”. Na visão dos funcionários, ainda que as ferramentas não sejam usadas para um ataque direto, a identificação de um alvo pode ser o primeiro passo para o que pode vir a ser um ataque no futuro, o que é algo que incomoda boa parte dos funcionários do Google.