As Três Leis da Robótica do escritor Isaac Asimov, por mais que sejam ficção, são o mais próximo que já chegamos de controlar o avanço dos robôs em uma tentativa de não destruírem a humanidade.

Em suas histórias, os robôs tinham que seguir três regras fundamentais:

  • 1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • 2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Mais tarde Asimov acrescentou a “Lei Zero”, que diz que “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.

No entanto, com os recentes avanços na inteligência artificial, cientistas da computação e empresas de tecnologia estão começando a considerar seriamente as regras que realmente precisam ser determinada para nos proteger de robôs e da inteligência artificial.

publicidade

O CEO da Microsoft, Satya Nadella, listou os seis “princípios e objetivos” que ele acredita que a pesquisa de AI deve seguir para manter a segurança da sociedade. Ao contrário de Asimov, que lista as regras que os robôs devem seguir, Nadella determina regras para a indústrias e cientistas que estão construindo os sistemas.

As regras são:

  1. A inteligência artificial deve ser projetada para ajudar a humanidade: Nadella diz que as máquinas que trabalham ao lado dos humanos devem fazer o “trabalho perigoso, como a mineração”, mas ainda “respeitar a autonomia humana.”
  2. A inteligência artificial deve ser transparente: “Nós não queremos apenas máquinas inteligentes, mas máquinas inteligíveis”, diz Nadella. “As pessoas devem ter uma compreensão de como a tecnologia vê e analisa o mundo.”
  3. A inteligência artificial deve maximizar as eficiências sem destruir a dignidade das pessoas: “Nós precisamos ampliar, aprofundar e diversificar o envolvimento da população na concepção destes sistemas. A indústria de tecnologia não deve ditar os valores e virtudes deste futuro.”
  4. A inteligência artificial deve ser projetada pensando na privacidade: Nadella pede “proteções sofisticadas de informações pessoais e de grupos.”
  5. A inteligência artificial deve ter responsabilidade algorítmica: os seres humanos devem ser capazes de desfazer qualquer dano não intencional no sistema. 
  6. A inteligência artificial deve se proteger contra viés: os desenvolvedores devem se certificar de que a inteligência artificial não será usada para discriminar as pessoas. 

O executivo ainda questiona se a automação não irá prejudicar a economia, com as pessoas perdendo seus empregos para os robôs, e sugere uma necessidade urgente de se discutir isso com a comunidade.

Via The Verge