O Future of Life Institute, um instituto voltado a garantir que a inteligência artificial seja benéfica para os seres humanos, divulgou recentemente uma série de princípios a serem seguidos por empresas que investem no setor. O instituto tem entre seus sócios o físico Stephen Hawking e o CEO da Tesla e da SpaceX, Elon Musk, que apoiaram os princípios.

Eles são divididos em três categorias: Questões de Pesquisa, Ética e Valores e Questões de Longo Prazo. Os princípios foram debatidos e estabelecidos em uma reunião do instituto em 2017 e, além dos apoiadores já citados, contam também com o suporte de pessoas como Demis Hassabis (o CEO da DeepMind, empresa de inteligência artificial do Google) e Yan LeCun (diretor de pesquisa em inteligência artificial do Facebook).

“Inteligência artificial (IA) já nos deu ferramentas benéficas que são usadas diariamente por pessoas no mundo todo. Seu desenvolvimento continuado, guiado pelos seguintes princípios, oferecerá oportunidades deslumbrantes para ajudar e empoderar pessoas nas décadas e séculos por vir”, diz o instituto. Os 23 princípios podem ser lidos abaixo, em tradução livre:

Questões de pesquisa

1) Meta da pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não-direcionada, mas criar inteligência benéfica.

publicidade

2) Fundos da pesquisa: Investimentos em IA devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões polêmicas de ciência da computação, economia, direito, ética e estudos sociais, tais como: como podemos aumentar nossa prosperidade por meio da automação e, ao mesmo tempo, manter os recursos e propósitos das pessoas?

3) Ligação ciência-política: Deve haver um diálogo saudável e construtivo entre pesquisadores de IA e agentes reguladores.

4) Cultura de pesquisa: Uma cultura de cooperação, confiança e transparêcia deve ser cultivada entre pesquisadores e desenvolvedores de IA.

5) Evitar corridas: Equipes desenvolvendo sistemas de IA devem cooperar ativamente para evitar cortes em padrões de segurança.

Ética e Valores

6) Segurança: Sistemas de IA devem ser seguros ao longo de toda sua vida operacional, e sua segurança deve ser verificável em todos os casos em que isso seja possível.

7) Transparência em falhas: Se um sistema de IA causar dano, deve ser posível verificar por quê.

8) Transparência jurídica: Qualquer envolvimento de uma IA em um processo de decisão judicial deve oferecer uma explicação aceitável e auditável por uma autoridade humana competente.

9) Responsabilidade: Desenvolvedores de sistemas de IA avançados serão responsáveis pelas implicações morais de seu uso, mau uso e ações, com oportunidade e responsabilidade de moldar essas implicações.

10) Alinhamento de valores: Sistemas de IA altamente autônomos devem ser desenhados de tal maneira que seus comportamentos e objetivos possam garantidamente se alinhar a valores humanos em sua operação.

11) Valores humanos: Sistemas de IA devem ser desenhados e operados de forma a ser compatíveis com ideais de dignidade, direitos, liberdades humanas e diversidade cultural.

12) Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que elas geram, dado o poder dos sistemas de IA de usar e analisar esses dados.

13) Liberdade e privacidade: A aplicação de IA a dados pessoais não deve limitar a liberdade real ou percebida das pessoas.

14) Benefício compartilhado: Tecnologias de IA devem empoderar e ajudar o máximo possível de pessoas.

15) Prosperidade compartilhada: A prosperidade econômica criada por IA deve ser compartilhada amplamente para beneficiar toda a humanidade.

16) Controle humano: Humanos deverão controlar quando e como delegar decisões a sistemas de IA para cumprir objetivos escolhidos por humanos.

17) Não-subversão: A autoridade responsável pelo controle de sistemas avançados de IA deve respeitar e melhorar, e não subverter, os processos sociais e cívicos dos quais dependem a saúde da sociedade.

18) Corrida armamentista de IA: Uma corrida armamentista em sistemas autônomos de IA deve ser evitada.

Questões de longo prazo:

19) Caução de capacidades: Não havendo consenso, devemos evitar hipóteses firmes sobre os limites superiores dos sistemas de IA do futuro.

20) Importância: IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e gerenciada com recursos e cuidado adequados.

21) Riscos: Riscos representados por sistemas de IA, especialmente riscos catastróficos ou existenciais, devem estar sujeitos a planos e esforços de mitigação adequados ao seu possível impacto.

22) Melhoramento autônomo recursivo: Sistemas de IA desenhados para se melhorarem ou replicarem sozinhos de uma maneira que possa levar à qualiade ou quantidade rapidamente crescente devem estar sujeitos a medidas rígidas de controle e regulação.

23) Bem comum: Superinteligência só deve ser desenvolvida a serviço de ideias éticas amplamente compartilhadas e pelo bem de toda a humanidade, e não pelo benefício de apenas um estado ou organização.