Líderes de big techs, como Microsoft, Amazon e OpenAI, reuniram-se na Cúpula de Segurança da IA em Seul, realizada recentemente, para formular um acordo internacional. Entre as medidas discutidas, está uma espécie de “botão de pânico” para interromper o desenvolvimento da inteligência artificial.

O acordo entre big techs sobre IA

  • Líderes de grandes empresas de tecnologia, como Microsoft, Amazon e OpenAI, se reuniram na Cúpula de Segurança da IA em Seul para discutir um acordo internacional visando a segurança da inteligência artificial;
  • O acordo é apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propondo práticas seguras de desenvolvimento para tecnologias de IA avançadas;
  • O pacto inclui a criação de frameworks de segurança para desenvolvedores de IA, estabelecendo “linhas vermelhas” para riscos intoleráveis e medidas para prevenir o uso indevido das tecnologias, como ciberataques automatizados e produção de armas biológicas;
  • As empresas se comprometeram a desenvolver um “botão de pânico” para interromper instantaneamente o desenvolvimento de IA se os riscos não forem mitigados de forma eficaz. O acordo também destaca a necessidade de transparência e prestação de contas pelas empresas de IA.

O acordo, apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propõe o estabelecimento de práticas seguras de desenvolvimento para as tecnologias de IA mais avançadas.

publicidade

Leia mais:

Big techs vão criar medidas de segurança para IA

Ilustração de computador e cibersegurança
(Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

O pacto estipula a criação de frameworks de segurança para desenvolvedores de IA, essenciais para medir e enfrentar desafios, e prevenir o uso indevido de suas tecnologias.

publicidade

Esses frameworks também definirão “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas, com objetivo de fortalecer a segurança contra as ameaças mais graves.

(Imagem: Tada Images/Shutterstock)

Sobre o tal “botão de pânico”, o mecanismo permitiria cessar instantaneamente o desenvolvimento de modelos de IA se a mitigação de riscos não for assegurada de modo eficaz.

publicidade

O Primeiro-Ministro do Reino Unido, Rishi Sunak, enfatizou num comunicado que é a primeira vez que lideranças de IA de diferentes partes do mundo concordam com os mesmos princípios de segurança. O acordo também enfatiza a necessidade de transparência e prestação de contas pelas empresas de IA.