Siga o Olhar Digital no Google Discover
Líderes de big techs, como Microsoft, Amazon e OpenAI, reuniram-se na Cúpula de Segurança da IA em Seul, realizada recentemente, para formular um acordo internacional. Entre as medidas discutidas, está uma espécie de “botão de pânico” para interromper o desenvolvimento da inteligência artificial.
Ofertas
Por: R$ 60,56
Por: R$ 27,81
Por: R$ 52,79
Por: R$ 3.099,00
Por: R$ 225,90
Por: R$ 241,03
Por: R$ 237,99
Por: R$ 216,11
Por: R$ 79,90
Por: R$ 174,00
Por: R$ 37,99
Por: R$ 284,04
Por: R$ 1.439,90
Por: R$ 94,90
Por: R$ 89,90
Por: R$ 313,50
Por: R$ 475,87
Por: R$ 23,65
Por: R$ 235,28
Por: R$ 36,22
Por: R$ 727,20
Por: R$ 2.069,90
Por: R$ 799,90
O acordo entre big techs sobre IA
- Líderes de grandes empresas de tecnologia, como Microsoft, Amazon e OpenAI, se reuniram na Cúpula de Segurança da IA em Seul para discutir um acordo internacional visando a segurança da inteligência artificial;
- O acordo é apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propondo práticas seguras de desenvolvimento para tecnologias de IA avançadas;
- O pacto inclui a criação de frameworks de segurança para desenvolvedores de IA, estabelecendo “linhas vermelhas” para riscos intoleráveis e medidas para prevenir o uso indevido das tecnologias, como ciberataques automatizados e produção de armas biológicas;
- As empresas se comprometeram a desenvolver um “botão de pânico” para interromper instantaneamente o desenvolvimento de IA se os riscos não forem mitigados de forma eficaz. O acordo também destaca a necessidade de transparência e prestação de contas pelas empresas de IA.
O acordo, apoiado por países como EUA, China, Canadá, Reino Unido, França, Coreia do Sul e Emirados Árabes Unidos, propõe o estabelecimento de práticas seguras de desenvolvimento para as tecnologias de IA mais avançadas.
Leia mais:
- Ambientalista diz que IA pode ajudar (mas também prejudicar) o meio ambiente
- 3 formas de acessar o ChatGPT-4 de graça
- Você deve usar “obrigado” e “por favor” no ChatGPT, Gemini e outras IAs?
Big techs vão criar medidas de segurança para IA

O pacto estipula a criação de frameworks de segurança para desenvolvedores de IA, essenciais para medir e enfrentar desafios, e prevenir o uso indevido de suas tecnologias.
Esses frameworks também definirão “linhas vermelhas” para riscos considerados intoleráveis, como ciberataques automatizados e a produção de armas biológicas, com objetivo de fortalecer a segurança contra as ameaças mais graves.

Sobre o tal “botão de pânico”, o mecanismo permitiria cessar instantaneamente o desenvolvimento de modelos de IA se a mitigação de riscos não for assegurada de modo eficaz.
O Primeiro-Ministro do Reino Unido, Rishi Sunak, enfatizou num comunicado que é a primeira vez que lideranças de IA de diferentes partes do mundo concordam com os mesmos princípios de segurança. O acordo também enfatiza a necessidade de transparência e prestação de contas pelas empresas de IA.