Imagem: Markus Mainka/Shutterstock
A OpenAI revelou os seus planos para combater os perigos que acredita estarem associados à tecnologia que desenvolve, tais como a possibilidade de permitir que indivíduos mal-intencionados aprendam a construir armas químicas e biológicas.
A equipe de “Preparação” da OpenAI, liderada pelo professor de inteligência artificial (IA) do MIT, Aleksander Madry, contratará pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de políticas para monitorar e testar constantemente a tecnologia, a fim de alertar a empresa caso acreditem que alguma de suas capacidades de IA esteja se tornando perigosa.
Leia mais:
O debate sobre o quão perigosa a IA pode se tornar tem aumentado, especialmente com a popularidade do ChatGPT e o avanço da IA generativa. Líderes de destaque em IA, incluindo OpenAI, Google e Microsoft, alertaram este ano que a tecnologia pode representar perigo existencial para a humanidade, em pé de igualdade com pandemias ou armas nucleares.
Alguns pesquisadores de IA argumentam que o foco nesses riscos maiores e assustadores permite que empresas se distanciem dos efeitos prejudiciais que a tecnologia já está causando. Por outro lado, um grupo crescente de líderes empresariais em IA afirma que os riscos são exagerados e que as empresas devem seguir em frente no desenvolvimento da tecnologia para ajudar a melhorar a sociedade – e ganhar dinheiro com isso, reflete o The Washington Post.
A OpenAI tem adotado posição intermediária nesse debate. Seu CEO, Sam Altman, reconhece que existem riscos sérios a longo prazo inerentes à tecnologia, mas também enfatiza a importância de resolver problemas já existentes. Altman argumenta que a regulamentação para tentar prevenir impactos nocivos da IA não deve dificultar a competição para empresas menores. Ao mesmo tempo, ele impulsiona a empresa para comercializar sua tecnologia e arrecadar fundos para promover crescimento mais rápido.
A equipe monitorará como e quando a tecnologia da OpenAI pode instruir as pessoas a hackear computadores ou construir armas químicas, biológicas e nucleares perigosas, além do que as pessoas podem encontrar online por meio de pesquisas regulares. A empresa também permitirá que terceiros independentes qualificados de fora da OpenAI testem sua tecnologia.
Madry não concorda com o debate entre os que temem que a IA já tenha ultrapassado a inteligência humana e os que querem eliminar todas as barreiras para o desenvolvimento da IA. Segundo ele, essa dicotomia é extremamente simplista e é necessário fazer um trabalho para garantir que os benefícios da IA sejam realmente alcançados e os aspectos negativos minimizados.
Esta post foi modificado pela última vez em 19 de dezembro de 2023 02:01