Siga o Olhar Digital no Google Discover
O Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) emitiu um alerta sobre e-mails escritos por inteligência artificial (IA) promovendo golpes e fraudes, como reportou o The Guardian.
Ofertas
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
De acordo com a agência de segurança, será cada vez mais difícil diferenciar e-mails legítimos de comunicações feitas por agentes mal-intencionados com o uso de IA.
- Dessa forma, o relatório sugere que a ameaça global de ransomware deve aumentar nos próximos anos.
- Ataques cibernéticos, golpes de mensagens falsas e engenharia social se tornarão mais difíceis de serem identificados.
- Isso porque a IA permite que autores de ameaças menos qualificados realizem operações cibercriminosas de maneira mais eficaz, acessando sistemas e extraindo dados das vítimas.
Até 2025, a IA generativa e os grandes modelos de linguagem tornarão difícil para todos, independentemente do seu nível de conhecimento de segurança cibernética, avaliar se uma solicitação de redefinição de e-mail ou senha é genuína, ou identificar tentativas de phishing, spoofing ou engenharia social.
Centro Nacional de Segurança Cibernética do Reino Unido (NCSC).
O NCSC lembra que os cibercriminosos já estão usando ferramentas de IA generativa para criar golpes de phishing e engenharia social, com mensagens e e-mails sem erros de tradução ou de ortografia. Erros desse tipo são um dos principais indicativos de fraudes e, para evitá-los, os cibercriminosos estão utilizando chatbots.
O relatório também destaca sobre agentes mal-intencionados que trabalham em IAs desenvolvidas exclusivamente para atividades criminosas, chamadas de GenAI. Esse tipo de IA utiliza códigos capazes de evitar medidas de segurança.
Por outro lado, a agência ressalta que a IA tem o potencial de servir como uma ferramenta defensiva, capaz de detectar ataques e desenvolver sistemas mais seguros.
Em novembro, durante a Cúpula de Segurança de Inteligência Artificial, o Reino Unido se comprometeu com o esforço global para gerir os riscos de IA de fronteira, garantindo o desenvolvimento seguro e responsável da tecnologia.
À medida que o NCSC faz tudo o que pode para garantir que os sistemas de IA sejam seguros desde a concepção, instamos as organizações e os indivíduos a seguirem os nossos conselhos sobre ransomware e higiene de segurança cibernética para fortalecer as suas defesas e aumentar a sua resiliência aos ataques cibernéticos.
Lindy Cameron, CEO do NCSC.